多传感器检测十篇

2024-09-12

多传感器检测 篇1

1 测量原理

根据光的散射理论,假设元件表面的微观粗糙度服从高斯随机分布,不考虑元件表面的吸收,当入射光垂直照射时,元件表面的反射光强度为

式中,波长λ的入射光强为I0;Ra为元件表面轮廓的方均根误差,是评价表面粗糙度的参数之一。式(1)反映了表面粗糙度和光源波长分别与散射光强之间的关系。由于传感器的结构参数、光纤参数、光纤损耗、测量环境以及背景光扰动等非系统误差(记为β(λ)[1])严重影响了光纤传感系统的检测精度,因此采用双光源进行同时测量,可有效地减小非系统误差。

因此设计了双波长激光光纤传感表面散射特性检测系统。双波长分别为λ1和λ2,上述干扰因素对于双光源的影响结果分别记为β(λ1)和β(λ2),由公式(1)得出

由于采用的是同一光纤光路,因此可以认为这种影响是相等的,即β(λ1)=β(λ2),则由式(2)可得

式(3)就是双光源光纤传感器表面粗糙度检测的表达式。可以看出,双光源原理从理论上消除了干扰因素β(λ) 的影响。对式(3)取对数,得出表面粗糙度评价参数Ra与Iλ1(x)、Iλ2(x)的关系如下

通过测量就可以获得表面粗糙度Ra。

2 实验装置

根据上述分析,设计了多波长表面粗糙度检测光纤传感器,其结构如图1所示。不同波长的激光器1和激光器2发射出光,经耦合装置进入发送光纤,发送光纤出射的光垂直入射到被测样品的表面,光线经被测表面相互作用之后,返回的反射光携带有被测表面的轮廓信息被接收光纤接收,接收光纤中的光信号再分成两个支路分别进入探测器1(光纤耦合硅探测器,型号:DET02AFC,波长范围为400~1 100 nm)与探测器2(光纤耦合InGaAs探测器,型号:DET01CFC,波长范围为800~1 700 nm)中,由于探测器只允许规定波长范围内的光线通过,所以利用两个探测器可以将两个不同波长的光源分开;然后经探测器将光信号转换为电压信号,再对电信号进行滤波放大预处理,经A/D转换后进入计算机,以电压信号来显示被测样品表面的信息。

3 传感器的实验研究

为了研究元件表面的散射特性,采用650nm,1 310 nm和1 550 nm的激光波长作为光源,以哈尔滨市精密样板工具厂生产的平磨标准样品(符合GB6060.2-85标准)作为测试样本进行检测,其输出特性曲线如图2所示。

图2为入射光分别以650 nm,1 310 nm和1 550 nm三种波长垂直入射到元件表面时,元件表面的散射光强在指定参数下随着工作距离的变化情况。从图2a~图2c中三组图可以看出,以平磨为反射面测得的散射光强随着表面粗糙度的增大而减小,且波长越长,最大散射光强越大,最大散射光强随着表面粗糙度的增大衰减越快;随着工作距离的增大,各特性曲线的散射光强先增大后减小,且波长越长,前坡线性范围越小,灵敏度越高,后坡线性范围越大,但灵敏度较差;而且特性曲线在峰值区对距离变化不敏感,而对表面粗糙度的变化敏感,因而可以利用在峰值区测得的输出信号来检测元件表面的散射特性。

图2d给出了不同波长、相同表面粗糙度Ra=0.80μm平磨样品的光纤传感器测量结果。从图2中可以看出,表面粗糙度为Ra=0.80μm,光学检测的波长越长,测得的散射光强越大;随着工作距离增大,散射光强先增大后减小,波长越长,曲线衰减的越快,650 nm波长下的散射光强衰减最小。在同一波长下,表面粗糙度越大,传感器输出曲线的前坡斜率较小,灵敏度较低。在一定表面粗糙度范围内,传感器输出曲线对不同波长的光源敏感。因此,在工程测量中要根据具体情况来选择光源的工作波长。

4 结 论

多传感器检测 篇2

随着信息技术的快速发展和现代军事及民用需求的不断提高,对目标跟踪的精度也相应地提出了更高的要求。在真实的目标跟踪系统中[1,2],目标的状态总是处在不断变化中,当目标真实运动模型与算法模型不匹配时,跟踪精度会明显下降,此时采用多模型(Multiple Model,MM)机动目标跟踪算法将会成为最佳选择。然而,当今的多模型目标跟踪方法[3]大都停留在理论层面,对于多模型的实际应用价值及各模型的应用场合都需要做进一步的研究。

本文选用当今最为流行、应用最广泛的雷达和红外作为传感器,在红外/雷达双模导引头[4]平台下开展对交互式多模型[5]机动目标跟踪算法的研究,并加入噪声干扰,更接近真实的军事与民用环境。首先搭建红外/雷达双模导引头仿真平台[6],进而设计基于多传感器[7,8]的多模型机动目标跟踪算法,采用扩展卡尔曼滤波[9],最终实现算法的软件仿真及跟踪性能评估[10],验证了所设计方法的有效性和实用性。

1 多传感器平台搭建

雷达和红外传感器是目前常用的两种目标探测和跟踪传感器,采用雷达为主、红外成像传感器探测为辅的信息融合系统进行目标跟踪能够使系统降低对敌方干扰的脆弱性,提高系统可靠性,现已广泛应用于各个领域。因此,本文选取雷达与红外双模导引头作为传感器,模拟生成多传感器的数据生成模块,为多模型机动目标跟踪算法提供良好的检测平台。

毫米波雷达导引头的观测数据包括观测系下的视线方位角、视线俯仰角、弹目距离、多普勒频率、雷达信噪比等信号。经过坐标转换,得到的参考系下的雷达观测数据,建立如下雷达观测方程:

式中:Z1(k)=[φR,θR,r]T,表示雷达导引头的观测向量;φR为雷达视线方位角,θR为雷达视线俯仰角,r为弹目距离。V1(k)是均值为零、协方差阵为R1(k)的白高斯噪声向量。

红外成像导引头的观测数据包括观测系下的视线方位角,视线俯仰角等信号。经坐标转换得到参考系下的红外观测数据,建立如下红外观测方程:

式中:Z2(k)=[φIR,θIR]T,表示红外导引头观测向量,φIR为红外视线方位角,θIR为红外视线俯仰角;V2(k)是均值为零、协方差阵为的白高斯噪声向量。

本文综合应用点迹合并方法和点迹串行处理方法,搭建毫米波雷达和红外数据融合的多传感器平台。假设雷达的扫描周期为5 ms,红外的扫描周期为10 ms,所以首先将雷达和红外点迹数据串行合并成为点迹数据流,进行点迹—航迹相关;对于在10 ms时刻,若雷达点迹和多个红外点迹均与航迹相关上,则对这些点迹进行点迹压缩合并,如图1所示。

2 多模型跟踪算法设计

本文选取目标跟踪中经常使用的几种目标运动模型组成模型集,然后根据模型间的配合规则设计多模型选取算法,如去掉不可能模型,合并相似模型,最可能模型选择算法以及基于期望最大算法的迭代策略等,进而对所得到的融合数据应用扩展卡尔曼滤波算法建立外推点迹,最终形成新航迹。设计框图如图2所示。

2.1 模型集的确定

大部分的跟踪算法都是基于模型的,因此目标运动模型设计是机动目标跟踪的基本要素之一,也是一个关键的问题。在建立机动目标模型时,一般的原则是所建立的模型既要符合实际机动模式,又要便于数据处理。本文选取目标跟踪中常用的几种运动模型组成模型集,包括CV模型、CA模型和当前统计模型。

2.2 配合规则

多模型算法按配合规则基本上可分为三代,静态多模型算法(SMM)、交互式多模型算法(IMM)、变结构多模型算法(FSMM)。以上三代多模型算法跟踪精度逐渐升高,同时算法的复杂度也依次升高、可实现性逐步变差。综合考虑算法的实用性和代价,IMM算法的交互方式更合理有效一些,是目前研究应用最多、被认为是最成功的一种算法。

因此,本文采用IMM算法作为模型之间的配合规则,完成多模型跟踪算法的设计。

2.3 滤波处理

本文选用扩展卡尔曼滤波方法对融合后的数据进行滤波处理。首先建立状态方程和观测方程,根据前一个估计值和最近一个观测数据来估计信号的当前值,并用状态方程和递推方法来进行估计,其解是以估计值形式给出的。由于滤波是采用递推算法,所以数据存储量少,运算量小,非常适合实时处理系统的应用。

3 跟踪效果仿真

选取扫描周期TIR=0.02s对目标进行跟踪模拟。目标初始位置为(1 000,1 000,1 000)m,初始运动速度为(300,300,300)m/s,初始加速度为(10,10,10)m/s2。

图3分别为x方向,y方向,z方向位置估计误差。

图4反映了位置估计误差的RMSE。

图5为目标运动轨迹和跟踪轨迹的三维仿真示意图。

仿真结果显示:在基于雷达/红外双模导引的多传感器仿真平台下,所设计的多模型机动目标跟踪算法跟踪精度相对较高,收敛较快,迟滞较小。

4 结语

本文主要研究基于多传感器的多模型机动目标跟踪算法,在更加接近真实环境的雷达红外双模导引模拟仿真平台下设计了多模型机动目标跟踪算法,并对其跟踪性能进行仿真验证,仿真结果证实了该算法的有效性和实用性。

摘要:多模型目标跟踪算法由于其独特的处理未知结构和可变参数的优点,已成为当前目标跟踪研究领域的一个重要方向。然而当今的多模型目标跟踪方法大都停留在理论层面,因此在实际应用层面上研究并设计多模型目标跟踪算法,并实现稳定、可靠而精确的目标跟踪意义重大。选用当今最为流行、应用最广泛的雷达和红外作为传感器,在红外/雷达双模导引头的多传感器平台下展开研究,设计并仿真实现了更接近真实的军事与民用环境的多模型机动目标跟踪算法。仿真结果验证了该算法跟踪性能的有效性。

关键词:目标跟踪,多模型算法,多传感器平台,数据融合

参考文献

[1]周宏任.机动目标跟踪[M].北京:国防工业出版社,1991.

[2]BAR SHALOM Y.Multitarget multisensor tracking[M].Bos ton:Artech House,1992.

[3]韩宏亮.基于IMM的雷达目标跟踪算法研究[D].南京:南京信息工程大学,2011.

[4]朱志宇.基于红外和雷达数据融合的机动目标跟踪方法[J].激光与红外,2007,37(2):170-174.

[5]BLOM H A P,BLOEM E A.Interacting multiple model jointprobabilistic data association avoiding track coalescence[C]//Proceedings of the 41st IEEE Conference on Decision and Control.Las Vegas,NV,USA:IEEE,2002:3408-3415.

[6]罗寰,于雷,陈中起,等.基于多模型交互的红外目标跟踪方法研究[J].激光与红外,2009,39(7):776-779.

[7]张红霞.基于多源传感器信息融合的目标跟踪算法研究[D].成都:电子科技大学,2011.

[8]潘丽娜.基于扩展卡尔曼滤波的多传感器目标跟踪[J].舰船电子工程,2010,30(12):71-73.

[9]苏峰,王国宏,何友.修正的逻辑航迹起始算法[J].现代防御技术,2004,32(5):66-68.

多传感器检测 篇3

【摘要】 针对交通管理部门对车辆排队长度智能化管控的迫切要求,本文提出了一种基于多段地磁传感器的高速公路收费站排队长度检测算法。通过研究驾驶员的行为习惯及车辆跟驰行驶中特点,本文对车辆跟驰行驶区与自由行驶区、跟驰行驶区与逼近前车区的速度临界值进行了界定,分析了车辆通过地磁传感器时速度的动态变化规律,并基于地磁传感器关键数据的相关性分析,提出了均速模型。最后利用现场试验对本检测算法进行验证,试验结果证明本文提出的均速模型能够有效的估计高速公路收费站前车辆排队长度,且地磁装置成本低廉、布设方便,能够大规模的推广应用,为交通管理部门实时监控交通运行情况提供帮助。

【关键词】 地磁传感器 高速公路收费站 排队长度检测 跟驰行驶 均速模型

引言:

随着经济不断发展,我国大中城市机动车保有辆也在不断攀升,截止到2015年底,深圳市机动车保有量超过320万辆[1],车辆密度达到481辆/公里,远超270辆/公里的国际警戒线,日益增多的机动车使得城市交通压力与日俱增。研究车辆排队长度,可以有效反映城市交通运行情况,辅助交通管理部门分析决策,从而缓解城市交通拥堵以及由此带来的交通安全等问题。目前我国车辆排队长度检测方法大体可以分为三类:

通过设置磁感线圈、微波探测器、雷达等传统交通监测设备进行排队长度检测及计算。

通过GPS数据对车辆排队长度进行检测。

通过视频数据对车辆排队长度进行检测。视频检测成本低、覆盖范围广、受环境影响小,准确度也相对较高,其理论误差可以控制在8%以内[1]。

相对于以上三类车辆排队长度检测方式,地磁传感器安装尺寸小、灵敏度高、使用寿命长、对路面破坏小,且其探测机制主要利用地球磁场在铁磁物体通过时的变化进行检测,对环境要求较低,能够准确的识别车辆存在和通过车型。目前我国基于地磁传感器的车辆排队长度算法研究相对较少,其中张永终等人融合地磁检测方法设计了一种多传感器融合检测系统,实现了对各方向排队长度的检测[2];贾利民等人根据单个地磁传感器数据反馈的车辆经过时长、车头车尾时距等动态变化规律,提出了车尾时距模型、通过时间模型和综合模型,为排队长度检测提供了一个新的算法[3]。本文基于地磁传感器在高速公路收费口的实际应用,利用多车道车辆通过距离收费站200m,125m,50m地磁传感器时的波形、时长等关键信息,提出了一种的新的车辆排队长度算法。为交通管理部门及高速公路企业提供了数据支撑和决策参考。

一、多段地磁传感器排队长度检测方法

1.1 问题分析

高速公路收费站前的车辆排队行为符合车辆跟驰特点,同时由于高速公路收费站口对车辆排队长度的硬性要求以及高速公路交通流的自身特点,其车辆排队行为又具有一定的特殊性。本文以车辆跟驰行为为基础,对高速公路收费站前车辆排队情况进行类比描述。

假定所有驾驶员行为符合MISSION模型,车辆在进入收费站排队过程中分别经过无反应区(可自由行驶段),无意识反应区(跟驰行驶区)以及有意识反应区(逼近前车区),车辆跟驰行驶情况如图1。

根据Hodfs的调查,驾驶员在高速行车中会低估安全距离,在实际交通中,距离与速度不成正比[4]。故假定车辆在无反应区行驶时匀速行驶;进入无意识反应区后将根据前车减速情况开始减速,视作匀减速阶段;进入有意识反应区时,车速随着车头间距减小而减小,视作变减速阶段。通过在收费站前有间隔的设置地磁传感器,可以有效的获得车辆通过地磁传感器时的波形、时长等各项数据变化情况,从而判断不同阶段车辆的实际行驶行为,最后估算出收费站前车辆的排队长度。

1.2 参数选取

受制于地磁特点和传感器埋设方式等条件影响,当出现车辆经过地磁传感器所在断面变换车道、车辆以非正常行车方式在道路上行驶(如两条道路之间行驶)以及地磁断面1至地磁断面4之间出入口不唯一(如存在岔路)等情况时,会导致地磁传感器漏检、多检以及传输数据出现噪声数据,无法精确反映车辆通过情况。

故在前期实验中本文抽取了7天地磁数据样本,并对样本中各项数据与排队长度的相关性以及样本数据本身的容错性进行了估算,其中:

为了确定样本的有效性,在前期实验中,以基于微波检测的深圳市非节假日、高速公路同一路段的不同时间车辆行驶数据的均值作为标准,对抽取的数据样本进行独立μ检验,设显著水平ɑ = 5%。

各项特征数据与排队长度的相关性采用Spearman秩相关检验,即:将数据样本X与对应的排队长度样本Y配对形成(x1,y1),(x2,y2) (xn,yn),并将它排序,根据两个顺序样本的秩(Ri和Si)得到n对秩:(R1,S1)(R2,S2) (Rn,Sn)。有相关系数:

1.3 测距与阈值选取

根据MISSION模型,车辆在进入跟驰行驶区之前和逼近前车区时存在两个DV值(速度阈值),即SDV(驾驶员意识到正在靠近一辆低俗行驶车辆的临界点)与CLDV(跟驰过程中驾驶员意识到速度差很小但仍然靠近前车的临界点)。

为了准确的得到车辆在自由行使区、跟驰行驶区以及逼近前车区的相关数据,实验将地磁断面埋设间隔设置为50m,125m,200m。当车辆进入收费站200m检测范围内时,驾驶员将根据收费站前车辆排队情况进行减速,其中地磁断面车速判断阈值与两个临界值SDV与CLDV动态相关。

根据驾驶行为的不同程度,在有预期的平缓减速状态下,减速度的通常上限值在-2到-2.6M/S2之间。同时,受到驾驶员与车辆特性的共同制约,驾驶员从施加操纵力到出现操纵力的时间约为0.04s,驾驶员的反应时间参照表2。

表2 驾驶员反应时间及小客车制动系协调时间

可以估算出车辆进入逼近前车区时的临界速度CLDV约为4.16m/s,故3道地磁存在一个共同的拥堵阈值fb,逼近前车区内车辆速度不高于fb,即15km/h。

同理,3道地磁受到测距(埋设点至上一埋设点的距离)远近影响,对应存在2个的畅通阈值fub,即车辆进入跟驰行驶区的临界速度SDV。根据现场微波实测,车辆在进入收费站200m检测区域时均处于减速状态,平均减速度约为0.68m/ s2,根据公式:

二、实例分析

2.1 实验数据

实验选取2015年8月2日0时至24时全天的视频检测数据数据进行参照。地磁检测系统每5分钟提取一次断面的平均车速(平均车速=每5min内通过车辆速度总和/通过车辆数 ),剔除掉高于120km/h的异常数据后,可得以时间为X轴,各地磁断面平均车速为Y轴统计图(图中D2、D3、D4速度分别为断面2、3、4的平均时速,横坐标288个刻度为5分钟间隔序号)。

根据均速模型算法,地磁检测的排队长度与视频实时排队长度对比如图4(虚线为地磁检测数据,实线为视频检测数据)。根据Spearman秩相关检验法,得地磁检测排队长度与视频检测排队长度相关度达92.3%,实验结果达到预期值。

2.2 结果分析

由上述实验结果可以得出,本文提出的均速模型与现场视频检测结果高度吻合,综合实验中出现的异常情况,该均速模型受到的客观干扰主要存在以下两个方面:(1)收费站前不同车道车型不统一,需要结合车型识别对车辆经过断面产生的相对车速进行改良,减少测速扰动;(2)受到驾驶员行为影响,车辆会自动变道寻找排队长度最短车道。

在收费站前排队长度较短情况下,车辆经过外围两道地磁断面时有可能出现变道情况,带来测速异常高值,需要进一步在均速计算中剔除明显异常高值。由于受到算法影响,在断面2、3存在异常高值情况时一般在距离收费站口较近的断面1不存在车辆变道情况(已经选好车道),故对系统判断车辆真实排队长度不产生影响,鲁棒性强。

另外,本文提到的收费站口排队长度检测系统可以进一步推广到城市交叉口信号检测中,结合平均车速直接辨别有利于直接判别拥堵情况,无需复杂的算法和数据处理,对处理器运行能力要求较低,便于推广。

三、结束语

结合跟驰模型中车辆行进行为以及MISSION模型对驾驶员行为的研究,得到了基于地磁传感器判别车辆行进情况的拥堵、畅通阈值,形成了对车辆排队长度有效估计的均速模型。

通过现场试验,证明了该模型的有效性。与传统视频检测、浮动车检测、微波检测方法相比,本文提出的排队长度算法更为简单,易于实现。另外地磁传感器成本低廉,安装方便,有利于快速推广。

参 考 文 献

[1] 杨永辉,黄磊,刘昌平.基于视频分析的车辆排队长度检测[J].计算机应用研究,2011,28(3):1037-1041.

[2] 张永终,张军强,乔志龙.基于多传感器融合的排队长度检测系统设计[J].道路交通与安全,2015,15(3):23-28.

[3] 贾利民,陈娜,李海舰,董宏辉.基于单个地磁传感器融合的交叉口排队长度估计[J].吉林大学学报(工学版),2015,5,8(网络优先出版).

[4] Wiedemann R, Reiter U. Microscopic Traffic Simulation:The Simulation System MISSION. Background and Actual State CEC Project ICARUS(V1052),Final Report,1992.

多传感器检测 篇4

数据关联是实现多目标跟踪的核心技术之一,也是实现多传感器信息融合的前提.本文采用改进的`模糊c-均值法求解关联概率,并通过在不同的传感器所对应的观测空间上建立多目标运动状态的投影,将单传感器数据关联算法推广到多传感器信息融合系统,从而可在密集杂波环境中实现对多目标的数据关联和精确跟踪.仿真实验结果说明了本文方法的有效性.

作 者:韩红 韩崇昭 朱洪艳 刘允才 作者单位:韩红(上海交通大学自动化系,上海,30;西安交通大学综合自动化研究所,西安,710049)

韩崇昭,朱洪艳(西安交通大学综合自动化研究所,西安,710049)

刘允才(上海交通大学自动化系,上海,200030)

多传感器图像融合应用研究 篇5

一、传感器图像融合技术分类

1、信号层。

传感器接收的是源信号, 所以相对于信号层的图像融合, 与其他种类相比, 其图像质感、表现更好, 因为首先信号的误差小、传感器信号处理能力强, 微小、弱势的信号都可以被检测、处理到。信号层信号会混有随机噪声影响, 该信号在估量过程会发生阶段性改变, 因此需要精准确定、对比信号频率才行。

2、像素层。

像素层图像代表的是不同程度的像素信息内容, 与信号信息不同, 它具有一定的特征性, 多半以图像的形式展现出来。为了让图像能够最真实、细腻的传输信号, 传感器会依靠滤波功能, 对同种像素级的图像信息源进行映射处理, 以谋求图像信息源在融合后产生交互影响, 进而的形成丰富多元的融合图像。如果各传感器参加融合的图像具有不同分辨率, 则需要在映射处理的基础上, 对图像信号源进行细致、精密的对准和校对, 从高到底像素级, 一步步提取、融合图像信号源的各特征信息。

3、特征层。

特征层体现在传感器信息数据的融合特征, 与信号层和像素层存在某种联系, 信号的原始特征、图像信息源的特征, 都能够透过信息的“特殊含义”所展现出来, 也就是说, 在某特殊区域、特殊范围、特殊时间内, 如果要求传感器信息融合处理, 那么首当其冲的便会是特征层的信号内容, 因为其在边界提取、同密度或同景深区域表示等方面存在较大差异, 亦容易被发觉、应用。

二、多传感器图像融合应用研究

本文选择红外图像与可见光图像融合应用为研究对象, 探索多传感器是如何实现图像融合的, 红外信号具有感光、感温功能, 在不同温度梯度环境中, 红外图像所表现出来的信号内容是存在明显差异的。可见光图像与其相比, 可以展现、表露出诸多图像上的信息细节, 如:局部高度、表征状态, 以及光感亮度等等。该项技术应用在军事领域, 军人要在夜晚的环境中组织进攻, 必须通过红外传感器探索、检测周边环境, 在将其与可见光图像融合, 展现夜晚环境下真实的地区环境状态, 使军人犹如在白天作战。

为了进一步丰富红外图像与可见光图像的融合效果, 技术人员选择了特征层图像融合技术, 它首先利用红外传感器把周边环境的探索信号、内容搜集过来, 再由滤波器、信号编辑器、图像处理装置, 将其复制粘贴到传统可见光图像中, 使检测到的信号发挥图像编辑、处理能力, 通过信号的变化、编辑处理, 使图像展现可变的几何图形、方向、位置, 以及特征的时域范围情境状态。红外传感器检测到的图像数据是信号翻译过来的, 所以准度较高, 可达到中级, 如果精度要求还有待提升, 可通过提高红外传感器检索信号的频率和波长, 提高图像数据的精度级别。此外, 在把红外传感器中的众多图像信号进行压缩处理的过程中, 可见光图像也应利用传感器操作、检测信号的附加特征, 以做到红外图像与可见光图像在像素级、信号层方面形成统一的处理模式。为了能够使不同波段红外图像能够与相同波段可见光图像有效的融合在一起, 工程人员还特意在红外传感器上设置了两个波段检测装置, 一来, 是为了过滤与可见光图像信号波段不相符的红外图像信号波段;二来, 透过两种波段信号的比对、分析, 判断融合图像的精度、描述效果。

总的来讲, 无论是哪种传感器图像融合技术, 在现实应用中, 都需要其他技术与统计计算处理工作予以支持, 否则, 技术应用问题将始终伴随着融合图像应用的整个过程。虽然本文只选用了红外图像和可见光图像融合应用案例进行分析, 但是其完全可以说明, 在图像融合中, 图像信号源的甄选、判断、统计计算对于图像融合效果来讲至关重要, 所以操作时, 务必加以重视, 并校验准确。

三、结论

通过上文对多传感器图像融合技术的相关应用问题展开讨论发现, 图像融合技术的应用领域广阔, 只要科学研究、技术升级需要, 它是可以介入到方方面面的科研工作中, 为工程人员提供较为准确、多元功能的图像信息。

摘要:多传感器图像融合的应用表现在多个领域中, 航空航天、军事、医疗, 以及其他高新技术产业, 图像融合条件下, 多传感器能够将数字化信号反应在图像中, 并把图像特征充分的发挥出来。经多维度、多测度空间处理, 多源信息图像的应用功能会愈加丰富、多样, 不仅图像的信号层、像素层、特征层能够有机的融合在一起, 其还会展现出不同种类、风格的融合图像。

关键词:多传感器,图像融合,影响因素,应用研究

参考文献

[1]毛士艺, 赵巍.多传感器图像融合技术综述[J].北京航空航天大学学报, 2002, 13 (105) :512-518.

[2]胡传奇, 王檄, 侯家槐.基于现代高新科学技术的应用表现浅谈多传感器图像融合技术及其进展[J].测绘与空间地理信息, 2010, 22 (102) :159-162.

多传感器融合的智能车辆导航研究 篇6

定位及环境的感知是智能车辆导航中最关键的问题,目前虽有多种定位方式[1],但这些定位方式不同程度地存在一些不足之处,如获取信息不足、成本较高、实时性差、布置复杂等。

智能车辆多传感器信息融合导航技术是目前国内外研究的重点。低成本、小型化、高可靠性是车载导航传感器的研究方向。为此本文提出将视觉与超声波的信息融合来进行智能车辆导航的方法。通过摄像头对地面标志线进行跟踪,利用视觉信息与超声波信息融合来实现避障。

1 智能车辆的模型

1.1 运动学模型

研究对象是如图1所示的智能车辆,其后两轮为驱动轮,前两轮为转向轮。图1中,oxy坐标系为环境坐标系,L为轴距,dv为轮距,O点为后轴中心点(以这一点的速度v作为智能车辆的速度),O′为车辆转弯圆心,ROO点的转弯半径,θO为智能车辆车体纵轴线与环境坐标系横轴的夹角,α为前轮转角。设O点为智能车辆的中心点,则小车在任一时刻t的位置状态可用变量(x,y,θO)表示,其中,(x,y)为O点在oxy坐标系中的位置。

假定小车在平面内运动且忽略侧滑,则有

式中,ω为车身横摆角速度。

Δt时间内,有

Δx=2Rsin(ωt/2)cosθO (2)

Δy=2Rsin(ωt/2)sinθO (3)

ΔθO=ωΔt (4)

式中,ΔθO为Δt时间内θO的变化量;Δx、Δy分别为智能车辆位置在Δt时间内在x轴和y轴上的变化量。

由v和α可方便地计算出每个Δt时间后智能车辆的位置状态。

1.2 智能车辆上传感器的布置

如图2所示,车上的传感器为一部CCD摄像机和12个超声波传感器。在智能车辆所处环境的路面上布置好标志线,由车前端的CCD摄像机获取标志线信息,引导智能车辆沿标志线行驶。本系统设计的测距系统共有12个超声波传感器。其中,前方8个按一定角度间隔排成阵列;左右两侧各有2个,以获取两侧的障碍物信息。

2 超声波探测模型

图2中前方8个超声波传感器以15°的间距排列。本系统设计采用的超声波传感器的发散角为30°,因此前方8个传感器能探测的角度范围为-67.5°~+67.5°,且该范围内的每个区域都被2个超声波传感器的发散角覆盖。

根据超声波传感器的特性,本系统选用应用较广泛的平均分布法模型[2,3],如图3所示。其中,障碍弧线S是指以超声波传感器为圆心,以测得的障碍物和传感器间的距离R为半径,在超声波传感器发散角β范围内的圆弧,且随车辆移动而改变。将智能车辆周围环境划分为若干区域,任意一个区域可能的状态划分为有障碍、无障碍、未知(在D-S证据理论中,未知表示对信息的不确定),用PE表示无障碍物的概率,PZ表示有障碍物的概率。

当探测到障碍物时,障碍物一定在S上。在整个S上有障碍物的概率PZ =1。设S上任意一段弧S′ 的角度为β′,则这一段弧上有障碍物的概率为

P′Z=PZβ′/β = β′/β (5)

而无障碍物的概率PE(SX) = 0。

在障碍弧线S内部扇形区域中的任意一个区域均没有障碍物,PZ= 0,无障碍物的概率用一个恒定的常数k(0<k<1)表示,即

PE=k (6)

3 视觉信息的处理

3.1 提取出路面标志线

首先对图像采取中值滤波,去除小的杂点。中值滤波的去噪效果较好,而且滤波后图像中的轮廓比较清晰。一般情况下,障碍物在摄像头采集到的图像中部或上部,且白色的路面标志线相对于路面的灰度值要高,因此对图4a中水平虚线以下区域的灰度值作最优阈值计算[4],得到最优阈值。然后,对整个图像以最优阈值分割,并根据标志线连续性的特点,分割出路面标志线。计算虚线下方区域去除标志线后的路面平均灰度值,再把整个图像中的标志线区域填充该灰度值。

3.2 分割障碍物区域

因前一步假设图像下方区域无障碍物,所以对虚线以上区域进行障碍物提取。以虚线下方区域的路面平均灰度值为参考,对虚线上方可能存在障碍物的区域进行阈值分割,得到二值化的图像。虽然障碍物被分割出来,但由于背景噪声的影响,很难实现障碍物区域的定位。

采用数学形态学方法[5]滤除图像中的噪声。图4显示了图像处理的过程。经过对图像一系列的滤波处理后,计算图4f中障碍物的方位,得到障碍物的最左端和最右端的边缘位置,并由此计算出障碍物在水平方向上的尺寸和中心所在的位置。

4 空间区域的模糊划分

为了简化数据处理并充分利用超声波传感器的信息,将智能车辆前方探测空间划分为图5所示的5个区域,并将障碍物的距离模糊化处理[6]。

根据每个超声波传感器的发散角在图5扇形中占的比例,可通过式(5)和式(6)算出每个超声波传感器的信息在图5的各方向上的概率。由于超声波传感器阵列是左右对称的,表1仅列出1~4号超声传感器的信号概率数据。

对摄像头采集的图像也按图5进行空间方向划分。根据障碍物在各方向区域内所占角度γ与区域划分的角度比值,可得到该方向存在障碍物的概率:

PZ=γ/30° (7)

设障碍物距离参数的模糊集合为{近距离,中等距离,远距离}。距离参数的隶属度函数如图6所示[7]。

智能车辆前方超声探测的空间可按图5和图6模糊划分为如表2所示的15个区域。

5 基于D-S证据理论的信息融合

按模糊划分,用D-S规则融合超声波传感器测得的距离信息[8,9],得到每个划分区域内存在障碍的可能性,即信任度的大小。

5.1 建立识别框架

对于智能车辆的导航,不需要对障碍物进行完整的特征识别,因此定义识别框架Θ={E,Z},其中,E表示无障碍物,Z表示有障碍物,Θ的幂集为

2Θ={Φ, E, Z, Θ}

相应的基本概率分配函数定义为m,对于模糊划分后空间中的任意一块区域,有m(Φ)=0和。

5.2 基本概率函数的获取

设某一超声波传感器测得的距离值为d,由图6可算出d分别对三种距离划分的隶属度Pd。该传感器对模糊划分空间中的任意一块区域分配的概率Pu可由表1查取。显见,该超声波传感器所测得的信息对任一个区域是否存在障碍物的基本概率分配,可根据区域相对于传感器的位置取值。当Pu>0时

Pu=0时

由式(9)和式(10),可得每个超声波传感器对每一个区域的基本概率赋值。摄像头采集的图像中,分割得到的障碍物在水平方向的位置和尺寸按图5进行角度划分,得到空间5个方向上存在障碍物的概率值Psj。依据图像信息,对任一个区域是否存在障碍物的基本概率分配可取值如下:

Psj >0时

Psj=0时

用D-S融合规则,对每个区域由超声波信息和图像信息得到的基本概率值进行融合,最终得到15块模糊划分区域的基本概率值,这就是智能车辆周围障碍物的信息。

6 仿真分析与实验

6.1 图像处理的仿真

在不同光照、路面和障碍物的条件下,拍摄多张图片,按前面所述的图像处理的方法,提取出障碍物的水平中心位置和水平尺寸,并与实际的数据进行比较,得到中心位置距离偏差的最大值σCmax、最小值σCmin和平均值σC,以及尺寸偏差比例的最大值σSmax、最小值σSmin和平均值σS

在仿真计算时,得到仿真视觉中障碍物在画面中的准确水平中心位置Cf和准确的尺寸Sf。将仿真中每一步计算得到的CfSf加上误差:

Cf=Cf+σC+r(σCmax-σCmin)

Sf=Sf[1+σSr(σSmax-σSmin)]

式中,CfSf分别为视觉计算中采用的障碍物的水平中心位置和尺寸;r为取值范围是[-0.5,0.5]的随机函数。

6.2 信息融合

本文通过模糊空间划分和信息融合方法来对障碍物进行识别。首先建立存在障碍物和导航标志线的仿真环境,并在真实环境中按同样的尺寸摆放障碍物。将实际采集的数据加入到仿真环境中计算,并将超声波信息和图像信息中所得的基本概率赋值进行D-S融合,则任一个划分区域中基本概率赋值如下:

有障碍物时

无障碍物时

不确定时

式(13)和式(15)中,⊕为D-S证据理论中的融合计算。最后得到15个模糊划分区域中有障碍物的基本概率赋值。对这些结果用基于基本概率赋值的决策规则进行分析,以判断某一个划分区域中是否有障碍物:如果m(Z)>m(E),则认为该区域有障碍;如果m(Z)<m(E),则认为该区域无障碍;如果m(Z)=m(E),则认为该区域未知。

6.3 仿真结果与分析

按上述信息融合方法,在有障碍物环境中进行仿真实验。图7为分别在单独用超声波信息和加入视觉信息融合的两种情况下,智能车辆避障导航轨迹。图8为在信息融合时的仿真。

(b)穿越通道

图7和图8中粗实线表示路面标志线,细实线表示信息融合后智能车辆运行轨迹,虚线表示没有融合视觉信号而单独用超声波信号时智能车辆的运行轨迹,方块表示障碍物。仿真车辆所用参数如下:轴距L=1.5m,轮距dv=1.1m,前轮最大转角αmax=40°,最大速度vmax=4.5m/s,最小速度vmin=0.5m/s,采样间隔为0.02s。

智能车辆按以下规则运行和避障:①没有探测到障碍物时,沿地面标志线运行;②探测到障碍物时,停止跟踪标志线,启动避障和墙面跟踪程序,根据左侧或右侧超声波传感器实时测得的信息确定转向大小,减速绕障碍物行驶;③在绕障碍物行驶时,摄像头检测地面有否标志线,如果有且前方无障碍物,则启动跟踪标志线程序,如果仍有障碍物则继续避障。

图7中,智能车辆在融入了视觉信息后,提高了对周围障碍物的判断准确性,在转向时减少了抖动,避障时的运行轨迹较为稳定。图8的复杂环境中,由于多障碍物对视觉判断的影响,避障时运行轨迹的稳定程度有所降低,但仍可以判断出障碍物的位置,实现避障导航。

6.4 智能车辆导航实验

6.4.1 实验平台

自主开发的智能车辆实验平台如图9所示。该实验平台由车身、图像采集和处理系统、超声波信号采集与处理系统、驱动控制系统等部分组成。车辆通过后轮的轮毂电机驱动,前轮通过步进电机控制转向。以路面铺设的标志线为导航路径。

图像采集和处理系统由CCD摄像机、TI公司的DSP开发板DEC643及其仿真器、PC机、液晶显示器等组成。DEC643将从图像处理得到的导航参数通过串口发送给驱动控制系统。

超声波信号采集与处理系统由URM37 V3.2模块和TI公司的DECF2812开发板组成。URM37 V3.2模块的性能参数如下:最大测量距离500cm,最小测量距离4cm,分辨率1cm。

驱动控制系统由TI公司的DECF2812开发板及其仿真器、PWM调速和制动电路、直流电机、步进电机及其驱动器、逆变器、工业控制计算机、UPS、蓄电池等组成。

智能车辆的工作原理如图10所示。

6.4.2 实验结果

在墙面跟踪、穿越通道和复杂环境等三种环境中对智能车辆实验平台进行了实验。

实验车辆的宽度为1.2m,在墙面跟踪和穿越通道时,障碍物均挡住或靠近路面标志线,使车辆只能绕障碍物的边缘行驶,具体环境设置如下:①墙面跟踪时,dp=1m,dc=5m;②穿越通道时,dp=1m,dc=8m,dk=3.5m。其中,dp为车辆最先探测到的障碍物的最靠近路面标志线的边缘与标志线的距离;dc为障碍物的长度;dk为障碍物通道的宽度。

在墙面跟踪与穿越通道时,车辆可以较稳定地运行,避开障碍物,并找到路面标志线继续行驶。在复杂的环境中,尤其是车辆前方障碍物范围较大时,避障时运行轨迹的稳定程度有所降低,这是因为当前方障碍物过多时,超声波传感器仍然可以测得各障碍物的大致方向和较准确的距离,但在视觉处理的图像中,会将重叠的多个障碍物误认为一个障碍物,因此影响了判断。在后续的工作中,会在各种传感器的使用与信息融合上作更深入的研究。

7 结论

本文提出了一种在图像中分割出障碍物的方法,并给出了通过对空间区域的模糊划分,用D-S证据理论将视觉和多个超声波传感器信息进行融合的方法。该方法可以处理单目视觉无深度信息和存在光影干扰以及单个超声波传感器的方向不确定等问题。

不同工况下仿真与实验结果表明:在智能车辆视觉导航的基础上,融合超声信息来进行导航,能在未知障碍物环境中准确探测,及时避障,提高智能车辆在行驶中的可靠性。

参考文献

[1]李旭,张为公.智能车辆导航技术的研究进展[J].机器人技术与应用,2007(4):24-27.

[2]Althaus P,Christensen HI.Automatic Map Ac-quisition for Navigation in Domestic Environments[C]//Proceedings of the2003IEEE International Conference on Robotics and Automation.Taipei:IEEE,2003:1551-1556.

[3]Choset H,Nagatani K,Lazar N A.The Arc-transversal Median Algorithm:a Geometric Ap-proach to Increasing Ultrasonic Sensor Azimuth Ac-curacy[J].IEEE Transactions on Robotics and Au-tomation,2003,19(3):513-522.

[4]李进,陈无畏.自动导引车视觉导航的路径识别和跟踪控制[J].农业机械学报,2008,39(2):20-24.

[5]闫龙,赵正旭.基于形态学算法的摄影测量数据噪声滤波[J].中国机械工程,2008,19(1):48-51.

[6]陈无畏,李碧春.基于视觉导航的AGV模糊-最优控制研究[J].中国机械工程,2006,17(24):2546-2550.

[7]童一飞,李东波.基于信息公理与粗集理论的多属性模糊优选研究[J].中国机械工程,2007,18(17):2029-2033.

[8]杨万海.多传感器数据融合及其应用[M].西安:西安电子科技大学出版社,2004.

多传感器检测 篇7

多传感器信息融合MSDF (Multisensor data Fusion) 是20世纪80年代出现的一个新兴学科, 它是将不同传感器对某一环境特征描述的信息, 综合成统一的特征表达信息及其处理的过程。多传感器信息融合首先广泛地应用于军事领域, 如海上监视、空—空和地—空防御、战场情报、监视和获取目标及战略预警等, 随着科学技术的进步, 多传感器信息融合至今已形成和发展成为一门信息综合处理的专门技术, 并很快推广应用到工业机器人、智能检测、自动控制、交通管理和医疗诊断等多种领域。

1 多传感器信息融合的定义

为了更好地阐述信息融合这一概念, 可以把传感器获得的信息分成三类:冗余信息、互补信息和协同信息[2]。冗余信息是由多个独立传感器提供的关于环境信息中同一特征的多个信息, 也可以是某一传感器在一段时间内多次测量得到的信息;在一个多传感器系统中, 若每个传感器提供的环境特征都是彼此独立的, 即感知的是环境各个不同侧面的信息, 则这些信息称为互补信息;在一个多传感器系统中, 若一个传感器信息的获得必须依赖另一个传感器的信息, 或一个传感器必须与另一个传感器配合工作才能获得所需要的信息时, 则这两个传感器提供的信息称为协同信息。

在信息融合领域, 人们经常提及“传感器融合 (sensor fusion) ”、“数据融合 (data fusion) ”和“信息融合 (information fusion) ”。实际上它们是有差别的, 现在普遍的看法是“传感器融合”包含的内容比较具体和狭窄。至于“信息融合”和“数据融合”, 有一些学者认为数据融合包含了信息融合, 还有一些学者认为信息融合包含了数据融合, 而更多的学者把“信息融合”与“数据融合”等同看待。本文作者认为, 在不影响应用的前提下, 二种提法都是可以的, 但信息融合可能更可取些。

信息融合有多种定义方式, 下面仅列出几种:[3]

1.1 Waltz给出的定义是:

“对来自多源的信息和数据进行检测、关联、估计和综合等多级多方面的处理, 以得到精确的状态和身份估计, 以及完整、及时的态势评估和威胁估计”。

1.2 JDL给出的早期定义是:

“数据融合是对单源和多源的数据和信息进行关联、相关和组合, 以得到更精细的位置和身份估计、完整和及时的态势评估的过程。”

1.3 X.Rong Li最近给出的定义[5]是“信息融合是为了某一目的对多个实体包含的信息的组合。”

在上述3种定义中, 前2种都强调信息融合是一个“过程”, 但第3种定义认为信息融合未必是一个过程。上述各种定义各有其特点。从信息融合定义的演变过程可以看出, 其定义越来越简化, 而包含的内容也越来越宽广。

2 多传感器信息融合的层次结构

对于多传感器融合层次的问题, 人们存在着不同的看法。本文主要介绍普遍为学者们所接受的三层融合结构, 即数据层、特征层和决策层 (见图2) 。[8]

数据层融合如图2 (a) 所示, 首先将全部传感器的观测数据融合, 然后从融合的数据中提取特征向量, 并进行判断识别。这便要求传感器是同质的 (传感器观测的是同一物理现象) , 如果多个传感器是异质的 (观测的不是同一个物理量) , 那么数据只能在特征层或决策层进行融合。数据层融合不存在数据丢失的问题, 得到的结果也是最准确的, 但对系统通信带宽的要求很高。

特征层融合如图2 (b) 所示。每种传感器提供从观测数据中提取的有代表性的特征, 这些特征融合成单一的特征向量, 然后运用模式识别的方法进行处理。这种方法对通信带宽的要求较低, 但由于数据的丢失使其准确性有所下降。

决策层融合是指在每个传感器对目标做出识别后, 将多个传感器的识别结果进行融合, 如图2 (c) 所示。由于对传感器的数据进行了浓缩, 这种方法产生的结果相对而言最不准确, 但它对通信带宽的要求最低。

对于多传感器融合系统特定的工程应用, 应综合考虑传感器的性能、系统的计算能力、通信带宽、期望的准确率以及资金能力等因素, 以确定哪种层次是最优的。另外, 在一个系统中, 也可能同时在不同的融合层次上进行融合。三种融合层次的性能特点的比较如表1。

3 多传感器信息融合实现方法

成熟的多传感器信息融合方法主要有:经典推理法、卡尔曼滤波法、贝叶斯估计法、D-S证据推理法、聚类分析法、参数模板法、物理模型法、熵法、品质因数法、估计理论法和专家系统法等。

近年来, 用于多传感器数据融合的计算智能方法主要包括:模糊集合理论、神经网络、粗集理论、小波分析理论和支持向量机等。[8]

J.Z.Sasiadek把信息融合的方法分成三大类:一是基于随机模型的融合方法;二是基于最小二乘法的融合方法;三是智能型的融合方法。

基于随机模型的融合方法主要有贝叶斯推理 (Beyesian Reasoning) 、证据理论 (Evidence Theory) 、鲁棒估计 (Robust Statistics) 、递归算子 (Recursive Operators) ;基于最小二乘法的融合方法主要有卡尔曼滤波 (Kalman Filtering) 、最优理论 (Optimal Theory) ;智能型的融合方法主要有模糊逻辑方法 (Fuzzy Logic) 、神经网络方法 (Neural Networks) 、遗传算法 (Genetic Algorithms) 、人工智能方法 (Artificial Intelligence) 、粗集理论 (Rough Set Theory) 、支持向量机 (Support Vector Machine) 、小波分析理论 (Wavelet Analysis Theory) 等。

常用的多传感器信息融合算法有:[6]

3.1 加权平均法。

这是一种最简单最直观的数据融合方法, 即将多个传感器提供的冗余信息进行加权平均后作为融合值。该方法能实时的处理动态的原始传感器读数, 它的缺点是需要对系统进行详细的分析, 以获得正确的传感器权值, 调整合设定权系数的工作量很大, 并且带有一定的主观性。

3.2 聚类分析法。

根据事先给定的相似标准, 对观测值分类, 用于真假目标分类、目标属性判别等。

3.3 贝叶斯估计法。

是融合静态环境中多传感器低层数据的一种常用方法, 融合时必须确保测量数据代表同一实体 (即需要进行一致性检测) , 其信息不确定性描述为概率分布, 需要给出各传感器对目标类别的先验概率, 既有一定的局限性。

3.4 多贝叶斯估计方法。

将环境表示为不确定几何的集合, 对系统得每个传感器作一种贝叶斯估计, 将各单独物体的关联分布组成一个联合后验概率分布函数, 通过列队的一致性观察来描述环境。

3.5 卡尔曼滤波。

它使用于动态环境中冗余传感器信息的实时融合。当噪声为高斯分布的白噪声时, 卡尔曼滤波提供信息融合的统计意义下的最优递推估计。对非线性系统模型的信息融合, 可采用扩展卡尔曼滤波及迭代卡尔曼滤波。

3.6 统计决策理论。

将信息不确定性表示为可加噪声。先对多传感器进行鲁棒假设测试, 以验证其一致性;再利用一组鲁棒最小最大决策规则对通过测试的数据进行融合。

3.7 D-S证据推理。

是贝叶斯方法的推广, 用信任区间描述传感器信息, 满足比贝叶斯概率理论更弱的条件, 是一种在不确定条件下进行推理的强有力的方法, 使用于决策层融合。

以上各种算法对信息类型、观测环境都有不同的要求, 且各自存在优缺点, 在具体应用事需要根据系统的实际情况综合运用。

4 结论

多传感器信息融合技术近十几年来已受到广泛的关注, 它的理论和方法已被应用到许多研究领域。从目前军事领域的发展来看, 从简单的武器系统到最复杂的大规模C4ISR系统, 都趋向于采用多传感器信息融合技术来进行信息综合处理。[3]基于作者的研究与实践, 对多传感器信息融合研究的未来发展趋势进行了评述, 提出了我们的研究建议。多传感器融合技术自20世纪70年代以来虽无非常成熟和完善的理论和方法, 但在信息融合各个方面已取得不少成果, 应该重视这种新型的信息处理技术, 积极开展该领域的基础理论和应用研究, 在多传感器信息融合的理论体系于应用研究中作出贡献。

摘要:多传感器信息融合广泛应用于自动目标识别、战场监视、自动飞行器导航与控制、机器人、工业过程控制、遥感、医疗诊断、图像处理、模式识别等领域。介绍了多传感器信息融合的定义的发展, 融合的功能模型、结构模型及其融合层次, 并简要介绍了融合的实现方法和现阶段研究存在的问题, 最后对多传感器融合技术进行了展望。

关键词:多传感器,信息融合,信息,模型,展望

参考文献

[1]张菊秀.多传感器信息融合技术和发展[J].电子世界, 2005 (4) .

[2]罗志增, 蒋静坪.机器人感觉与多信息融合[M].北京:机械工业出版社, 2002:1-101.

[3]何友, 关欣, 王国宏.多传感器信息融合研究进展与展望[J].宇航学报, 2005, 7:524-530.

[4]Lawrence A, Klein.Sensor and data fusion concepts and applications[M].SPIE Optical En-gineering Press, Washington, 1999

[5]Rong Li X.Information fusion for estimation and decision[C].International workshop on data fusion in2002, Beijing, China

[6]何友, 王国宏等.多传感器信息融合及应用[M].北京:电子工业出版社, 2000.

[7]何友, 彭应宁, 陆大金.多传感器数据融合模型综述[J].清华大学学报, 1996, 36 (9) :14-20.

多传感器检测 篇8

关键词:智能植物生长柜;Android系统;智能控制;串口驱动;多传感器;

中图分类号:TP274;S126 文献标志码:A 文章编号:1002—1302(2016)01—0403—03

当前,世界人口不断增长、物质需求不断增加,而资源却不断减少,环境不断恶化,为解决全球资源与环境问题,设施农业越来越受到人们的推崇,得到了前所未有的发展与应用。智能植物生长柜作为设施农业的一部分,以节省资源、环境保护、安全、放心、健康为出发点,得到社会的广泛关注与认可。随着城市的现代化建设步伐和环境污染速度越来越快,可利用农业耕地面积越来越少,同时人们生活水平的提高,对生活质量也提出了更高的要求。作为一种保护环境、节约资源和能生产出安全健康的新型植物生产系统,智能植物生长柜有很强的应用性。在我国,对于农业生产环境的监控基本處于人工采样、化学分析的人工监测阶段,实时性不好,少数便携式仪表还存在使用维护困难等问题,此外生长柜对环境具有非常高的要求。Android系统作为开源的操作系统、操作简单、功能强大,基于该平台下的各类控制系统很多大学与公司的研究方向。Android设备驱动程序是Android操作系统的重要组成部分,是软件与硬件连接的“桥梁”,分析该系统下的设备驱动运行机理,对于Android系统上层应用程序的设计开发有重大的指导意义。

1材料与方法

1.1系统方案

系统主要分为执行模块、生长柜监控模块、Android测控端等部分。本研究对Android系统内核中的串口驱动程序进行了详细的分析,并在此基础上编写了应用程序,实现多传感器的数据传输。试验利用FS_V210开发板(运行Android系统)为终端,由下位机STM32实现对5个传感器数据的采集,通过其串口与运行Android系统的上位机进行通信,在开发板显示屏上实时显示5个传感器数据。FS_V210开发板具有摄像头、LCD触摸屏、网口等丰富硬件资源,便于携带、交互性强、易于开发,为智能植物生长柜提供优秀的控制系统平台。Android系统结构框图如图1所示。

1.2实现方法

1.2.1 Android串口驱动开发 串口驱动的实现过程就是Android系统下的通信数据流和功能调用的过程。Android串口终端驱动结构如图2所示,串口驱动结构共分为4个层次,即驱动层、HAL层(1ibhardware)、JNI层(java native inter-face)、Framework层和应用层。

1.2.1.1串口驱动层 Android内核是由标准的Linux内核修改而来的,最底层的Android硬件驱动层就是Linux设备驱动层,二者内核驱动程序的编写方法是一样的,都是以Linux模块的方法实现的。驱动层是与硬件设备直接联系的一层,通过访问相应驱动程序直接对硬件进行操作,在该层中定义串口设备文件的访问方法,主要定义串口的Open、Read和Write。此外,还执行了串口设备的注册和初始化操作。

1.2.1.2 HAL层 硬件驱动程序一方面分布在Linux内核中,另一方面分布在用户空间的硬件抽象层中,在该层中增加串口的硬件抽象层模块访问Linux内核驱动程序。按照An-droid硬件抽象层规范的要求,分别定义模块ID(UART_HARDWARE_MODULE_ID)、模块结构体(struct uart_module_t)以及硬件接口结构体(struct uart_control_device_t)。在硬件接口结构体中,fd表示设备文件描述符,HAL层结构如图3所示。

1.2.1.3 JNI层 Android系统的应用程序是用Java语言编写的,而硬件驱动程序是用c语言来实现的,应用程序要调用串口驱动程序操作硬件必须通过Java本地调用JNI来调用硬件抽象层接口。JNI层主要实现Java与C/C++之间的过渡,不涉及复杂的逻辑,只根据规则为上层函数调用串口的下层接口。该层定义HAL的模块ID和2个全局变量sUartDe-vice和sUartModule,在Uart_init函数中,通过Android硬件抽象层提供的hw_get_module方法来加载模块ID为UART_HARDWARE_MODULE_ID的硬件抽象层模块,其中HELLO_HARDWARE_MODULE_ID是在中定义的。Android硬件抽象层会根据UART_HARDWARE_MOD-ULE_ID的值在Android系统的/system/lib/hw目录中找到相应的模块,然后加载起来,并且返回hw_module_t接口给调用者使用。

1.2.1.4 Framework层 为硬件抽象层模块编写完串口的JNI方法后,须要为Android系统的Application Frameworks层增加硬件访问服务MyUartService,通过该层提供的硬件服务来调用JNI方法,进而调用底层的硬件抽象层接口去访问硬件。在Application Frameworks层中包含自定义的硬件服务MyUartService,在Android系统启动时自动加载MyUartSer-vice。这时应用程序就可以通过Java接口来访问uart硬件服务了。

1.2.2串口应用程序的开发 本研究中实现的功能是由单片机STM32实现对2个温度传感器(为区分2个温度传感器的值,显示分别命名为根部温度、温度)、1个湿度传感器、1个光照强度传感器、1个CO2浓度传感器数据的采集,通过其串口将接收到的5个传感器数据在开发板上实时显示。底层编写的串口驱动程序,实现的功能是1个字节的读和字符串的写,在应用程序层调用字符型函数GpsDataUpdate()实现1个字节的读取,整型函数GpsDataUpdate_write(string s)实现字符串的写。为实现各个传感器数据的正确显示,须要在上层对串口应用程序进行开发。程序设计流程图如图4所示。

开发的关键技术和部分代码如下:(1)在Android系统应用程序开发软件eclipse中新建工程,然后在该工程新建Uart类,这个类主要用来加载SO文件(uart_runtime.so),通过JNI的方式打开关闭串口。

(2)为实现通过串口接收到的所有数据的显示,定义1个字符串s1,用于存放通过GpsDataUpdate()读取到的1个字节(以下代码是把该字节先读取到sbuffer,再由sbuffer存放于s1辛),在这里有1个while循环用于判断是否数据接收完,未接收完就继续接收,并把接收到的值放到s1,接收完就跳出。在区里加1个线程将接收到的数据实时显示,睡眠时间为1 s。

(3)实现以上代码的功能,可以读到5个传感器的数据,但是须要将5个传感器的数据分开,分别显示在5个EditText中。利用split根据给定的参数把原来的分割为几个子字符串。核心代码如下:

在本例中,下位机STM32串口发送的1串数据中开头与结尾分别加上字母b,中间的每个传感器数据之间都加上字母a。以上代碼strView.split(“b”)中,将字符串strView根据参数b分割为3个部分,取中间的传感器数据部分,再根据参数a进行分割,可以准确得到5组数据,分别存放于字符串strView0、strViewl等5个字符串中。updateView()为刷新函数,数据不断更新。

2结果与分析

本例中使用Android第3方图形库AndroidPlot绘制图形,先创建1个数组保存绘制用的数据,然后将数组转换为XYSeries,将数组中的传感器值绘制在图形库中,生成曲线图。试验结果以植物生长柜的空气温度为例,如图5所示。

3结论

本研究通过对Android系统下的串口驱动原理的具体实现方法进行详细分析的状态下,实现FS_V210开发板与单片机STM32的串口通信,完成对智能植物生长柜中各个传感器节点信息的接收与显示,为实现生长柜的智能化、网络化打下基础。设计实例,开发Android系统的串口应用程序,接收到5个传感器数据,对串口驱动程序进行验证分析,对智能植物生长柜在Android系统下的开发具有指导意义。

基于模糊逻辑的多传感器管理算法 篇9

在传感器管理过程中,由于系统处于极度复杂和多变的外界环境中,威胁目标身份的不确定性、传感器探测精度的高低、电磁环境与战场态势等因素都是模糊的概念,可以采用模糊逻辑的方法来实现多传感器的管理。Stromberg[1]利用滤波误差作为控制的输入,文献[2]同时引入传感器视场(FOV),应用模糊控制实现了目标跟踪过程中的传感器管理。王放[3]介绍了模糊逻辑在目标识别系统中的传感器管理方法,但缺乏对目标识别特性和传感器性能的不确定性度量。

Hintz[4,5]等运用目标格和决策树度量目标识别的不确定性,但过程过于主观,识别特性也难以度量。Zadeh提出的Fuzzy集[6]已经应用到信息融合领域[7],但Fuzzy集输出的隶属度是一个单值,不能同时反映支持和反对两方面信息。Gau和Buehrer提出的Vague集[8]能同时考虑非空元素隶属度与非隶属度,在处理不确定信息时比Fuzzy集有更强的灵活性和表达能力。

本文利用自适应神经模糊推理系统模糊化传感器性能,结合Vague度距离表达的目标不确定性,运用模糊推理规则,提出了一种基于模糊逻辑的多传感器管理算法。

1 基于Vague集的目标不确定度

1.1 Vague集

X={x1,x2,…,xn}为一个点(对象)的空间,其中的任意一个元素用x表示。针对多个未知目标的多个识别特性,归一化后得到特征矩阵R,给出合理的满意度下界L和不满意度上界U,可以得到目标Oj的属性集:

Fj={ai|rij>L},表示目标Oj的支持属性集,rij为目标Oj的第i个识别特性的值;

Aj={ai|rij<U},表示目标Oj的反对属性集;

Nj={ai|UrijL},表示目标Oj的中立属性集。

tA(Οj)=iΙjwirij(1)

式中:tA(Oj)表示目标Oj的支持度,其中Ij={i|aiFj};wi表示各识别特征的熵权矢量。同理可得目标Oj反对度fA(Oj)和中立度hA(Oj)。进行归一化处理,得到目标相对于模糊集“满意”的隶属度。

t(Oj)=tA(Oj)/[tA(Oj)+fA(Oj)+hA(Oj)] (2)

式中:t(Oj)为目标Oj相对于模糊集“满意”的真隶属度;同理,可以得到相对于模糊集“满意”的假隶属度f(Oj)和不确定度h(Oj)。

显然,有t(Oj)+f(Oj)≤1,t(Oj)+f(Oj)+h(Oj)=1。 则目标Oj在模糊集上的“满意”程度可用Vague值表示,即

Vj=[t(Oj),1-f(Oj)] (3)

1.2 目标不确定度

为了度量目标的不确定性,需要计算未知目标Oj与数据库中每个目标类型的距离。因此,对于目标类型Ok和未知目标Oj,定义目标的Vague度距离[9]为

d(Οj,Οk)={13[(t(Οj)-t(Οk))2+(f(Οj)-f(Οk))2+(h(Οj)-h(Οk))2]}12(4)

显然0≤d(Ok,Oj)≤1。d(Ok,Oj)越大,表明未知目标Oj与目标类型Ok距离越远,相似度越低;而d(Ok,Oj)越小,则未知目标Oj与目标类型Ok距离越近,即与目标类型Ok越相似。

假设数据库中有3类目标,根据式(4),可以得到未知目标与3类数据库目标的Vague度距离,可以记为d(Oj,Oi),并进行归一化处理,得

dj=d(Οj,Οi)maxk{d(Οj,Οk)}(5)

得到d1,d2和d3,两两相减可以得到3个Vague度距离的差值。差值越大,说明未知目标为某一类型的可能性越大,不确定性越小;差值越小,则说明未知目标判断为某一类型越难,不确定性越大。3个Vague度距离差值的算术平均表示未知目标判断为数据库所有目标类型(这里假设为3种)的可能性,用1减算术平均表示未知目标不是数据库中任何目标类型的可能性,即目标识别的不确定性。未知目标Oj的不确定性为

dj=1-|d1-d2|+|d1-d3|+|d2-d3|3(6)

2 算法描述

假设传感器对目标进行识别,若在k时刻已经得到未知目标的相关信息,可以初步计算目标分类的不确定性,现在要对k+1时刻的未知目标进行进一步的传感器管理。依照模糊控制方法,选择k时刻目标分类的不确定性作为模糊控制器的精确输入。

2.1 精确输入量映射到相应的模糊集

目标身份的不确定性难以度量,采用Vague集的目标不确定度来表示,将输入量的论域由低向高划分为7个等级:VC(Very Certain),C(Certain),M(Medium),MUC(Mid-Uncertain),UC(Uncertain),MVUC(Mid-Very Uncertain)和VUC(Very Uncertain)。模糊隶属函数通常有钟形、三角形和梯形,这里采用三角形,则输入论域的划分如图1所示。

在实际目标识别过程中,下一时刻的传感器分配,应该着重在对不确定性大的目标进行进一步观测识别,优先分配高精度传感器。对于不确定性小的目标在保证了其他目标观测识别后,如果还有多余的传感器资源,应当予以分配传感器。在保证对系统中传感器的管理调度后系统整体识别率能够提高的基础上,应当使输入论域中代表不确定性大的模糊区域覆盖更为广泛,并且其上的模糊隶属函数变化相对缓慢。

2.2 传感器性能的模糊划分

将模糊输出设定为传感器及其组合的识别性能,传感器性能的划分也是一个相对模糊的概念,自适应神经模糊推理系统——ANFIS[10],使用模糊神经网络技术把环境信息和专家知识引入融合系统,文献[11]利用模糊推理“如果—则”规则推导出红外传感器的可信度。本文选用ANFIS来评价性能可信度,通过模糊逻辑规则表得到传感器性能置信度,如表1所示。

传感器及其组合的模糊级由精度高至低划分为6个等级:HAG(High Accuracy Group),HAS(High Accuracy Single-Sensor),MAG(Medium Accuracy Group),MAS(Mid-Accuracy Single-Sensor),LAG(Low Accuracy Group)和LAS(Low Accuracy Single-Sensor)。采用三角形模糊隶属函数,则划分输出的论域如图2所示。

单传感器的性能映射到相应的模糊集后,传感器组合的性能也应当根据单传感器的性能综合得出。Molina Lopez提出一种简单的方法[12],例如系统中有两个传感器s1和s2,则传感器组合的精度可以由表2中的规则获得。

2.3 模糊推理规则

这里采用最基本的“如果A,那么B”(If A,Then B)类型的模糊推理规则,如下:

If VUC,Then HAG

If MVUC,Then HAS

If UC,Then MAG

If MUC,Then MAS

If M,Then LAG

If C,Then LAS

If VC,Then no observation(NO)

经过模糊推理后可以得到模糊控制输出,即给出待识别目标分配相应的传感器或传感器组合。最后对模糊控制的输出进行去模糊化,去模糊化策略的选择对模糊控制应用的有效性有直接影响[13]。

3 仿真实验

假设传感器系统有3个有源传感器,分别为合成孔径雷达(SAR)、电子支援测量(ESM)、敌我识别器(IFF),由于传感器观测空域和自身能力的限制,其观测目标数目为1,2和3个目标,传感器及其传感器组合共有7个。3个传感器表示为s1,s2和s3,根据ANFIS系统设定不同的探测精度,模糊化后分别对应HAS,MAS和LAS这3个模糊集,由表2可以得出系统中传感器组合的性能,其结果如表3所示。

假设数据模型有3种目标:歼击机、巡航导弹和运输机,目标识别特性分别为多普勒频移,波长为0.2 m;雷达反射截面积(RCS),以波长为0.05 m,正侧向90°±5°的统计平均值为准;角闪烁,采用角闪烁噪声线偏差的均方根值;角速度特殊形状点和像素灰度。未知目标设定为5个,多目标识别的数据模型[14,15]如表4所示。

对每个目标构造Vague集,给出满意度的下界(0.9)和不满意度的上界(0.35),运用式(2),计算每个目标的支持、反对和中立属性度,运用公式(4)~(6),得出未知目标的Vague度距离及目标不确定度,采用三角形隶属函数,模糊化系统输入,结果如表5。

依据模糊控制规则“如果A,那么B”进行模糊推理,输出模糊结果。在去模糊之前,应充分考虑到单传感器或传感器组合的观测能力,如果分配给传感器的目标数目超过其观测能力时,应依据一定的准则进行调整。例如,将分配给该传感器或组合的目标依据隶属度大小进行排序,将隶属度排序靠前且在传感器观测能力之内的目标分配给该传感器,其余的目标分配给性能较差的传感器或组合。最终的管理输出结果如表6所示。

表6中,“1”代表相应的传感器或传感器组合分配给目标,“0”表示不分配。从表6中可以看出,单传感器或传感器组合均达到了分配目标的最大值,得到了充分的利用。当高性能的传感器或传感器组合分配的目标数超出了实际能力时,可以根据威胁目标对该传感器或传感器组合的模糊隶属度由高到低排列,优先满足隶属度高的进行分配,其余的目标则可以分配给相邻的下一性能等级的传感器或传感器组合。通过仿真实验,证明了基于模糊逻辑的多传感器管理算法在目标识别中的合理性和有效性。

4 结论

基于模糊逻辑的多传感器管理算法充分利用了模糊控制在复杂系统中的优点,避免了对威胁目标、传感器低、电磁环境与战场态势等因素精确建模的问题,完成了传感器的管理与调度。本文运用Vague集能同时表达事物支持、反对和中立3种属性的特点,用Vague度距离表达的目标识别过程中的不确定性,利用自适应神经模糊推理系统度量传感器性能。通过三角形隶属函数,将传感器性能及目标特性模糊化,依据“如果—则”模糊推理规则,提出了一种基于模糊逻辑的多传感器管理算法,实现了目标识别中的传感器管理。仿真结果表明,该算法合理有效,有直观、简单易行和计算量小等优点,具有很好的工程实践意义。

多传感器检测 篇10

在办公楼、仓库等场所,均要求不定期的巡逻,对场所内各种环境信息进行监测,以应对紧急情况的发生。若由安保人员进行巡逻,存在成本高、工作量大等问题,甚至会因工作疏忽、麻痹大意等人为因素而造成严重的安全事故。智能安保巡逻车可自主巡逻,对巡逻区环境的多种参数进行监测,并将相关信息传送到监控中心,监控中心即可实时掌握场所内的情况,从而在人少值守的情况下实现全方位安全监控,因此,可节省大量的人力资源,同时增强巡逻力度和安全性。

本文阐述了智能安保巡逻小车的功能、结构,探讨了多传感器信息融合技术在智能安保巡逻小车在火灾识别、非法入侵者识别中的应用。

1 智能安保巡逻小车的功能和结构

智能安保巡逻小车根据预先存储的道路信息、巡逻路径等,对楼道、仓库等进行自主巡逻,躲避障碍物,完成对各个路段的扫描,扫描的内容包括:有无非法闯入者或者火灾隐患(如温度、火焰、烟雾浓度情况),并通过无线通信向监控中心传输视频等相关信息。通过视觉系统,小车识别各个路口的路标以确定当前位置,决定行进方向和路线。若接收到安全检查节点的报警,可根据节点位置,自动查询预存的路径信息,计算出最佳路径,然后快速前往报警地点。到达报警地点后,对区域内的视频信息、火灾隐患以及是否有非法闯入者进行检测,并向监控中心发回相应的检测信息。

图1是智能小车的功能结构图,其主要包括道路检测、环境检测、网络通信等模块,各模块由单片机控制处理核心进行控制,形成闭环控制系统[1,2]。道路检测模块利用摄像头识别路标信息,使小车确定位置和行驶路径,实现自主行驶;环境检测模块检查周围的环境信息,由温度传感器、火焰传感器、烟雾传感器和热释电传感器组成;通信模块用于小车和监控中心、安全检查节点间的信息传递,主要由无线视频发射接收模块和zigbee无线模块组成。

智能小车采用多种传感器采集环境信息,控制核心选用单片机,摄像头采用OV6620数字摄像头,温度传感器采用DS18B20,火焰传感器采用R2868型,烟雾传感器采用ZYQM-2型,热释电采用LHi968型。

2 多传感器信息融合技术在智能小车中的应用

多传感器信息融合(multi-sensor information fusion)也称多源信息融合,是近年来发展起来的一门新技术[3]。各种传感器提供的信息都具有不同的特性,多传感器融合系统则能够充分利用各种传感器的分离观测信息,通过对信息的优化组合导出更多的有效信息,从而利用多个传感器联合操作的优势,提高整个系统的有效性。

利用多个传感器所获取的关于环境全面、完整的信息,主要体现在融合算法上。多传感器数据融合的常用方法[4]可概括为随机和人工智能两大类,随机类方法有加权平均法、卡尔曼滤波法、贝叶斯估计法、Dempster-Shafer(D-S)证据推理、产生式规则等;人工智能类则有模糊逻辑理论、神经网络、粗集理论、专家系统等。信息融合技术在车辆控制中已有应用[5,6,7] ,为了提高智能安保巡逻小车的环境识别能力,本文对多传感器信息融合技术应用于智能小车识别火灾、非法入侵者进行探讨。

2.1 基于多传感器信息融合的火灾识别探讨

火灾发生时,会产生高温、火光和烟雾等现象,故可使用感温型、感烟型、感光型等多传感器进行探测。当有高温、火光、烟雾产生时,传感器输出信号经放大后,送入控制器,控制器发出警报信号并显示火灾发生的地点。但是任何一种传感器都只能针对火灾中同时出现的多种物理现象中的一种进行监测,难免受环境中某些相似因素的影响,从而可能导致误报警,几类常用的火灾识别传感器发生误报警的环境因素如表1所示[8]。

在仓库等对火灾监测严格的场所,为了提高火灾识别的可靠性,智能小车使用温度传感器检测环境温度,并加入火焰传感器和烟雾传感器采集相应的火光和烟雾浓度信息,应用多传感器信息融合技术处理各传感器提供的异常信息。本文使用基于模糊推理的信息融合方法[9],其模型如图2所示。

温度传感器、火焰传感器、烟雾传感器输出信号超出设定阈值时其状态为1,而小于阈值时其状态为0。设A为传感器的集合,各传感器判断火灾有无的可信度矩阵为X=[x1x2x3],其中,x1为温度传感器,x2为火焰传感器,x3为烟雾传感器;B为火灾可能出现的判决集合,本文将判决结果分有火灾y1和无火灾y2两种,构成判决矩阵

Y=[y1y2]

,根据式(1)进行模糊变换得到各判决出现的可能性,即

Y=X×RA×B (1)

式中,RA×B为A和B的关系矩阵,

RA×B=[μ11μ12μ21μ22μ31μ32]

,其中,μij表示由传感器i推断决策为j的可能性。

然后,针对各可能判决,按最大隶属度方法进行选择得出最终结果。判决规则如下:

1) 判决结果有最大的隶属度且隶属度必须大于1;

2) 判决结果的隶属度与其他判决的隶属度值的差必须大于0.5。

本文设定由温度传感器确定有无火灾的隶属度分别为μ11=0.5,μ12=0.5;由火焰传感器确定有无火灾的隶属度分别为μ21=0.7,μ22=0.3;由烟雾传感器确定有无火灾的隶属度分别为μ31=0.9,μ32=0.1;则基于多传感器模糊融合的判决结果如表2所示。

2.2 基于多传感器信息融合的非法入侵者识别探讨

智能安保小车主要用于无人或少人区巡逻,还可以检测巡逻区域内是否有非法入侵者的安全威胁。人体都有恒定的体温,一般在37 ℃左右,会发出10 um左右特定波长的红外线,人体红外热释电传感器可以检测到人体发射的红外线。当有人在巡逻区域内移动时,热释电传感器即可感生出电信号[10]。由于一个热释电传感器的水平视角约为130°,本文设计将三个热释电传感器呈120°角安装在同一板面上,以全面检测周围的人员活动情况。考虑到热释电传感器的信号幅度小,易受各种热源、光源干扰,以及在环境温度和人体温度接近时,探测和灵敏度下降可能造成短时失灵的情况,对三个热释电传感器的信号进行融合处理,以提高判断准确性。

小车在巡逻时,一旦有任意一个热释电传感器检测到有异常,小车立刻停止前进,原地转圈扫描,再次获取三个热释电传感器的检测结果,使用加权平均法对三个热释电传感器的信息进行融合[4],根据式(2)对三个输出信号进行加权平均,由加权平均值判断是否有非法入侵者闯入,即

X=i=13Wixi (2)

式中,Wi为传感器i的权值,i=13Wi=1

本文取W1=W2=W3=13,当加权平均值X23时,判断有非法入侵者闯入。

小车识别出环境异常信息后,立即通过无线通信向监控中心发送报警信号,同时利用摄像头对报警地点进行全方位扫描,将视频信息传输到监控中心,使值班人员对现场情况有更加直观的了解。

3 结论

基于多传感器信息融合的智能安保巡逻小车在设计中,使用模糊推理信息融合方法对温度、火焰、烟雾等进行融合处理,与单一的传感器相比,可望获得更高的准确性和可信度,降低误报率。本文对此进行了初步探讨,需要深入研究的工作还有很多,如火灾识别中,各传感器对判决的隶属度值应如何合理分配;在识别有无非法入侵者闯入时,三个热释电传感器的权重如何合理设置等。

摘要:基于多传感器信息融合的智能安保巡逻小车以单片机为控制核心,结合摄像头、温度传感器、火焰传感器、烟雾传感器和热释电传感器等检测外部环境的道路信息及环境信息,构成综合性的立体安全保障系统。阐述了智能安保巡逻小车的功能、结构,探讨了多传感器信息融合技术在提高智能安保巡逻小车环境识别能力中的应用。

关键词:多传感器信息融合,自主巡逻,环境检测,模糊推理

参考文献

[1]高凤水,靳涛,赵书朵.基于飞思卡尔单片机的智能车设计[J].电子设计应用,2008,(05).

[2]陈懂.智能小车运动控制系统的研究与实现[D].东南大学,2005.

[3]韩崇昭,朱洪艳,等.多源信息融合[M].北京:清华大学出版社,2006.

[4]严怀成,黄心汉,王敏.多传感器数据融合技术及其应用[J].传感器技术,2005,24(10).

[5]郝奕,李以农,郭旭,等.车辆控制系统中的信息融合技术[J].重庆大学学报(自然科学版),2006,29(3).

[6]李鸿征,邱红卫.基于多传感信息融合的车辆主动防碰撞控制系统[J].传感器世界,2003,(9):28-31.

[7]YUN DUK-SUN,SHIM JAE-HEUNG.The System Integration ofUnmanned Vehicle and Driving Simulator with Sensor Fusion System[J].IEEE,2001,(20).

[8]曹君.火灾报警系统设计[D].哈尔滨:哈尔滨理工大学,2006.

[9]柳小军,鲍鸿.基于ARM9多传感器数据融合火灾报警系统的实现[J].工业控制计算机,2009,22(3).

上一篇:振动分离下一篇:泥浆处理设备