購買設(shè)計(jì)請充值后下載,,資源目錄下的文件所見即所得,都可以點(diǎn)開預(yù)覽,,資料完整,充值下載可得到資源目錄里的所有文件。。?!咀ⅰ浚篸wg后綴為CAD圖紙,doc,docx為WORD文檔,原稿無水印,可編輯。。。帶三維備注的都有三維源文件,由于部分三維子文件較多,店主做了壓縮打包,都可以保證打開的,三維預(yù)覽圖都是店主用電腦打開后截圖的,具體請見文件預(yù)覽,有不明白之處,可咨詢QQ:1304139763===========題目最后備注XX系列,只是店主整理分類,與內(nèi)容無關(guān),請忽視
1介紹 2
2凸顯當(dāng)?shù)貓D像區(qū)域檢測 3
3場景識別和定位 5
4基于模糊邏輯的比賽策略 6
5實(shí)驗(yàn),分析 9
6總結(jié) 10
參考 11
基于視覺的場景識別為煤礦救災(zāi)機(jī)器人定位
文摘:提出了一種新的場景識別系統(tǒng)提出了基于模糊邏輯的和隱馬爾可夫模型(HMM),可以應(yīng)用在煤礦救災(zāi)機(jī)器人定位在緊急情況下。該系統(tǒng)使用單眼相機(jī)獲取全方位的圖像我的環(huán)境中機(jī)器人定位。采用center-surround差分方法,突出地方形象地區(qū)從圖像中提取天然地標(biāo)。這些指標(biāo)的組織利用HMM代表在現(xiàn)場機(jī)器人、模糊邏輯策略是用來比賽現(xiàn)場,具有里程碑意義的。通過這種方法,定位問題,這是現(xiàn)場識別問題的系統(tǒng),可以轉(zhuǎn)化為評價問題,嗯。這些技能的貢獻(xiàn)的系統(tǒng)有能力應(yīng)付變化的規(guī)模、二維旋轉(zhuǎn)和觀點(diǎn)。實(shí)驗(yàn)結(jié)果也證實(shí)了系統(tǒng)具有較高的識別和定位比靜態(tài)和動態(tài)兩種情況下我的環(huán)境。
關(guān)鍵詞:機(jī)器人位置;場景識別;突出形象;匹配策略、模糊邏輯、隱馬爾可夫模型
1介紹
搜索和救援災(zāi)區(qū)的領(lǐng)域里機(jī)器人是一個新興的、富有挑戰(zhàn)性的課題。救援機(jī)器人進(jìn)入礦山開發(fā)過程中緊急逃生路線定位可能對那些困在里面和確定它是否對人畜安全進(jìn)入與否。本地化是一個基本問題這一領(lǐng)域。定位方法基于相機(jī)可主要分為幾何、拓?fù)浠蚧旌系摹R云溆行院涂尚行?場景識別已成為一個重要的技術(shù)拓?fù)潢P(guān)系的定位
目前多數(shù)場景識別方法為基礎(chǔ)的在全球的圖像特征,有兩種截然不同的階段:培訓(xùn)的離線和在線匹配。
在訓(xùn)練階段,機(jī)器人收集圖像它工作的環(huán)境中處理圖像特征提取全球代表場景。一些方法被用來分析的data-set圖像和一些基本特征發(fā)現(xiàn),如主成分分析法(PCA)。然而,主成分分析法(PCA)
不是有效的區(qū)分類別的特征。另一種方法使用外觀特征包括顏色、紋理和邊緣密度代表圖像。例如,周劉哲用多維直方圖來描述全球外觀特征。該方法簡單易行,但敏感的規(guī)模和光照變化。事實(shí)上,各種各樣的國際形象特點(diǎn)是遭受環(huán)境的變化。
LOWE[5]的篩選方法,提出了一種使用相似性描述符所形成的特點(diǎn)。不變在興趣點(diǎn)的規(guī)模和方向來獲得特征。具有不變特征圖像縮放,平移、旋轉(zhuǎn)和部分不變光照變化。但篩選可能產(chǎn)生1 000或更多的興趣點(diǎn),這可能減慢處理器戲劇性的。
在匹配階段,最近的鄰居策略(NN)廣泛應(yīng)用于它的設(shè)施和清晰度[6]。但它無法捕捉的貢獻(xiàn)
個人特征為場景識別。在實(shí)驗(yàn)中,這個神經(jīng)網(wǎng)絡(luò)還不足以很好的表達(dá)相似兩種模式之間。此外,所選特征不能代表現(xiàn)場徹底根據(jù)嗎先進(jìn)的模式識別,使識別不可靠[7]。
在一個復(fù)雜的礦山環(huán)境。在這個系統(tǒng)中,我們通過提取顯著提高變性地方形象地區(qū)創(chuàng)建取代整個圖像處理與大的變化,規(guī)模、二維旋轉(zhuǎn)和觀點(diǎn)。興趣點(diǎn)的數(shù)量是有效降低,使加工容易。模糊識別戰(zhàn)略是為了認(rèn)識論及的地方神經(jīng)網(wǎng)絡(luò)的,可以增強(qiáng)的貢獻(xiàn)個人特征為場景識別。因?yàn)樗牟糠中畔⒒謴?fù)能力,隱馬爾可夫模型采用組織這些地標(biāo),可以捕捉結(jié)構(gòu)或他們之間的關(guān)系。所以場景識別可以轉(zhuǎn)化為評價問題,嗯,這使得識別的魯棒性。
2凸顯當(dāng)?shù)貓D像區(qū)域檢測
研究表明,生物視覺系統(tǒng)生物(像果蠅)經(jīng)常注重一定的特殊的地區(qū),在現(xiàn)場行為的相關(guān)性或地方形象線索,同時觀察環(huán)境[8]。這些區(qū)域可以被看作是自然的創(chuàng)建有效地表示并區(qū)分不同環(huán)境。靈感來自于那些,我們用center-surround差分方法對檢測顯著地區(qū)在多尺度圖像空間。opponencies的顏色和紋理計(jì)算到創(chuàng)造凸極地圖。
輸入表格內(nèi)提供靜態(tài)彩色圖像命名為G0期。多尺度圖像空間G1?輪流以G4(1:1 到 1?:?64)是由方程式。(1)和(2)。
Gn0 = w *Gn?1 (1)
Gn0 n∈Gn= Subsampled[1,4] (2)
在w是一個Gaussion低通濾波器,和“*”表示卷積實(shí)現(xiàn)。讓中心是{ G1,G2 }和環(huán)境都{ G3,輪流以G4 }的定義這些材料的特性是opponency尺度之間的差異中心和環(huán)境之間通過引入“Θ”,這意味著環(huán)境插值和嗎然后減去中心像素。
計(jì)算opponencies呈現(xiàn)出希望的顏色,它是有必要把RGB空間分成RGBY空間為強(qiáng)調(diào)opponencies紅/綠和藍(lán)/黃[9]??臻g計(jì)算
R=r?(g+b)/2
G=g?(r+b)/2
B=b?(r+g)/2
Y=(r+g)/2?|r?g|/2?b
所以,opponencies計(jì)算出的顏色
RG(c, s)=|(R(c)?G(c)) Θ (G(s)?R(s))|
BY(c, s)=|(B(c)?Y(c)) Θ (Y(s)?B(s))|
其中c∈Centers, s∈Surroundings. RG(c, s) 屬于紅和綠的對立; BY(c, s) 屬于藍(lán)和黃的對立 計(jì)算紋理opponencies,第十二濾波器因?yàn)槠淠芰x擇獲得局部最優(yōu)無論是在時間域和頻率域。研究人類心理物理和視覺生理表明,它更像人類的注意力機(jī)制[10]。
Gabor定理被定義為h(x, y)=g(x, y)e2πj(ux+vy). 因?yàn)榈谑^濾是極性的對稱的頻率領(lǐng)域,方向?yàn)??π能覆蓋所用的頻率空間,一般情況下有4個過程其方向?yàn)?°, 45°,90° 和 135°紋理4方向計(jì)算為
Tθ(x, y)=|Gn(x, y)*hθ(x, y)|
我們可以完成紋理方向的反方向?yàn)?
T(c, s, θ)=|Tcθ(x, y) Θ Tsθ(x, y)|
其中 c∈Centers, s∈Surroundings, θ∈{0°, 45°, 90°,135°}.
vThen所有opponencies結(jié)合根據(jù)方程式。(3)?(5)創(chuàng)造凸極圖s,定義規(guī)范操作的N(),可以發(fā)現(xiàn),在文獻(xiàn)[9]。
在重量w1及w2為此所指示的意義的顏色和紋理。我們也設(shè)計(jì)算法采用最小均方算法學(xué)習(xí)w1及參與離線。圖1(b)顯示凸極具有里程碑意義的地區(qū)獲得的位置更輕更凸現(xiàn)出來。
隨訪中,sub-image為中心的顯著位置在年代作為這個具有里程碑意義的地區(qū)。大小的這個具有里程碑意義的地區(qū)可以自適應(yīng)地確定依據(jù)的變化梯度方向的地方圖像[11]。
移動機(jī)器人導(dǎo)航要求自然地標(biāo)應(yīng)及時發(fā)現(xiàn)當(dāng)環(huán)境穩(wěn)定在某種程度上改變。重復(fù)性驗(yàn)證在具有里程碑意義的檢測我們的方法,我們已經(jīng)做了很多實(shí)驗(yàn)對這種情況的規(guī)模、二維旋轉(zhuǎn)和觀點(diǎn)變化等。圖2顯示門查它的凸極變化時的觀點(diǎn)。更多的詳細(xì)分析和研究結(jié)果存在旋轉(zhuǎn)和比例可以被發(fā)現(xiàn)在我們以前的作品[12]。
3場景識別和定位
不同于其他場景識別系統(tǒng),我們的系統(tǒng)不需要訓(xùn)練離線。換句話說,我們的場景不是預(yù)先分類。當(dāng)機(jī)器人徘徊,場景捕獲間隔固定的時間是用來建造它的頂點(diǎn)的拓?fù)涞貓D,代表了機(jī)器人定位的地方。雖然這個地圖的幾何布局都被定位系統(tǒng),它是有用的可視化和調(diào)試[13]嗎有利于路徑規(guī)劃。所以定位手段搜索最佳匹配的當(dāng)前場景在地圖上。在本文隱馬爾可夫模型是用來組織從當(dāng)前場景中提取的地標(biāo)和創(chuàng)造頂點(diǎn)的拓?fù)涞貓D,其局部信息恢復(fù)能力。
類似的全景視覺系統(tǒng),機(jī)器人看起來讓omni-images周圍。 從每一個形象,突出局部區(qū)域檢測,構(gòu)成了一個序列,命名為具有里程碑意義的序列的順序是一樣的圖像序列。然后一個隱馬爾可夫模型創(chuàng)建基于這個具有里程碑意義的序列包括k突出地方形象地區(qū),這是作為描述機(jī)器人的地方位于。在我們的系統(tǒng)EVI-D70相機(jī)有±170°的視野??紤]到重疊效果,我們樣品的環(huán)境每45°到8圖像。 讓8圖像作為隱藏狀態(tài)Si(1≤i≤8),創(chuàng)造了HMM可以說明圖。參數(shù)對,aij和bjk,實(shí)現(xiàn)了學(xué)習(xí)、使用Baulm-Welch算法[14]。 的門檻收斂設(shè)置為0.001。至于拓?fù)涞貓D的邊緣,我們將它隨著距離的兩個頂點(diǎn)之間的信息。這距離可以根據(jù)odometry計(jì)算閱讀資料。
位自身拓?fù)涞貓D,機(jī)器人必須用“眼睛”的環(huán)境和提取具有里程碑意義的序列,那么搜索在地圖上最好的匹配的頂點(diǎn)(現(xiàn)場。不同于傳統(tǒng)概率定位[15],在我們的系統(tǒng)定位問題可以轉(zhuǎn)化為評價的問題嗯。頂點(diǎn)以最大的評價值,必須大于一個閾值,作為嗎最佳匹配的頂點(diǎn),表明最機(jī)器人可能的地方。
為評估,首先我們必須準(zhǔn)備一份觀察序列順序如下。
根據(jù)相似性計(jì)算我們設(shè)計(jì)了一種新的基于模糊邏輯的比賽策略,可以發(fā)現(xiàn)在接下來的部分里。一旦觀察序列生成、評價過程計(jì)算出一個后概率值P(VT)根據(jù)Eqn。(6),在那里是一套隱藏狀態(tài)嗎序列和r指數(shù)一個特殊的隱藏狀態(tài)序列[3]。詳細(xì)分析和算法發(fā)現(xiàn)在文獻(xiàn)[4]。
4基于模糊邏輯的比賽策略
一個重要的問題在圖像匹配問題選擇最有效的特征,或描述代表了原始圖像。由于機(jī)器人運(yùn)動,那些提取具有里程碑意義的地區(qū)將會改變像素水平。所以,描述符或特征選擇應(yīng)不變在某種程度上根據(jù)變化的規(guī)模、旋轉(zhuǎn)和觀點(diǎn)等。在本文中,我們利用4一般特點(diǎn),采用社區(qū)簡述如下。GO:梯度方向。已經(jīng)證明照明和旋轉(zhuǎn)的變化可能有更少影響[5]。
ASM和ENT:二階矩和角熵,這是兩個紋理描述符。
H亨利:色調(diào),用于描述基本信息的圖像。
另一個關(guān)鍵的問題是要選擇一個比賽良好的匹配策略和算法。通常最近的鄰居策略(NN)是用來衡量相似兩種模式之間。但是我們發(fā)現(xiàn)了實(shí)驗(yàn)表明,神經(jīng)網(wǎng)絡(luò)不能充分地展現(xiàn)個人描述符或特征的貢獻(xiàn)相似性度量。圖中所示,輸入圖像圖(a)來自不同的看法圖(b)。但是Figs.4之間的距離(a)和(b)計(jì)算Jefferey差異大于圖(c)。
為了解決這個問題,我們設(shè)計(jì)一個新的比賽給出了一種基于模糊邏輯的微妙的表現(xiàn)每個特征的變化。該算法描述下面。
使用Jefferey圖計(jì)算相似度的差異:(a)輸入形象;(b)具有里程碑意義的數(shù)據(jù)庫的索引是6和Jefferey分歧d = 7.305 2;(c)具有里程碑意義的數(shù)據(jù)庫的索引14及其Jefferey分歧d = 4.662
1) 首先所有特征fuzzifyid如下。
在這些方程N(yùn)k代表的數(shù)量象素灰度k、Npixels像素的總數(shù)的形象,Nm_GO的像素?cái)?shù)與角度學(xué)位 m 在{ GOij },Nm_H在{}。Aij代表灰色價值的像素,μk的平均程度由于通過模糊分類灰色水平鉀、μm k角程度相當(dāng)于256個和m等于360。
2)相似性地標(biāo)是計(jì)算機(jī)使用的個人特征,分別。這關(guān)于古今特征相似度在模糊設(shè)置{ASM,ENT、GO、H }被定義為
然后我們比較地方形象和每個人都在數(shù)據(jù)庫。拒絕和rmean記錄。3)所有的相似程度的各具特色,融為一體獲得一個判斷,可由Eqn形式化(7)。
依據(jù)權(quán)重確定根據(jù)rmean?拒絕各具特色的。經(jīng)分類,然后王是指定的0.4、0.3、0.2、0.1,分別按順序在數(shù)據(jù)庫中,這個具有里程碑意義的融合相似度高于其他任何作為最好的比賽。這個比賽結(jié)果的Figs.4(b)和(c)證明了圖。顯示,該方法能測量兩種模式之間相似度的有效。
5實(shí)驗(yàn),分析
定位系統(tǒng)已經(jīng)得到了落實(shí)在一個移動機(jī)器人,它建立在我們的實(shí)驗(yàn)室。視覺系統(tǒng)由CCD相機(jī)和一個frame-grabber下腔靜脈- 4200。 圖像的分辨率設(shè)置為400×320和采樣頻率將10幀/ s。計(jì)算機(jī)系統(tǒng)由1兆赫處理器和512米的記憶,這是所攜帶的機(jī)器人。目前該機(jī)器人工作的室內(nèi)環(huán)境。同樣的場景圖像區(qū)域和區(qū)分有效。表1顯示靜態(tài)識別結(jié)果環(huán)境包括5 laneways和筒倉。十個場景精選每個環(huán)境和 HMMs創(chuàng)造了每一個場景中。收集20的場景當(dāng)機(jī)器人進(jìn)入各個環(huán)境后比賽60 HMMs以上。
在表格上,“真相”意味著情景局部場比賽對場景的評價價值是30%比HMM第二高評價)?!安淮_定性”意味著評價HMM的價值大于第二高的評價在10%以下?!板e誤匹配”意味著情景本地化的比賽,錯誤的場景。在桌子上,比錯誤匹配是0。但這是不可能的場景本地化無法匹配任何場景和新序列為依據(jù)被創(chuàng)造出來。此外,“比真理“關(guān)于筒倉低,因?yàn)轱@著的球桿是減少這類環(huán)境。
在這個時期的自動探索,同樣的場景可以結(jié)合。這個過程可以概括為:
當(dāng)定位成功,當(dāng)前的地標(biāo)序列添加到隨之而來的觀察序列匹配的頂點(diǎn)un-repeatedly照他們的定位(包括角度的圖像從當(dāng)?shù)丶巴怀龅暮较驒C(jī)器人來)。學(xué)習(xí)參數(shù)的HMM再一次。方法相比,使用外觀整幅圖像的特點(diǎn)(方法2,M2),我們的系統(tǒng)(M1)使用當(dāng)?shù)氐娘@著區(qū)域的定位及地圖,這使得它有更多的寬容的規(guī)模、觀點(diǎn)機(jī)器人的運(yùn)動引起的變化,性價比高識別和更少的金額數(shù)拓?fù)涞貓D。所以,我們的系統(tǒng)具有較好的性能在動態(tài)環(huán)境下。這些表2中可以看出。Laneways 1、2、4、5運(yùn)行有些礦工的地方在工作,這拼圖機(jī)器人。
6總結(jié)
1)局部圖像特征明顯,提取取代整個圖像參與識別,提高公差的變化在規(guī)模、2 D旋轉(zhuǎn)和觀點(diǎn)的環(huán)境形象。
2)模糊邏輯是用來認(rèn)識當(dāng)?shù)氐男蜗?并強(qiáng)調(diào)個體特征的貢獻(xiàn)識別,提高了可靠性的地標(biāo)建筑。
3)HMM用于捕獲結(jié)構(gòu)或那些當(dāng)?shù)氐膱D像之間的關(guān)系,把場景識別問題轉(zhuǎn)化為評價的問題HMM。
4)從以上實(shí)驗(yàn)結(jié)果表明該煤礦救災(zāi)機(jī)器人場景識別系統(tǒng)具有較高比率的識別和定位。
參考
[1] QIAN Shan-hua, GE Shi-rong, WANG Yong-sheng, LIU Chang-qing.
Research status of the disaster rescue robot and its applications to the
mine rescue [J]. Robot, 2006, 28(3): 350?354.
[2] ULRICH I, NOURBAKHSH I. Appearance based place recognition
for topological localization [C]// KHATIB Q. Proc of the IEEE
International Conference on Robotics and Automation. San Francisco,
2000: 1023?1029.
[3] ARTAC M, JOGAN M, LEONARDIS A. Mobile robot localization
using an incremental eigenspace model [C]// DUBEY R V. Proc of
the IEEE International Conference on Robotics and Automation.
Washington, 2002: 1025?1030.
[4] ZHOU C, WEI Y C, TAN T N. Mobile robot self-localization based
on global visual appearance features [C]// LUO R C. Proc of the
IEEE International Conference on Robotics and Automation. Taipei,
2003: 1271?1276.
[5] LOWE D. Object recognition from local scale invariant features [C]//
BOYER K L. Proc of the International Conference on Computer
Vision. Greece, 1999: 1150?1157.
[6] CHEN Yong-sheng, HUNG Yi-ping, YEN Ting-fang, FUH Chioushan.
Fast and versatile algorithm for nearest neighbor search based
on a lower bound tree [J]. Pattern Recognition, 2007, 40(2):
360?375.
[7] RAPTIS S N, TZAFESTAS S G. Fuzzy-probabilistic object
recognition based on edge and texture descriptors fusion [C]// JENG
Mu-de. IEEE International Conference on Systems, Man, and
Cybernetics. Nashville, USA. 2000: 1621?1626.
[8] HEISENBERG M, WOLF R. Studies of brain function [M]. Berlin,
Germany: Springer-Verlag Press, 1984.
[9] EDUARDO T, TORRAS C. Detection of nature landmarks through
multiscale opponent features [C]// LOOG M. Proc of International
Conference on Pattern Recognition. Barcelona, 2000: 3988?3991.
[10] SHENG W, XIA B. Texture segmentation method based on Gabor
ring filtering [J]. Infrared and Laser Engineering, 2003, 32(5):
484?488.
[11] MIKOLAJCZYK K, SCHMID C. Scale and affine invariant interest
point detectors [J]. International Journal of Computer Vision, 2004,
60(1): 63?86.
[12] WANG L, CAI Z X. Saliency based natural landmarks detection
under unknown environments [J]. Pattern Recognition and Artificial
Intelligence, 2006, 1(1): 52?56.
[13] GUILHERME N D, AVINASH C K. Vision for mobile robot
navigation: A survey [J]. IEEE Transaction on Pattern Analysis and
Machine Intelligence, 2002, 24(2): 1?31.
[14] DUDA R, HART P, STORK D. Pattern classification [M]. 2nd ed.
Beijing: China Machine Press, 2004.
[15] VALE A, RIBEIRO M I. A probabilistic approach for the localization
of mobile robots in topological maps [C]// KOVACIC Z. Proc of the
10th Mediterranean Conference on Control and Automation. Lisbon,
Portugal, 2002: 1244?1249.