近日,中國科學院合肥物質科學研究院安光所光電子中心計算機視覺團隊研發(fā)出適用于大場景的多
機器人協同定位新技術。相關研究成果發(fā)表在機器人領域國際Top期刊IEEE Robotics and Automation Letters (IEEE RA-L)上。
在智能機器人領域,基于視覺的同步定位與地圖構建技術(SLAM)因視覺傳感器具有成本低、部署靈活、信息量豐富等優(yōu)勢,成為行業(yè)研究熱點。在大規(guī)模環(huán)境中,通過共享地圖數據實現協同作業(yè)可大幅提升工作效率。然而,實現多機器人系統中不同機器人間的全局定位(Multi-Robot Global Localization, MR-GL)依然面臨諸多挑戰(zhàn)。特別是在機器人初始位姿未知、環(huán)境動態(tài)變化劇烈的情況下,不同機器人間視角差異造成的數據數據匹配困難,動態(tài)場景對算法的實時性與魯棒性(一個系統在面臨著內部結構或外部環(huán)境的改變時也能夠維持其功能穩(wěn)定運行的能力)提出了更高要求。此外,如何在保障精度的同時快速完成多機協同定位,是影響協同任務能否成功執(zhí)行的關鍵因素之一。
針對上述難題,研究團隊創(chuàng)新性地提出了一種融合語義與幾何三重約束的圖匹配多機器人全局定位方法——SGT-MGL。該方法首先提取場景中對象的語義與幾何特征,并通過拓撲結構刻畫其空間分布關系。為增強對象的區(qū)分性,研究人員基于語義信息與相對距離構建了三角形描述符,進一步提升了特征辨識度。考慮到語義與幾何信息的互補特性,創(chuàng)新性提出了一種融合語義標簽、空間夾角及相對距離信息的三維直方圖描述符,有效提升了三角形描述符的穩(wěn)定性與不變性。為進一步降低噪聲干擾,研究團隊采用"由粗到精"的匹配策略,提出了一種由全局幾何結構篩選關鍵點位,并結合局部與全局圖匹配方法,實現了多機器人間的高精度六自由度(6-DoF)(三維位置+三維朝向)姿態(tài)估計。實驗結果表明,該方法在提升全局定位精度方面具有顯著優(yōu)勢。
實驗數據顯示,該技術在復雜動態(tài)環(huán)境中的定位精度較傳統方法提升顯著。其創(chuàng)新性的三重約束機制,既保證了算法在視角差異下的魯棒性,又通過分級處理兼顧了運算效率,為未來智能醫(yī)院、智能工廠等場景的多機器人協同作業(yè)提供了關鍵技術支撐。
該項工作的第一作者為王凡博士后,通訊作者為張文副研究員和劉勇研究員。本研究得到了國家自然科學基金、合肥物質院院長基金和國家重點研發(fā)計劃的支持。
所提出的多機器人全局定位方法在KITTI08序列數據集上的應用
版權與免責聲明:
凡本站注明“來源:智能制造網”的所有作品,均為浙江興旺寶明通網絡有限公司-智能制造網合法擁有版權或有權使用的作品,未經本站授權不得轉載、摘編或利用其它方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:智能制造網”。違反上述聲明者,本站將追究其相關法律責任。
本站轉載并注明自其它來源(非智能制造網)的作品,目的在于傳遞更多信息,并不代表本站贊同其觀點或和對其真實性負責,不承擔此類作品侵權行為的直接責任及連帶責任。如其他媒體、平臺或個人從本站轉載時,必須保留本站注明的作品第一來源,并自負版權等法律責任。如擅自篡改為“稿件來源:智能制造網”,本站將依法追究責任。
鑒于本站稿件來源廣泛、數量較多,如涉及作品內容、版權等問題,請與本站聯系并提供相關證明材料:聯系電話:0571-89719789;郵箱:1271141964@qq.com。