機器人在大規模高通量獲取作物表型信息的應用上具有較大的潛力。自主導航技術是移動機器人研究中的一項重要內容,但農業場景的非結構化特征給該項技術的研究帶來了巨大挑戰,且在表型采集場景中機器人還面臨著場景變化大、高頻高重復性工作等具體問題。目前鮮有針對表型檢測機器人導航方法的研究。
華中農業大學作物表型團隊在Journal of Field Robotics在上發表了 題為''Autonomous navigation method based on RGB-D camera for a crop phenotyping robot''的論文。
該研究提出了一種基于RGB-D相機的作物表型機器人自主導航方法,該方法建立了田間和盆栽兩種場景下多種作物圖像的導航數據集,采用實時性與準確性均衡的語義分割模型對作物區域進行分割,結合該區域深度信息,在真實世界坐標系下提取導航線并獲得導航參數,再根據兩個單輸入輸出模糊控制器對機器人實施糾偏控制。除此之外,該方法根據識別區域內作物的平均高度和區域內目標的存在性判別機器人是否到達行末,最終根據行走時所測得的行距,控制機器人在末尾自動換行。
研究人員針對該方法進行了大量可行性實驗。實驗結果表明,機器人的導航平均行走偏差為1.33cm,最大為3.82cm。此外,行間距測量的平均誤差為2.71cm,而掉頭換行的成功率為100%。該方法具有較高的準確性及實用性,可以為表型機器人在戶外農業環境的無人化作業提供有效支持。
文章鏈接:https://doi.org/10.1002/rob.22379
華中農業大學作物表型團隊黃成龍教授和團隊博士生楊蒙為論文共同第一作者,宋鵬副教授為本文通訊作者。本研究得到了國家重點研發計劃項目(2022YFD2002304)、國家自然科學基金項目(U21A20205)、湖北省自然科學基金重點項目(2021CFA059)等項目的資助。