久久久久九九精品影院_久久久久久av无码免费看大片_欧美精品九九99久久在免费线_久久亚洲国产成人精品无码区

請輸入關(guān)鍵字

計算機(jī)學(xué)院(軟件學(xué)院)、人工智能學(xué)院物聯(lián)網(wǎng)團(tuán)隊在多智能體協(xié)同智能感知方向取得新進(jìn)展

計算機(jī)學(xué)院(軟件學(xué)院、人工智能學(xué)院物聯(lián)網(wǎng)團(tuán)隊由黃寶琦教授、賈冰副教授、郝利飛研究員等教師和50余名研究生組成。團(tuán)隊入選自治區(qū)高等學(xué)校創(chuàng)新團(tuán)隊發(fā)展計劃,專注于物聯(lián)網(wǎng)智能感知、無線網(wǎng)絡(luò)定位、生態(tài)大數(shù)據(jù)等領(lǐng)域的研究和應(yīng)用。近期,物聯(lián)網(wǎng)團(tuán)隊在無人機(jī)、機(jī)器人等多智能體協(xié)同智能感知方向取得了重要研究進(jìn)展,3項研究成果發(fā)表在領(lǐng)域頂級期刊上。以下為成果簡述:

1.在多智能體多模態(tài)融合感知方面,在中國計算機(jī)協(xié)會(CCF)推薦A類期刊IEEE Transactions on Mobile Computing上發(fā)表了題為“Heterogeneous Dual-Attentional Network for WiFi and Video-Fused Multi-modal Crowd Counting”的學(xué)術(shù)論文(論文鏈接:https://ieeexplore.ieee.org/document/10637758)。

為克服無線或視覺感知智能體捕獲單模態(tài)信息存在的固有局限,如無線信號的隨機(jī)性和稀疏性、視覺信號的視野局部性和易受干擾性,課題組提出一種創(chuàng)新的基于多模態(tài)深度學(xué)習(xí)的異構(gòu)雙注意力網(wǎng)絡(luò)(HDANet)模型,利用大量的WiFi嗅探器和少量的攝像頭構(gòu)建多智能體多模態(tài)感知網(wǎng)絡(luò),通過聯(lián)合建模全局無線感知與少量局部視頻感知的模態(tài)內(nèi)和模態(tài)間相關(guān)性,實現(xiàn)了精準(zhǔn)和穩(wěn)定的大范圍人群分析,并在覆蓋面積超1萬平米的真實校園環(huán)境中驗證了其優(yōu)越的人群分析準(zhǔn)確性和穩(wěn)定性。

圖1 異構(gòu)雙注意力網(wǎng)絡(luò)模型(HDANet)整體流程圖

該成果由我校與西安電子科技大學(xué)毛國強(qiáng)教授課題組合作完成。黃寶琦教授為通訊作者,郝利飛研究員為第一作者,賈冰副教授為第三作者,內(nèi)蒙古大學(xué)為第一完成單位。該研究受到國家自然科學(xué)基金、自治區(qū)自然科學(xué)基金、自治區(qū)高等學(xué)校創(chuàng)新團(tuán)隊發(fā)展計劃等項目支持。

2.在多無人機(jī)協(xié)同感知方面,在CCF推薦A類期刊IEEE Transactions on Mobile Computing上發(fā)表題為“Energy-Efficient 3-D UAV Ground Node Accessing Using the Minimum Number of UAVs”(論文鏈接:https://ieeexplore.ieee.org/document/10539333)。

多無人機(jī)協(xié)同感知已廣泛應(yīng)用于數(shù)據(jù)收集、環(huán)境監(jiān)測等領(lǐng)域,如何減少特定任務(wù)執(zhí)行時的無人機(jī)數(shù)量和能耗是其中的關(guān)鍵問題?,F(xiàn)有研究多集中于二維場景、假設(shè)無人機(jī)數(shù)量固定且場景特定,導(dǎo)致通用性不足。對于三維場景下多無人機(jī)訪問多個地面節(jié)點的任務(wù),課題組將其建模為最少數(shù)量智能體高能效多目標(biāo)訪問問題,并進(jìn)一步分解為兩個子問題:(1)利用凸優(yōu)化和路徑離散化技術(shù)使單個無人機(jī)連續(xù)訪問任意兩個目標(biāo)節(jié)點的能耗最?。唬?)利用基于改進(jìn)粒子群優(yōu)化和貪心路徑分配的近似框架(MPSO-GPA)實現(xiàn)最少數(shù)量無人機(jī)情況下的高能效路徑規(guī)劃。

圖2 最少數(shù)量智能體高能效多目標(biāo)訪問的優(yōu)化問題及決策變量示意圖

該成果由我校獨(dú)立完成。黃寶琦教授為通訊作者,所指導(dǎo)的2020級博士研究生弓浩為第一作者,賈冰副教授為第三作者,內(nèi)蒙古大學(xué)為第一完成單位。該研究受到國家自然科學(xué)基金、自治區(qū)自然科學(xué)基金、自治區(qū)高等學(xué)校創(chuàng)新團(tuán)隊發(fā)展計劃等項目支持。

(3)在機(jī)器人視覺感知優(yōu)化方面,在中科院SCI一區(qū)TOP期刊IEEE Transactions on Intelligent Transportation Systems上發(fā)表題為“MAS-DSO: Advancing Direct Sparse Odometry With Multi-Attention Saliency”的學(xué)術(shù)論文(論文鏈接:https://ieeexplore.ieee.org/document/10570369)。

視覺里程計(Visual Odometry, VO)是同時定位與建圖(Simultaneous Localization And Mapping, SLAM)的重要分支,已被廣泛應(yīng)用于無人機(jī)、機(jī)器人導(dǎo)航等領(lǐng)域。然而,由于現(xiàn)有視覺里程計的特征選擇能力有限、圖像結(jié)構(gòu)理解能力不足,導(dǎo)致其在動態(tài)紋理、光照不足和快速旋轉(zhuǎn)運(yùn)動等復(fù)雜環(huán)境中的表現(xiàn)較差。為此,課題組提出一種新型視覺里程計框架,即多注意力顯著性直接稀疏里程計(MAS-DSO),通過對視覺顯著區(qū)域的精準(zhǔn)識別和圖像結(jié)構(gòu)的深入理解,顯著增強(qiáng)了視覺里程計的性能和魯棒性。同時,提出的MAS-DSO還能夠提高特征選擇效率和增強(qiáng)復(fù)雜環(huán)境中多元化圖像的處理能力。

圖示描述已自動生成

圖3 多注意力顯著性直接稀疏里程計(MAS-DSO)架構(gòu)圖

該成果由我校獨(dú)立完成。黃寶琦教授為通訊作者,所指導(dǎo)的2021級博士研究生李祥宇為第一作者,賈冰副教授為第三作者,內(nèi)蒙古大學(xué)為第一完成單位。該研究受到國家自然科學(xué)基金、自治區(qū)科技計劃、自治區(qū)高等學(xué)校創(chuàng)新團(tuán)隊發(fā)展計劃等項目支持。

供稿:計算機(jī)學(xué)院(軟件學(xué)院)、人工智能學(xué)院  編輯:王燦   審核:劉雪峰