MIT最新AI研究,讓機(jī)器人利用觸覺感知物體
麻省理工學(xué)院計(jì)算機(jī)科學(xué)及人工智能實(shí)驗(yàn)室(CSAIL)的研究人員表示,在不久的將來,機(jī)器人將能夠通過觸覺來感知物體。一篇最新的相關(guān)論文將于下周在加利福尼亞長灘市的計(jì)算機(jī)視覺與模式識別會議上公開,這篇論文描述了一種人工智能系統(tǒng),它可以通過觸覺信號生成觸摸物的視覺形象,還能根據(jù)視覺數(shù)據(jù)來預(yù)測物體的觸感。
“通過觀察物體的表面,我們的模型可以預(yù)測某個(gè)平面或棱角的觸感。通過觸摸物體,我們的人工智能模型可以根據(jù)觸感來構(gòu)建感知到的環(huán)境。將這兩種感知數(shù)據(jù)相結(jié)合,機(jī)器人的性能就會得到優(yōu)化,它在搬運(yùn)或抓取某個(gè)物體時(shí)所需的數(shù)據(jù)就更少,”CSAIL博士生Yunzhu Li說道,他與他的導(dǎo)師Russ Tedrake、Antonio Torralba以及另一位博士后Jun-Yan Zhu一起撰寫了本篇論文。
這支團(tuán)隊(duì)的系統(tǒng)采用了生成式對抗神經(jīng)網(wǎng)絡(luò)(GAN),這種神經(jīng)網(wǎng)絡(luò)包含了生成模型和判別模型,前者負(fù)責(zé)生成樣本,后者負(fù)責(zé)辨別生成樣本和現(xiàn)實(shí)樣本的不同。該系統(tǒng)能將觸覺數(shù)據(jù)產(chǎn)生的圖像拼接起來。訓(xùn)練時(shí)它采用了VisGel的數(shù)據(jù),該數(shù)據(jù)庫擁有300萬組視覺和觸覺的配套數(shù)據(jù),其中包含1.2萬個(gè)視頻片段,對象多達(dá)200種(包括工具、織物和家具產(chǎn)品等)。它會預(yù)測出形狀和接觸點(diǎn)的材料,然后與參考圖片進(jìn)行對比。
例如你給出一只鞋子上某個(gè)點(diǎn)的觸覺數(shù)據(jù),這個(gè)模型就能確定出這個(gè)接觸點(diǎn)到底在什么地方。
這些參考圖片能為目標(biāo)物體或環(huán)境的細(xì)節(jié)進(jìn)行編碼,讓機(jī)器學(xué)習(xí)模型不斷自我完善。
這些研究人員指出,目前的數(shù)據(jù)集還非常有限,對于現(xiàn)有的系統(tǒng)而言,物體的顏色、柔軟度等細(xì)節(jié)還很難預(yù)測。但很顯然他們的研究會為更多的人機(jī)一體化打下基礎(chǔ),尤其是針對光線昏暗甚至黑暗密閉空間中的任務(wù)。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個(gè)字
最新活動更多
-
3月27日立即報(bào)名>> 【工程師系列】汽車電子技術(shù)在線大會
-
4月30日立即下載>> 【村田汽車】汽車E/E架構(gòu)革新中,新智能座艙挑戰(zhàn)的解決方案
-
5月15-17日立即預(yù)約>> 【線下巡回】2025年STM32峰會
-
即日-5.15立即報(bào)名>>> 【在線會議】安森美Hyperlux™ ID系列引領(lǐng)iToF技術(shù)革新
-
5月15日立即下載>> 【白皮書】精確和高效地表征3000V/20A功率器件應(yīng)用指南
-
5月16日立即參評 >> 【評選啟動】維科杯·OFweek 2025(第十屆)人工智能行業(yè)年度評選
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達(dá)AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 “AI寒武紀(jì)”爆發(fā)至今,五類新物種登上歷史舞臺
- 4 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計(jì)算迎來商業(yè)化突破,但落地仍需時(shí)間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機(jī)器人東風(fēng)翻身?