訂閱
糾錯(cuò)
加入自媒體

人工智能AI在機(jī)器人運(yùn)動(dòng)控制領(lǐng)域應(yīng)用盤(pán)點(diǎn)

1)強(qiáng)化學(xué)習(xí)

強(qiáng)化學(xué)習(xí)框架中,有一個(gè)包含神經(jīng)網(wǎng)絡(luò)的Agent負(fù)責(zé)決策。Agent以當(dāng)前機(jī)器人傳感器所采集到的環(huán)境為輸入,輸出控制機(jī)器人的行動(dòng)命令action,機(jī)器人行動(dòng)后,再觀察新的環(huán)境狀態(tài)和行動(dòng)帶來(lái)的結(jié)果Reward,決定下一步新的行動(dòng)action。Reward根據(jù)控制目標(biāo)進(jìn)行設(shè)置,并有正反向之分。例如,如果以自動(dòng)駕駛為目標(biāo),正向的Reward的就是到達(dá)目的地,反向就是不能達(dá)到目的地,更不好的Reward就是出車禍。然后重復(fù)這個(gè)過(guò)程,目標(biāo)是最大化Reward。

強(qiáng)化學(xué)習(xí)的控制過(guò)程,本來(lái)就是個(gè)正向反饋的控制過(guò)程,是AI用于機(jī)器人控制的基礎(chǔ)。以此為基礎(chǔ),強(qiáng)化學(xué)習(xí)在機(jī)器人控制方面出現(xiàn)了一些研究成果。

2)環(huán)境中尋找目標(biāo)

16年,李飛飛組放出了一篇論文,基于深度強(qiáng)化學(xué)習(xí),在以目標(biāo)圖像為輸入的情況下,不建圖去找東西。大致思路是:根據(jù)機(jī)器看到的圖,決定怎么走,然后再看圖,再?zèng)Q定新走的一步,直到找到東西。論文將目標(biāo)圖像作為輸入,訓(xùn)練出來(lái)的神經(jīng)網(wǎng)絡(luò)具有通用性。

這種方式找東西更接近人的思維。訓(xùn)練出的控制器并沒(méi)有記住物體的位置,更不知道房屋的結(jié)構(gòu)。但它記住了在每一個(gè)位置,通向各個(gè)物體應(yīng)該怎么走。

3)機(jī)器人抓取

傳統(tǒng)的機(jī)器人學(xué)研究認(rèn)為,需要非常清楚要抓取的物體的三維幾何形狀,分析受力位置和力的大小,再反向計(jì)算機(jī)器手如何一步步移動(dòng)到這些位置。但這種方式抓取不規(guī)則形狀和柔性物體會(huì)很困難。例如毛巾,可能需要看成一系列剛體的鏈接,再進(jìn)行動(dòng)力學(xué)建模分析,但是計(jì)算量比較大。而小黃鴨那樣的橡膠,外部并不能看出彈性程度,難以計(jì)算出需要施加的正確的力。

Pieter Abbeel、DeepMind和OpenAI關(guān)于機(jī)器人控制的研究,都以此深度強(qiáng)化學(xué)習(xí)為基礎(chǔ);趶(qiáng)化學(xué)習(xí)進(jìn)行機(jī)器人抓取,以機(jī)器視角看到的圖像為輸入,以機(jī)器最終抓到物體為目標(biāo),不斷對(duì)機(jī)器進(jìn)行訓(xùn)練,從而在不建模和不做受力分析的情況下,實(shí)現(xiàn)對(duì)物體的抓取。Pieter Abbeel已經(jīng)展示過(guò)機(jī)器人疊毛巾,開(kāi)瓶蓋,裝玩具等復(fù)雜的動(dòng)作。

不過(guò)基于強(qiáng)化學(xué)習(xí)也仍有很多問(wèn)題,如效率低、推理過(guò)程長(zhǎng)、任務(wù)難以描述、不能終身學(xué)習(xí)、不能最大限度從真實(shí)世界獲取信息等。其中一些通過(guò)meta學(xué)習(xí),one-shot學(xué)習(xí),遷移學(xué)習(xí),VR示教等方法的引入得到了改善,有些則還暫時(shí)難以解決。

4.Dexterity Network

鑒于深度強(qiáng)化學(xué)習(xí)的各種問(wèn)題,Pieter Abbeel在UCBerkeley的同事Ken Goldberg,則采用了叫做Dexterity Network(Dex-Net)的研究思路。首先通過(guò)傳統(tǒng)機(jī)器人學(xué)中分析受力和建模的思路,建立一個(gè)包含大量數(shù)據(jù)的數(shù)據(jù)集,這個(gè)數(shù)據(jù)集里的每一項(xiàng)數(shù)據(jù)包含一個(gè)物體的模型和這個(gè)物體在不同姿態(tài)下可以被穩(wěn)定抓起來(lái)的施力方式,這些施力方式是通過(guò)物體模型計(jì)算出來(lái)的。有了數(shù)據(jù)之后,用這些數(shù)據(jù)訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)。然后給出一個(gè)新物體,通過(guò)神經(jīng)網(wǎng)絡(luò)判斷這個(gè)物體和數(shù)據(jù)集里哪個(gè)物體最相似,然后根據(jù)最相似的物體的數(shù)據(jù)集里包含的施力方式計(jì)算出這個(gè)新物體的最穩(wěn)定施力方式。

Ken Goldberg的方案的一個(gè)重要弊端,是計(jì)算量過(guò)于龐大。整個(gè)算法占用了Google云服務(wù)器上的1500臺(tái)虛擬機(jī)的計(jì)算量。此方法也讓“云機(jī)器人”這個(gè)概念受到了關(guān)注。

目前Pieter Abbeel和Ken Goldberg的兩種方法還處于學(xué)術(shù)爭(zhēng)議階段,新的研究成果還在不斷出現(xiàn),也還有很多問(wèn)題沒(méi)有解決,尤其是穩(wěn)定性和魯棒性是各方爭(zhēng)議的焦點(diǎn)。不同于語(yǔ)音識(shí)別音箱出了錯(cuò),無(wú)非是鬧個(gè)笑話,機(jī)器人系統(tǒng)對(duì)穩(wěn)定性和可靠性的要求非常高,系統(tǒng)一旦出錯(cuò),輕則毀物,重則造成人類的生命危險(xiǎn)。Pieter Abbeel也承認(rèn)目前還沒(méi)考慮魯棒性和穩(wěn)定性問(wèn)題,似乎整體還沒(méi)達(dá)到商用產(chǎn)品級(jí)。

總結(jié)

總體而言,以強(qiáng)化學(xué)習(xí)為代表,AI在機(jī)器人控制領(lǐng)域近兩年取得了一些進(jìn)展,尤其是在過(guò)去研究方法難以突破的環(huán)境交互問(wèn)題方面取得了進(jìn)展。但基于神經(jīng)網(wǎng)絡(luò)的控制系統(tǒng),在魯棒性等方面短期似乎難以得到解決,因此離實(shí)際應(yīng)用還有很遠(yuǎn)的距離。在多種研究方法的共同努力下,我們也期待機(jī)器人控制問(wèn)題能夠早日有所突破。

<上一頁(yè)  1  2  
聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問(wèn)題的,請(qǐng)聯(lián)系我們。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)