強化學(xué)習(xí)在無人機項目中的應(yīng)用
近年來,無人機已被廣泛應(yīng)用于很多領(lǐng)域,它不僅可以完成很多的任務(wù),包括軌跡規(guī)劃、避障、巡航等,在民用、軍事都有很廣泛應(yīng)用,而且還有降低成本、提高效率、減少損失等很多作用。
但是傳統(tǒng)的無人機任務(wù)都采用飛控控制,需要人為操作。為了使無人機可以具備更廣的適用性,或者從技術(shù)上來說擁有更好的泛化能力,深蘭科學(xué)院嘗試用強化學(xué)習(xí)來訓(xùn)練無人機做指定的任務(wù)。如果訓(xùn)練效果能夠達(dá)到足夠穩(wěn)定的性能,則可以進一步實現(xiàn)商用目的。本文在此基礎(chǔ)上,帶大家簡單了解一下強化學(xué)習(xí)的基礎(chǔ)知識。
強化學(xué)習(xí)小課堂
什么是強化學(xué)習(xí)?
1、強化學(xué)習(xí)
強化學(xué)習(xí)(Reinforcement Learning RL)也有很多其他名字,例如再勵學(xué)習(xí)、增強學(xué)習(xí)、評價學(xué)習(xí),是機器學(xué)習(xí)的范式和方法論之一,用于描述和解決智能體在與環(huán)境的交互過程中,通過學(xué)習(xí)策略以達(dá)成回報最大化或?qū)崿F(xiàn)特定目標(biāo)的問題。
上圖為經(jīng)典的強化學(xué)習(xí)結(jié)構(gòu)圖,從圖片中可以看出,強化學(xué)習(xí)過程主要由4部分構(gòu)成:智能體(agent)、觀測到的狀態(tài)(observation/state)、獎勵(reward)和行為(action)。
一個強化學(xué)習(xí)的過程中,智能體獲得從當(dāng)前環(huán)境中觀測到的狀態(tài),然后根據(jù)這一狀態(tài)采取一定的行為或策略,同時,有一個評價系統(tǒng)來評價這個行為的好壞,并返回正/負(fù)獎勵給到智能體。循環(huán)往復(fù),直到完成整個任務(wù),此為一次強化學(xué)習(xí)的交互。整個強化學(xué)習(xí)訓(xùn)練過程就是,智能體與環(huán)境不斷的交互,最終會學(xué)習(xí)到合理的策略,讓獎勵最大或者達(dá)到某個任務(wù)(指定的狀態(tài))。
強化學(xué)習(xí)受行為主義心理學(xué)的啟發(fā),例如巴甫洛夫條件反射實驗,訓(xùn)練搖鈴小狗流口水。小狗看到吃的流口水、搖鈴不流口水,實驗中就采取搖鈴并給狗喂狗糧的方法不停訓(xùn)練,最終即使在沒有狗糧,只搖鈴的情況下,小狗也會流口水。
強化學(xué)習(xí)與此類似,是讓智能體在與環(huán)境交互的過程中,一旦選擇對的行為則給予正獎勵加強這種行為,在不斷的訓(xùn)練過程中使得智能體選擇最合適的行為,最終使得智能體的每一步都能選擇合理的行為,從而達(dá)到整體任務(wù)獎勵最大化,并完成任務(wù)。
2、深度強化學(xué)習(xí)
我們一般所說的強化學(xué)習(xí)其實是深度強化學(xué)習(xí)(Deep Reinforcement Learning DRL),深度強化學(xué)習(xí)是強化學(xué)習(xí)與深度學(xué)習(xí)結(jié)合的結(jié)果。顧名思義,就是將傳統(tǒng)強化學(xué)習(xí)中的某一部分用深度學(xué)習(xí)來完成。
傳統(tǒng)強化學(xué)習(xí)中的行為以及價值都是需要人為定義的,這也就是為什么傳統(tǒng)強化學(xué)習(xí)起源較早,但是應(yīng)用并不廣泛的原因之一。而深度學(xué)習(xí)恰好將這一問題解決了,強化學(xué)習(xí)中的行為以及價值都用一個深度學(xué)習(xí)的網(wǎng)絡(luò)來學(xué)習(xí)得到,這樣不需要人為設(shè)定,使得強化學(xué)習(xí)可以廣泛應(yīng)用于很多領(lǐng)域。而傳統(tǒng)強化學(xué)習(xí)無法解決的連續(xù)性動作的問題,深度強化學(xué)習(xí)也可以解決,使用對應(yīng)的Actor-critic網(wǎng)絡(luò)即可。
深度強化學(xué)習(xí)的分類,有很多種分類標(biāo)準(zhǔn)。
從智能體的個數(shù)上,可分為單智能體算法和多智能體算法;
從是否基于模型的角度,可分為model-based和model-free;
從訓(xùn)練時策略的選擇,可分為on-policy和off-policy等等。
這里不一一展開,但在實際運用強化學(xué)習(xí)的時候,根據(jù)具體的任務(wù)或者項目,需要選擇合適的深度強化學(xué)習(xí)算法。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達(dá)AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀(jì)”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機器人東風(fēng)翻身?