汽車傳感器融合系統(tǒng)淺析
最后我們對比一下這三大傳感器性能:
一起事故引發(fā)的改變
2016 年 5 月,美國佛羅里達州一輛開啟了自動駕駛模式(Autopilot) 的特斯拉與白色重型卡車相撞,導致特斯拉車主身亡。
這起被稱為“全球首例自動駕駛致死”事故,讓不少人開始對自動駕駛的安全性表示擔憂,也給特斯拉蒙上一層陰霾。
特斯拉
事故曝光后,特斯拉與其視覺識別系統(tǒng)供應商 Mobileye 終止合作,并于 9 月份通過 OTA 推送了 V8.0 系統(tǒng), 強化毫米波雷達作用,將其提升成為主控制傳感器。
特斯拉 V7.0 時代的自動駕駛主要以圖像識別為主,毫米波雷達只是一個輔助傳感器,V8.0 系統(tǒng)對整個技術方案做出了很大的調整:以毫米波雷達為主,圖像識別為輔,雷達可以監(jiān)測范圍是之前的 6 倍,大幅增強特斯拉的前方障礙識別能力。
而到了2016 年 10 月,特斯拉又發(fā)布 Autopilot2.0,宣布未來生產的所有車型都將具備進行完全自動駕駛的硬件系統(tǒng)。同時,特斯拉表示在此硬件基礎上的自動駕駛的安全性有了空前提升。
Autopilot 2.0 與 Autopilot 1.0 硬件對比情況
特斯拉的完全自動駕駛硬件系統(tǒng)包括:
1)車身四周加裝 8 個攝像頭,能夠測量 250 米范圍內的物體;
2)搭載 12 顆 超聲波傳感器,用以輔助偵測;
3)升級增強版的毫米波雷達,能夠在惡劣天氣下工作,也能探測到前方車輛;
4)汽車主板的性能是前款產品的 40 倍,大幅提升計算能力。
特斯拉本次發(fā)布Autopilot 2.0的完全自動駕駛硬件變化最大的在于攝像頭,數量從原先的1個增至8個。 這也預示著特斯拉感知端的技術路線從原先的攝像頭,到倚重雷達,最后又重新選擇了攝像頭。
特斯拉不斷變化的主控傳感器選擇說明感知端目前還沒有完全固定的技術路線,特斯拉自身也是在探索中不斷地前進。
Mobileye
實際上,與特斯拉“分手”,是Mobileye提出來的。
經過十幾年的研發(fā)創(chuàng)新,Mobileye憑借其EyeQ系列芯片上的高級視覺算法可實現多種ADAS功能,已成為視覺系ADAS產品中絕對的龍頭。
從2007年研發(fā)出的第一代EyeQ產品開始,Mobileye與意法半導體合作,不斷升級芯片技術,優(yōu)化視覺算法,EyeQ3產品的運算速度已是第一代產品的48倍。
Mobileye 的 EyeQ 系列產品升級情況
從表格中我們可以看到,前三代產品都只搭載一顆攝像頭。目前EyeQ4、EyeQ5產品計劃已發(fā)布,其中EyeQ4將開始使用多攝像頭方案。預計未來通過芯片升級和算法優(yōu)化,Mobileye的芯片算法將融合更多傳感器,將推出多目攝像頭+毫米波雷達+激光雷達的解決方案,全面支持無人駕駛。
2016年7月,Mobileye 宣布和特斯拉終止合作,EyeQ3 將會是 Mobileye 和特斯拉的最后一次合作。幾乎同時,Mobileye 還宣布英特爾、寶馬進行合作。今年3月,英特爾以溢價33%+的價格收購Mobileye。
其實,Mobileye與特斯拉終止合作的深層次原因在于:
1)風格策略不同。Mobileye相對保守,特斯拉相對激進,因此Mobileye更傾向與傳統(tǒng)汽車廠商合作。
2)數據歸屬有爭議。Mobileye提出了一個名為REM的概念,數據將由加入的成員共享,而作為積累里程以及數據最多的特斯拉不愿意白白把數據共享給別的車廠。
不過特斯拉只是Mobileye所面對的眾多整車客戶之一,但是與英特爾的強強聯合,Mobileye將受益于英特爾從芯片端提供的資源幫助,構造基于視覺、實現傳感器融合的強大算法,推動視覺算法持續(xù)向自動駕駛邁進。
趨勢——多傳感器融合
對比特斯拉跟Mobileye的產品升級我們會發(fā)現,“老情人”的肉體雖然分離了,但精神上還是一致的。都是通過增加傳感器的數量,并讓多個傳感器融合來提高自動駕駛能力。
上面提到的特斯拉事故中,主要原因有:
毫米波雷達測距可能誤判。毫米波雷達測到前方有巨大障礙物,但可能因為卡車反射面積過大和車身過高,毫米波雷達將拖掛車誤判為懸掛在道路上方的交通指示牌;
攝像頭強光致盲
前置攝像頭 EyeQ3 可能誤判。事故拖掛車是橫置的,全身白色,沒有色彩警告,在陽光強烈的環(huán)境下,圖像識別系統(tǒng)容易將拖掛車誤判為白云。
在極端情況下,特斯拉的毫米波雷達和前置攝像頭均發(fā)生了誤判。可見攝像頭+毫米波雷達方案缺乏冗余度,容錯性差, 難以完成自動駕駛的使命,需要多個傳感器信息融合綜合判斷。
傳感器各有優(yōu)劣,難以互相替代,未來要實現自動駕駛,是一定需要多種(個) 傳感器相互配合共同構成汽車的感知系統(tǒng)的。不同傳感器的原理、功能各不相同,在不同的使用場景里可以發(fā)揮各自優(yōu)勢,難以互相替代。
多個同類或不同類傳感器分別獲得不同局部和類別的信息,這些信息之間可能相互補充,也可能存在冗余和矛盾,而控制中心最終只能下達唯一正確的指令,這就要求控制中心必須對多個傳感器所得到的信息進行融合,綜合判斷。
試想一下,如果一個傳感器所得到的信息要求汽車立即剎車,而另一傳感器顯示可以繼續(xù)安全行駛,或者一個傳感器要求汽車左轉,而另一個傳感器要求汽車右轉,在這種情況下,如果不對傳感器信息進行融合,汽車就會“感到迷茫而不知所措”, 最終可能導致意外的發(fā)生。
因此在使用多種(個)傳感器的情況下,要想保證安全性,就必須對傳感器進行信息融合。 多傳感器融合可顯著提高系統(tǒng)的冗余度和容錯性,從而保證決策的快速性和正確性,是自動駕駛的必然趨勢。
多傳感器融合要求:
1)硬件層面,數量要足夠,也就是不同種類的傳感器都要配備,才能夠保證信息獲取充分且有冗余;
2)軟件層面,算法要足夠優(yōu)化,數據處理速度要夠快,且容錯性要好,才能保證最終決策的快速性和正確性。
算法是多傳感器融合的核心
簡單地說,傳感器融合就是將多個傳感器獲取的數據、信息集中在一起綜合分析以便更加準確可靠地描述外界環(huán)境,從而提高系統(tǒng)決策的正確性。
多傳感器融合的基本原理
多傳感器融合的基本原理類似于人類大腦對環(huán)境信息的綜合處理過程。人類對外界環(huán)境的感知是通過將眼睛、耳朵、鼻子和四肢等感官(各種傳感器)所探測的信息傳輸至大腦(信息融合中心),并與先驗知識(數據庫)進行綜合,以便對其周圍的環(huán)境和正在發(fā)生的事件做出快速準確地評估。
多傳感器融合的體系結構:分布式、集中式和混合式。
1)分布式。先對各個獨立傳感器所獲得的原始數據進行局部處理,然后再將結果送 入信息融合中心進行智能優(yōu)化組合來獲得最終的結果。分布式對通信帶寬的需求低、 計算速度快、可靠性和延續(xù)性好,但跟蹤的精度卻遠沒有集中式高。
2)集中式。集中式將各傳感器獲得的原始數據直接送至中央處理器進行融合處理, 可以實現實時融合。其數據處理的精度高,算法靈活,缺點是對處理器的要求高,可 靠性較低,數據量大,故難于實現。
3)混合式。混合式多傳感器信息融合框架中,部分傳感器采用集中式融合方式,剩 余的傳感器采用分布式融合方式。混合式融合框架具有較強的適應能力,兼顧了集中 式融合和分布式的優(yōu)點,穩(wěn)定性強;旌鲜饺诤戏绞降慕Y構比前兩種融合方式的結構 復雜,這樣就加大了通信和計算上的代價。
三種傳感器融合體系結構的對比
因為多傳感器的使用會使需要處理的信息量大增,這其中甚至有相互矛盾的信息,如何保證系統(tǒng)快速地處理數據,過濾無用、錯誤信息,從而保證系統(tǒng)最終做出及時正確的決策十分關鍵。
目前多傳感器融合的理論方法有貝葉斯準則法、卡爾曼濾波法、D-S 證據理論法、模糊集理論法、人工神經網絡法等。
從我們上面的分析可看出,多傳感器融合在硬件層面并不難實現,重點和難點都在算法上。多傳感器融合軟硬件難以分離,但算法是重點和難點,擁有很高的技術壁壘,因此算法將占據價值鏈的主要部分。
結語
在自動駕駛的浪潮下,自主品牌車企對智能化、電子化的需求比合資車企更加強勁,隨之而來的便是自主一二級零部件供應商在該領域的機會,過去幾年,零部件行業(yè)也在持續(xù)布局等待市場開啟。
相對于控制層和執(zhí)行層多被互聯網巨頭、整車廠及 Tier 1 所控制,傳感器層的零部件供應商較為分散且門檻相對低一些,進入周期相對短一些。傳感層仍然是國內企業(yè)進入自動駕駛產業(yè)最容易的切入點。
請輸入評論內容...
請輸入評論/評論長度6~500個字
圖片新聞
最新活動更多
推薦專題
-
9 賽力斯駛入港交所
-
10 瘋狂智駕,踩下“剎車”
- 1 2025上海車展看什么?看這一篇就夠了!
- 2 關稅大戰(zhàn),汽車芯片會漲價嗎
- 3 工信部召開智能網聯汽車產品準入及軟件在線升級管理工作推進會提的內容,將如何影響智駕行業(yè)發(fā)展?
- 4 地平線智駕方案軟硬結合,大眾、保時捷的合作紛至沓來
- 5 高呼的“全民智駕”真的做到“全民”了嗎?
- 6 一季度汽車產量省份排名大洗牌!誰在異軍突起?
- 7 奇瑞的混動技術:厚積薄發(fā),從發(fā)動機到混動系統(tǒng)
- 8 中國汽車發(fā)展頂層設計思路 - 萬鋼主席2025百人會核心內容總結
- 9 東風+華為,還是華為借東風?華為ADS3.0技術詳解
- 10 工信部對浮躁的智駕說“不”