沒有視覺傳感器還談什么無人駕駛?
2018-04-02
為了能讓無人車能像人一樣,遇到障礙物或紅燈就減速,直到停止;遇到綠燈或前方無障礙物的情況,進(jìn)行加速等操作。這就需要車載傳感器去周圍的環(huán)境進(jìn)行感知。
應(yīng)用于無人車上的傳感器目前有四大類,分別是攝像機(jī),激光雷達(dá)、毫米波雷達(dá)和超聲波雷達(dá)。不同的傳感器根據(jù)其傳感特性,布置在車身的不同位置。
今天我以百度Apollo 2.0開放的攝像頭及其模塊作為引子,對無人車上的攝像機(jī)進(jìn)行詳細(xì)介紹。
下圖就是百度Apollo 2.0推薦使用的攝像機(jī)LI-USB30-AR023ZWDR。Apollo 2.0中使用了兩個同樣的攝像機(jī),通過USB3.0的轉(zhuǎn)接線接入控制器,傳遞彩色圖像信息。兩個攝像機(jī)的鏡頭的焦距分別是6mm和25mm,分別用于檢測近處和遠(yuǎn)處的紅綠燈。
攝像機(jī)的分類
攝像機(jī)根據(jù)鏡頭和布置方式的不同主要有以下四種:單目攝像機(jī)、雙目攝像機(jī)、三目攝像機(jī)和環(huán)視攝像機(jī)。
單目攝像機(jī)
單目攝像機(jī)模組只包含一個攝像機(jī)和一個鏡頭。
由于很多圖像算法的研究都是基于單目攝像機(jī)開發(fā)的,因此相對于其他類別的攝像機(jī),單目攝像機(jī)的算法成熟度更高。
但是單目有著兩個先天的缺陷。
一是它的視野完全取決于鏡頭。
焦距短的鏡頭,視野廣,但缺失遠(yuǎn)處的信息。反之亦然。因此單目攝像機(jī)一般選用適中焦距的鏡頭。
二是單目測距的精度較低。
攝像機(jī)的成像圖是透視圖,即越遠(yuǎn)的物體成像越小。近處的物體,需要用幾百甚至上千個像素點(diǎn)描述;而處于遠(yuǎn)處的同一物體,可能只需要幾個像素點(diǎn)即可描述出來。這種特性會導(dǎo)致,越遠(yuǎn)的地方,一個像素點(diǎn)代表的距離越大,因此對單目來說物體越遠(yuǎn),測距的精度越低。
雙目攝像機(jī)
由于單目測距存在缺陷,雙目攝像機(jī)應(yīng)運(yùn)而生。相近的兩個攝像機(jī)拍攝物體時,會得到同一物體在攝像機(jī)的成像平面的像素偏移量。有了像素偏移量、相機(jī)焦距和兩個攝像機(jī)的實(shí)際距離這些信息,根據(jù)數(shù)學(xué)換算即可得到物體的距離。原理圖下圖。
根據(jù)雙目測距原理應(yīng)用在圖像上每一個像素點(diǎn)時,即可得到圖像的深度信息,如下圖。
深度信息的加入,不僅能便于障礙物的分類,更能提高高精度地圖定位匹配的精度。
雖然雙目能得到較高精度的測距結(jié)果和提供圖像分割的能力,但是它與單目一樣,鏡頭的視野完全依賴于鏡頭。而且雙目測距原理對兩個鏡頭的安裝位置和距離要求較多,這就會給相機(jī)的標(biāo)定帶來麻煩。
三目攝像機(jī)
由于單目和雙目都存在某些缺陷,因此廣泛應(yīng)用于無人駕駛的攝像機(jī)方案為三目攝像機(jī)。三目攝像機(jī)其實(shí)就是三個不同焦距單目攝像機(jī)的組合。下圖為特斯拉 AutoPilot 2.0安裝在擋風(fēng)玻璃下方的三目攝像機(jī)。
根據(jù)焦距不同,每個攝像機(jī)所感知的范圍也不盡相同。
如下圖,可以看出三個攝像頭的感知范圍由遠(yuǎn)及近,分別為前視窄視野攝像頭(遠(yuǎn)感知250米)、前視主視野攝像頭(遠(yuǎn)感知150米)及前視寬視野攝像頭(遠(yuǎn)感知60米)。
對攝像機(jī)來說,感知的范圍要么損失視野,要么損失距離。三目攝像機(jī)能較好地彌補(bǔ)感知范圍的問題。因此在業(yè)界被廣泛應(yīng)用。
那么測距精度的問題怎么辦?
正是由于三目攝像機(jī)每個相機(jī)的視野不同,因此近處的測距交給寬視野攝像頭,中距離的測距交給主視野攝像頭,更遠(yuǎn)的測距交給窄視野攝像頭。這樣一來每個攝像機(jī)都能發(fā)揮其大優(yōu)勢。
三目的缺點(diǎn)是需要同時標(biāo)定三個攝像機(jī),因而工作量更大一些。其次軟件部分需要關(guān)聯(lián)三個攝像機(jī)的數(shù)據(jù),對算法要求也很高。
環(huán)視攝像機(jī)
之前提到的三款攝像機(jī)它們所用的鏡頭都是非魚眼的,環(huán)視攝像機(jī)的鏡頭是魚眼鏡頭,而且安裝位置是朝向地面的。某些高配車型上會有“360°全景顯示”功能,所用到的就是環(huán)視攝像機(jī)。
安裝于車輛前方、車輛左右后視鏡下和車輛后方的四個魚眼鏡頭采集圖像,采集到的圖像與下圖類似。魚眼攝像機(jī)為了獲取足夠大的視野,代價是圖像的畸變嚴(yán)重。
通過標(biāo)定值,進(jìn)行圖像的投影變換,可將圖像還原成俯視圖的樣子。之后對四個方向的圖像進(jìn)行拼接,再在四幅圖像的中間放上一張車的俯視圖,即可實(shí)現(xiàn)從車頂往下看的效果。如下圖。
環(huán)視攝像機(jī)的感知范圍并不大,主要用于車身5~10米內(nèi)的障礙物檢測、自主泊車時的庫位線識別等。
攝像機(jī)的功能
攝像機(jī)在無人車上的應(yīng)用,主要有兩大類功能。分別是感知能力,其次是定位能力。
感知能力
在無人駕駛領(lǐng)域,攝像機(jī)的主要功能是實(shí)現(xiàn)各種環(huán)境信息的感知。接下來我會以Mobileye(一家國際上公認(rèn)做視覺牛的公司)為例介紹攝像機(jī)能夠?qū)崿F(xiàn)的功能。先看兩張圖,視頻可以參看該網(wǎng)址:https://www.bilibili.com/video/av15816802。
可以看出攝像機(jī)可以提供的感知能力有:
①車道線(lane)
圖中的深綠色線。車道線是攝像機(jī)能夠感知的基本的信息,擁有車道線檢測功能即可實(shí)現(xiàn)高速公路的車道保持功能。
②障礙物(Obstacle)
圖中使用矩形框框中的物體。圖中僅有汽車、行人和自行車等物體。其實(shí)障礙物的種類可以更豐富,比如摩托車、卡車,甚至動物都是可以檢測到的。有了障礙物信息,無人車即可完成車道內(nèi)的跟車行駛。
③交通標(biāo)志牌和地面標(biāo)志(Traffic Sign and Road Sign)
圖中使用綠色或紅色矩形框框出的物體。這些感知信息更多的是作為道路特征與高精度地圖做匹配后,輔助定位。當(dāng)然也可以基于這些感知結(jié)果進(jìn)行地圖的更新。
④可通行空間(FreeSpace)
圖中使用透明綠的覆蓋的區(qū)域。該區(qū)域表示無人車可以正常行使的區(qū)域??赏ㄐ锌臻g可以讓車輛不再局限于車道內(nèi)行駛,實(shí)現(xiàn)更多跨車道的超車功能等,把車開的更像老司機(jī)。
⑤交通信號燈(Traffic Light)
圖中使用綠框框出來的物體。交通信號燈狀態(tài)的感知能力對于城區(qū)行駛的無人駕駛汽車十分重要,這也是為什么百度Apollo 2.0實(shí)現(xiàn)“簡單路況自動駕駛”所必須開放的功能。
定位能力
相信大家都對視覺SLAM技術(shù)都有所耳聞,根據(jù)提前建好的地圖和實(shí)時的感知結(jié)果做匹配,獲取當(dāng)前無人車的位置。視覺SLAM需要解決的大問題在于地圖的容量過大,稍微大一點(diǎn)的區(qū)域,就對硬盤的容量要求很高。如何制作出足夠輕量化的地圖,成為SLAM技術(shù)商業(yè)化的關(guān)鍵。
Mobileye在已實(shí)現(xiàn)的道路經(jīng)驗(yàn)管理(Road Experience Management,REM)功能,能夠?qū)崿F(xiàn)復(fù)雜路況的全局定位能力??磦€視頻感受一下。
下一篇: 從系統(tǒng)架構(gòu)看特斯拉的成功之道