這兩天看到了自動駕駛的幾條相關(guān)新聞,蠻有趣的,在這里分享給大家。
第一條是2018.7.4-2018.7.5百度召開的AI開發(fā)者大會,大會上百度創(chuàng)始人李彥宏宣布一款名叫“阿波龍”的無人駕駛巴士(LV4)正式量產(chǎn)。同時展示了百度無人車在惡劣環(huán)境下的優(yōu)越性能,大家可以自行觀看。
“阿波龍”已經(jīng)生產(chǎn)下線100輛其商業(yè)化落地也同步展開。廈門金龍表示,已經(jīng)完成總裝的阿波龍,即將發(fā)往北京、雄安、深圳、平潭、日本東京等地開展商業(yè)化運(yùn)營?!鞍⒉垺贝钶d百度最新Apollo系統(tǒng),擁有高精定位、智能感知、智能控制三大能力?!鞍⒉垺睙o人駕駛汽車沒有配置方向盤和駕駛位,它將實(shí)現(xiàn)自動完成變道和轉(zhuǎn)彎等操作。今年4月在福建平潭無人駕駛汽車測試基地完成路面測試,并被授予牌照。

第二條是北京開放自動駕駛車輛路測道路 105 公里
從北京市自動駕駛第三方服務(wù)機(jī)構(gòu)獲悉,北京市已經(jīng)開放 33 條共 105 公里自動駕駛車輛路測道路,截至現(xiàn)在,自動駕駛車輛已安全行駛 26000 公里。
北京市智能車聯(lián)產(chǎn)業(yè)創(chuàng)新中心工作人員介紹,截至 6 月 28 日,五家公司獲得了北京市自動駕駛車輛道路測試資格。昨日,無人駕駛初創(chuàng)企業(yè)小馬智行宣布,拿到北京市政府頒發(fā)的自動駕駛車輛路測牌照,并且拿到的是目前北京路測牌照的最高級別 T3 級。(via 北京青年報(bào))
關(guān)于小馬公司,感興趣的讀者可以查查,我個人最看好的自動駕駛創(chuàng)業(yè)公司(雖然簡歷悲劇,嗚嗚嗚)。

好了,回歸正題,新聞看完了還要繼續(xù)學(xué)習(xí),畢竟在自動駕駛領(lǐng)域“We have finished 90% of the work,but we still have 90% to do ”。
今天閱讀論文的題目是“Training Deep Networks with Synthetic Data: Bridging the Reality Gap by Domain Randomization”,來自英偉達(dá)和多倫多大學(xué)合作的一篇文章。
通過題目可以知道本篇論文的出發(fā)點(diǎn)是使用生成數(shù)據(jù)來訓(xùn)練深度網(wǎng)絡(luò),以達(dá)到降低或者省去人工采集標(biāo)注數(shù)據(jù)的高昂代價。
采集現(xiàn)實(shí)世界的數(shù)據(jù)集不光具有采集費(fèi)時費(fèi)力的缺點(diǎn),還具有數(shù)據(jù)內(nèi)容不夠豐富的弊端(例如自動駕駛場景中的背景變化、車輛型號、顏色、天氣變化等),在由數(shù)據(jù)驅(qū)動的神經(jīng)網(wǎng)絡(luò)大放異彩的今天,數(shù)據(jù)集不夠豐富將成為神經(jīng)網(wǎng)絡(luò)效果泛化性能差強(qiáng)人意的主要原因。因此,如何低成本的獲取高質(zhì)量的數(shù)據(jù)集就成為了一個亟待解決的問題。
目前主要采用的數(shù)據(jù)生成方法主要使用幾何仿真(graphic simulator)的方法,但該方法要求模型搭建人員自行設(shè)計(jì)場景細(xì)節(jié),也會極大的消耗人力。因此文章作者提出了一種叫做隨機(jī)域匹配(domain randomization DR)的技術(shù),使用虛擬引擎自動生成豐富多變的場景圖片。由于英偉達(dá)也在自動駕駛領(lǐng)域下了重注,因此該技術(shù)也是主要應(yīng)用于駕駛場景的生成,使用該技術(shù)主要有三個方面的恭獻(xiàn):
1.生成的數(shù)據(jù)集可以用于像復(fù)雜場景下的目標(biāo)檢測等訓(xùn)練任務(wù)當(dāng)中。
2.介紹了一種DR的新技術(shù)flying distractors(不會翻譯),可以提升檢測和估計(jì)的準(zhǔn)確性。
3.可以通過改變生成圖片的不同參數(shù)來判斷圖片中不同組成部分對訓(xùn)練網(wǎng)絡(luò)的重要程度。
全篇論文沒有一個公式,因此簡單易懂,大家看圖就明白了:

在生成數(shù)據(jù)集時,主要控制以下幾個變量,這在現(xiàn)實(shí)世界中是很難做到的:
1.目標(biāo)數(shù)量和類型(本文中一張圖片內(nèi)車輛數(shù)量和型號)
2.干擾物體的顏色、類型、數(shù)量、大小等(本文中圖片中的行人、樹等)
3.目標(biāo)和背景的紋理變化
4.攝像機(jī)視場角變化
5.攝像機(jī)位置變化
6.光照變化(強(qiáng)度以及照射方向)
7.場景能見度
作者使用虛擬引擎(UE4)每秒可以生成30張大小為1200*400的圖片,并且場景變化極為豐富,相比于真實(shí)世界的采集成本,虛擬數(shù)據(jù)集的成本幾乎可以忽略不計(jì),因此該方法對提升自動駕駛的魯棒性能具有很大的意義,也可能是拆掉大公司數(shù)據(jù)壟斷鐵絲網(wǎng)的有效手段。
關(guān)于實(shí)驗(yàn)部分,作者生成類似于KITTI的虛擬數(shù)據(jù)集用于訓(xùn)練物體檢測網(wǎng)絡(luò)(Faster R-CNN、R-FCN、SSD三個網(wǎng)絡(luò)),并用真實(shí)的KITTI數(shù)據(jù)集作為測試集,并取得了很好的效果。


上圖可見,生成數(shù)據(jù)集可以隨意配置數(shù)據(jù)分布,這在現(xiàn)實(shí)世界中是無法實(shí)現(xiàn)的。

我個人是很喜歡這篇文章的,因?yàn)橛行?shù)據(jù)集(例如醫(yī)療圖像數(shù)據(jù)集)的獲取成本十分高昂,如果該技術(shù)成熟的話將會把數(shù)據(jù)集的采集成本將為近乎于零,對各領(lǐng)域加速發(fā)展人工智能都有極大的幫助。
最后,祝好!愿與諸君一起進(jìn)步。