2月24日,全球首個(gè)基于真實(shí)場(chǎng)景的車(chē)路協(xié)同自動(dòng)駕駛數據集DAIR-V2X正式發(fā)布,向境內用戶(hù)提供下載使用。
該數據集由清華大學(xué)智能產(chǎn)業(yè)研究院(AIR)聯(lián)合北京市高級別自動(dòng)駕駛示范區、北京車(chē)網(wǎng)科技發(fā)展有限公司、百度Apollo、北京智源人工智能研究院共同發(fā)布。
此次發(fā)布的數據集,首次實(shí)現在相同時(shí)空下,車(chē)端與路端聯(lián)合視角的2D、3D標注方法創(chuàng )新,作為業(yè)界、學(xué)界首個(gè)開(kāi)源車(chē)路協(xié)同數據集,旨在服務(wù)科研、產(chǎn)業(yè)、政府機構,協(xié)同各方進(jìn)行車(chē)路協(xié)同的學(xué)術(shù)研究和產(chǎn)業(yè)落地,促進(jìn)我國車(chē)路協(xié)同發(fā)展。
此次發(fā)布的數據集來(lái)自北京市高級別自動(dòng)駕駛示范區10公里真實(shí)城市道路、10公里高速公路以及28個(gè)路口范圍,包含來(lái)自車(chē)端、路端相機和車(chē)端、路端激光雷達等多類(lèi)型傳感器的71254幀圖像數據和71254幀點(diǎn)云數據,涵蓋晴天、雨天、霧天、白天和夜晚、城市道路與高速公路等豐富場(chǎng)景。
與僅包含單車(chē)端或單路端的數據集相比,該數據集提供了相同時(shí)空下車(chē)端與路端聯(lián)合視角的多模態(tài)數據,并提供了不同傳感器聯(lián)合視角下的融合標注結果,用于更好地服務(wù)車(chē)路協(xié)同算法研究和評估。
此外,數據集通過(guò)半自動(dòng)自學(xué)習車(chē)路協(xié)同3D融合標注方法等創(chuàng )新,有效地減少了數據集構建成本。
北京經(jīng)濟技術(shù)開(kāi)發(fā)區管委會(huì )副主任、北京市高級別自動(dòng)駕駛示范區工作辦公室主任孔磊在發(fā)布活動(dòng)上表示:“未來(lái)將及時(shí)利用數據轉化制定一批車(chē)路協(xié)同數據標準,推動(dòng)行業(yè)數據要素、接口、格式等標準統一,為示范區建設和行業(yè)發(fā)展提供參考和指導;通過(guò)數據開(kāi)放,為高校和科研機構提供基礎數據,為企業(yè)產(chǎn)品研發(fā)測試提供支持,有效加速產(chǎn)學(xué)研用協(xié)同,同時(shí)繼續開(kāi)展數據開(kāi)放和共享服務(wù)模式探索,推動(dòng)數字經(jīng)濟發(fā)展?!?/span>
他還指出,本次數據集的發(fā)布,為業(yè)界學(xué)界帶來(lái)海量、多模態(tài)、多視角的真實(shí)場(chǎng)景數據,對數據進(jìn)行標注、脫敏和安全加密等處理后發(fā)布,將促進(jìn)學(xué)術(shù)界和產(chǎn)業(yè)界共同推進(jìn)數據驅動(dòng)的車(chē)路協(xié)同自動(dòng)駕駛。
百度副總裁、智能交通事業(yè)部總經(jīng)理尚國斌在發(fā)言中表示:“數據是自動(dòng)駕駛、車(chē)路協(xié)同和智能交通等領(lǐng)域取得突破發(fā)展的原動(dòng)力。數據的有效積累,不僅可以對同等級的算法、算力條件下的效果做質(zhì)的提升,還可以自動(dòng)化地識別難題、解決難題,形成人工智能‘見(jiàn)多識廣、越用越聰明’的正向循環(huán)?!?/span>
百度作為車(chē)路協(xié)同數據集建設的技術(shù)支持方,將持續致力于建設完善的車(chē)路協(xié)同生態(tài),后續將逐步支持發(fā)布便于用戶(hù)上手和基準復現的相關(guān)工具和代碼,并開(kāi)展數據集相關(guān)使用培訓,以支持學(xué)術(shù)界開(kāi)展車(chē)路協(xié)同相關(guān)研究。