展會信息港展會大全

CVPR最佳論文頒給自動駕駛大模型!中國團(tuán)隊(duì)第一單位
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-22 20:27:14   瀏覽:8390次  

導(dǎo)讀:金磊 假裝發(fā)自 溫哥華 量子位 | 公眾號 QbitAI 這個(gè)高光時(shí)刻,屬于 自動駕駛 ,屬于 大模型 ,更是屬于 中國團(tuán)隊(duì) 。 就在剛剛, CVPR 2023最佳論文 新鮮出爐,2篇論文從總量高達(dá)9155篇的投稿中脫穎而出。 對于這2篇最佳論文中的任何一個(gè),可以說用萬里挑一來...

金磊 假裝發(fā)自 溫哥華

量子位 | 公眾號 QbitAI

這個(gè)高光時(shí)刻,屬于自動駕駛,屬于大模型,更是屬于中國團(tuán)隊(duì)

就在剛剛,CVPR 2023最佳論文新鮮出爐,2篇論文從總量高達(dá)9155篇的投稿中脫穎而出。

對于這2篇最佳論文中的任何一個(gè),可以說用“萬里挑一”來形容都不足為過了。

第一篇名為Planning-oriented Autonomous Driving(以路徑規(guī)劃為導(dǎo)向的自動駕駛),由上海人工智能實(shí)驗(yàn)室、武漢大學(xué)及商湯科技聯(lián)合完成。

據(jù)了解,這是近十年來,計(jì)算機(jī)視覺三大頂級國際會議(CVPR、ICCV、ECCV)上,第一篇以中國學(xué)術(shù)機(jī)構(gòu)作為第一單位的最佳論文。

第二篇名為Visual Programming: Compositional visual reasoning without training(視覺編程:未經(jīng)訓(xùn)練的組合視覺推理),由艾倫人工智能研究所發(fā)表。

而在最佳論文的“候選名單”中,不乏谷歌、斯坦福大學(xué)、康奈爾大學(xué)等在內(nèi)的頂尖企業(yè)和高校。

競爭之激烈,可見一斑。

那么這兩篇為何能在眾多論文中成為佼佼者,我們繼續(xù)往下看。

首次提出感知決策一體的自動駕駛通用大模型

自動駕駛歷來被人們稱為集AI技術(shù)之大成者。

一般在自動駕駛?cè)蝿?wù)中,通常包含三大模塊,分別是感知、預(yù)測和規(guī)劃,不過主流方案通常是分開來處理具體任務(wù)。

由此導(dǎo)致的缺陷也是比較明顯,要么是任務(wù)之間協(xié)調(diào)不足,要么是影響到了整體性能的提升。

基于這樣的一個(gè)背景,這篇論文便首次提出了感知決策一體化的自動駕駛通用大模型UniAD。

UniAD是一個(gè)綜合框架,將全棧駕駛?cè)蝿?wù)整合到一個(gè)基于Transformer的端到端網(wǎng)絡(luò)中。

除了我們剛才提到的三個(gè)主任務(wù)之外,還包括六個(gè)子任務(wù),包括目標(biāo)檢測、目標(biāo)跟蹤、場景建圖、軌跡預(yù)測、柵格預(yù)測和路徑規(guī)劃。

那么如此“大一統(tǒng)”的方式之下,結(jié)果又如何?

根據(jù)論文顯示,在nuScenes真實(shí)場景數(shù)據(jù)集中,UniAD的所有任務(wù)均達(dá)到SOTA!

具體“實(shí)戰(zhàn)”效果如下:

在面對采訪時(shí),上海人工智能實(shí)驗(yàn)室青年科學(xué)家李弘揚(yáng)介紹:

憑借其充分的可解釋性、安全性、與多模塊的可持續(xù)迭代性,UniAD是目前為止最具希望實(shí)際部署的端到端模型。

值得一提的是,除了這篇最佳論文之外,上海人工智能實(shí)驗(yàn)室和商湯科技在本屆CVPR中均取得了不凡的表現(xiàn)。

兩個(gè)單位還聯(lián)合斬獲了一篇最佳論文候選,共計(jì)54篇論文被接收。

通過編寫代碼解決計(jì)算機(jī)視覺任務(wù)的AI

在第二篇論文中,研究人員提出了VISPROG,是一種神經(jīng)符號結(jié)合(Neuro-Symbolic)的方法,用于在給定自然語言指令的情況下解決復(fù)雜和組合的視覺任務(wù)。

VISPROG無需對任何特定任務(wù)進(jìn)行專門訓(xùn)練。

相反,它利用大語言模型的上下文學(xué)習(xí)能力,生成類似Python代碼的模塊化程序,然后執(zhí)行這些程序來獲得解決方案和全面且可解釋的理由。

生成的程序的每一行可能會調(diào)用多個(gè)現(xiàn)成的計(jì)算機(jī)視覺模型、圖像處理程序或Python函數(shù),來生成可能被程序的后續(xù)部分使用的中間輸出。

研究人員在四個(gè)不同的任務(wù)上展示了VISPROG的靈活性,包括組合視覺問答、對圖像對進(jìn)行零樣本推理、事實(shí)知識對象標(biāo)簽和以語言引導(dǎo)的圖像編輯。

研究人員表示:

像VISPROG這樣的神經(jīng)符號方法是令人興奮的,它可以輕松有效地對AI系統(tǒng)做擴(kuò)展,滿足人們可能希望執(zhí)行的復(fù)雜任務(wù)需求。

CVPR 2023其它獎項(xiàng)一覽

除了2篇最佳論文之外,其它獎項(xiàng)也在剛剛的開幕式中逐一浮出水面。

最佳學(xué)生論文

3D Registration with Maximal Cliques。

這篇論文的作者來自西北工業(yè)大學(xué),提出了一種新的3D點(diǎn)云配準(zhǔn)方法,能夠獲得最優(yōu)的姿態(tài)假設(shè)。

最佳學(xué)生論文榮譽(yù)獎

DreamBooth: Fine Tuning Text-to-lmage Diffusion Models for Subject-Driven Generation。

來自谷歌,可以基于少量的圖片,利用text-to-image模型將其轉(zhuǎn)換到不同場景中,并且保持高分辨率。

這篇論文的方法已在AI繪畫社區(qū)被廣泛使用。

除此之外,大會還頒發(fā)了PAMITC獎,包括Longuet-Higgins獎、年輕研究者獎以及Thomas Huang紀(jì)念獎。

Longuet-Higgins獎

年輕研究者獎

Thomas Huang紀(jì)念獎

關(guān)于本屆最佳論文更細(xì)致的內(nèi)容,可戳下方鏈接查看詳情:

兩篇最佳論文地址:

[1]https://arxiv.org/abs/2212.10156

[2]https://arxiv.org/abs/2211.11559

參考鏈接:

[1]https://twitter.com/cvpr/status/1671545306838626306?s=46&t=iTysI4vQLQqCNJjSmBODPw

[2]https://mp.weixin.qq.com/s/8svV4yxRi6TikcRivgHr_A

[3]https://finance.eastmoney.com/a/202306212759316444.html

[4]https://github.com/OpenDriveLab/UniAD

[5]https://blog.allenai.org/visual-programming-ca58c7af51cd

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港