近日,全球計算機視覺頂會CVPR 2020首次召開線上大會,百度不僅入選22篇接收論文,一舉拿下8項挑戰(zhàn)賽冠軍,涵蓋視頻動作分析、動作識別、圖像增強、智慧城市等多個領(lǐng)域,還主辦了2場重量級學(xué)術(shù)Workshop,在國際舞臺盡顯中國AI硬實力。這不僅從側(cè)面反映了百度傾斜AI「新基建」的策略已有成效,也再次讓中國自有的深度學(xué)習(xí)平臺飛槳閃耀全球。更多信息請參見百度CVPR2020線上主頁:http://cvpr20.com/sponsor/beijing-baidu/。

國際計算機視覺和模式識別大會(CVPR)一直有計算機視覺領(lǐng)域的「奧斯卡」之稱,憑借著嚴苛的論文錄取標準,躋身全球AI頂會之流。實際上,CVPR是全球參與者檢驗自身AI「基本功」的試金石。受到全球疫情影響,CVPR 2020改為6月14-19日舉行線上大會;讓人喜出望外的是,華人學(xué)者及團隊大放異彩,組成「中國軍團」向全球展示AI實力。
作為「中國AI頭雁」,百度已多年連續(xù)出征CVPR,驕人成績一如既往。CVPR2020上,大會論文錄取率僅有22%,百度入選22篇論文,較上年增加5篇;在視頻動作分析、動作識別、圖像增強、智慧城市等挑戰(zhàn)賽中,百度與全球科技巨頭同臺競技,斬獲8項世界冠軍,站上計算機視覺「頂流」之席;同時,百度還舉辦2場高水準Workshop,并有多篇Workshop論文被接收。
百度不僅通過多種形式深度參與CVPR 2020,也積極為推動行業(yè)技術(shù)發(fā)展做貢獻。在全球經(jīng)濟發(fā)展重心逐漸偏移智能經(jīng)濟,中國聚焦AI「新基建」時,百度已準備充分。在CVPR 2020上,百度正在依托包括百度大腦、飛槳等新型AI技術(shù)基礎(chǔ)設(shè)施,獲得不俗成績;此后也將秉持開源、共贏原則,為中國AI行業(yè)輸出「車輪」,推動AI「新基建」發(fā)展。接下來回到AI競賽的試煉場,看看百度的AI「基本功」。
百度斬獲8項競賽奪冠 大秀中國AI水平
CVPR2020覆蓋計算機視覺眾多熱門子領(lǐng)域,其中,百度參與并奪冠多個領(lǐng)域的挑戰(zhàn)賽:
1、 視頻動作分析挑戰(zhàn)賽,專注于提升視頻標注效率;
2、 動作識別挑戰(zhàn)賽,技術(shù)成果可廣泛用于可穿戴設(shè)備和智能家居;
3、 圖像增強挑戰(zhàn)賽,可有效提高視頻質(zhì)量;
4、 智慧城市挑戰(zhàn)賽,可有效優(yōu)化現(xiàn)有城市交通管理,提升管理效率,推動智能化進程。
百度奪冠的具體挑戰(zhàn)賽及其賽道如下圖所示,共計奪冠8項冠軍。

百度勇奪CVPR2020挑戰(zhàn)賽8項世界冠軍
ActivityNet2020挑戰(zhàn)賽
ActivityNet挑戰(zhàn)賽是視頻理解領(lǐng)域最具影響力賽事,其中的時序動作定位賽道(弱監(jiān)督)(HACS temporal action localization —Track2: weakly supervised)主要考驗參賽者能否通過弱標簽、弱監(jiān)督方式有效提升現(xiàn)有視頻動作檢測算法的效率。百度最終擊敗其余參賽隊伍,以mAP39.29的得分位居第一。

百度拿下ActivityNet2020挑戰(zhàn)賽時序動作定位賽道冠軍
這項比賽中,百度通過自研BMN模型對視頻序列提取候選框,并結(jié)合弱標簽訓(xùn)練數(shù)據(jù),提出級聯(lián)金字塔注意力網(wǎng)絡(luò)進行打標簽動作,兩者結(jié)合最終獲取片段定位及動作標簽。該技術(shù)對高效的視頻數(shù)據(jù)使用具有指導(dǎo)意義,可應(yīng)用于視頻Highlight檢測、精彩集錦等多個場景。
EPIC-Kitchens2020挑戰(zhàn)賽
EPIC-Kitchens2020挑戰(zhàn)賽聚焦于第一人稱視頻理解,其技術(shù)可廣泛應(yīng)用于可穿戴設(shè)備、智能家居、人機交互等方面。在這次挑戰(zhàn)賽的動作識別(Action Recognition)賽道中,百度打敗三星劍橋AI研究院、牛津大學(xué)、佐治亞理工大學(xué)等40+支隊伍,最終在Seen kitchens和Unseen kitchens兩項測試集上均以第一名的成績摘獲冠軍。

百度拿下EPIC-Kitchens2020挑戰(zhàn)賽動作識別賽道冠軍
針對比賽中第一人稱視頻小物體多、相機運動模糊嚴重等難點,百度提出共生注意力機制和以物體為中心的對齊模塊,大幅提升3D卷積網(wǎng)絡(luò)的性能。該方法可在多種視頻Backbone和輸入模態(tài)下取得一致的性能提升。
NTIRE2020挑戰(zhàn)賽
NTIRE(New Trends in Image Restoration and Enhancement)是近年來計算機圖像修復(fù)領(lǐng)域最具影響力的一場賽事,每年都會吸引大量的關(guān)注者和參賽者。百度積極參與NTIRE2020挑戰(zhàn)賽,并在2項賽道上拿下冠軍:
1、 真實圖像降噪賽道(Real Image Denoising rawRGB Track)
2、 視頻質(zhì)量映射賽道(Video Quality Mapping—Track1: Supervised)
真實圖像降噪賽道
圖像降噪作為計算機視覺熱門領(lǐng)域,在視頻監(jiān)控、無人駕駛、移動可穿戴設(shè)備、遙感及醫(yī)學(xué)圖像分析等領(lǐng)域應(yīng)用廣泛。對于NTIRE2020挑戰(zhàn)賽的真實圖像降噪賽道(Real Image Denoising rawRGB Track),其首要目標是去除或糾正圖像上的噪聲信息,百度最終以第一的成績達成目標,奪得冠軍。

百度拿下NTIRE2020挑戰(zhàn)賽真實圖像降噪賽道冠軍
針對該項競賽,百度設(shè)計了多跳躍連接的密集殘差模塊學(xué)習(xí)不同分辨率下的特征表達,并通過創(chuàng)新性mosaic-stride模塊提升rawRGB的降噪能力,同時使用分布式SA-NAS搜索最優(yōu)的模型結(jié)構(gòu);其中,SA-NAS搜索方法是百度首次把NAS技術(shù)應(yīng)用于圖像降噪領(lǐng)域。
視頻質(zhì)量映射賽道
視頻質(zhì)量映射賽道(Video Quality Mapping—Track1: Supervised)關(guān)注于圖片視頻底層視覺技術(shù)的關(guān)鍵問題。這一技術(shù)可有效提高視頻質(zhì)量,提升用戶觀看體驗。百度憑借過硬的視覺技術(shù)和經(jīng)驗積累,取得了該賽道的冠軍成績。

百度拿下NTIRE2020挑戰(zhàn)賽視頻質(zhì)量映射賽道冠軍
針對該賽道的問題,百度通過把現(xiàn)有EDVR模型思路與CNN網(wǎng)絡(luò)結(jié)構(gòu)DenseNet相結(jié)合,利用DenseNet提取視頻的圖片特征,融合CNN淺層與深層特征,從而實現(xiàn)更強的表達能力;EDVR模型則完成了視頻幀之間信息交換,對齊幀間信息,實現(xiàn)信息共享與互補。
AI CITY2020挑戰(zhàn)賽
AI CITY2020挑戰(zhàn)賽由英偉達、亞馬遜、馬里蘭大學(xué)等主辦,主要集中在交通相關(guān)的車輛跟蹤、再識別、異常事件分析等應(yīng)用場景。AI CITY智慧城市挑戰(zhàn)賽的4項比賽中,全球共有315支隊伍參加,其中不乏阿里、滴滴、松下、卡內(nèi)基梅隆大學(xué)等一流科技巨頭和高校。百度共參戰(zhàn)3項競賽,最終技壓群雄,全部取得了冠軍成績:
1、 車流統(tǒng)計(Track 1:Multi-Class Multi-Movement Vehicle Counting)
2、 車輛再識別(Track 2:City-Scale Multi-Camera Vehicle Re-Identification)
3、異常事件檢測(Track 4:Traffic Anomaly Detection)

百度勇奪AI CITY挑戰(zhàn)賽三項冠軍
車流統(tǒng)計賽道
在車流統(tǒng)計賽道中,參賽者需要解決車輛遮擋、復(fù)雜天氣下的視覺差異等問題。百度提出“檢測-跟蹤-計數(shù)”結(jié)合的車流統(tǒng)計算法流程,有效解決了檢測框丟失和ID翻轉(zhuǎn)問題。在車流統(tǒng)計環(huán)節(jié),提出基于數(shù)據(jù)驅(qū)動的軌跡匹配分類算法使統(tǒng)計結(jié)果更準確。
百度從運算用時、運算速度等維度均位列第一,奪得該賽道冠軍。而這一套算法模型,則離不開百度在城市交通大腦方面的數(shù)據(jù)積累和洞察,在保定市百度AI交管大腦項目中,智慧信控系統(tǒng)有效提升了交通效率的20%-30%。
車輛重識別賽道
車輛重識別旨在確認智能交通系統(tǒng)中的車輛身份,在城市安全場景中發(fā)揮著不可替代的作用。該賽道基于真實場景數(shù)據(jù),對參賽者提出監(jiān)控視角變化大、標注數(shù)據(jù)少等挑戰(zhàn)。百度憑借智慧城市領(lǐng)域的技術(shù)優(yōu)勢,以明顯優(yōu)勢甩開41支參賽隊,最終以mAP 84.13%的成績登臨首位。
為應(yīng)對任務(wù)挑戰(zhàn),百度設(shè)計了基于多任務(wù)多分支的網(wǎng)絡(luò)模型,并結(jié)合多源信息融合的重識別技術(shù)方案。在數(shù)據(jù)方面,使用風(fēng)格遷移、圖像內(nèi)容編輯、背景替代等多種方法生成合成數(shù)據(jù),以彌補訓(xùn)練數(shù)據(jù)不足的問題。
異常事件檢測賽道
異常事件檢測賽道主要考驗參賽者對交通場景的復(fù)雜性、交通流的密集混亂性、天氣和車輛大小的多樣性以及異常標注數(shù)據(jù)缺乏等問題的解決能力。此技術(shù)可以提前發(fā)現(xiàn)潛在的交通風(fēng)險、提前預(yù)警交通管理部門、提升交通風(fēng)險的處理能力和效率。百度在該賽道表現(xiàn)優(yōu)異,取得98.5%的F1成績,均方根誤差為4.8737,比賽成績排名第一。
針對此挑戰(zhàn)賽,百度通過模塊化的多粒度跟蹤方法,將跟蹤問題解耦成不同子問題,利用不同模塊來處理不同子任務(wù),同時將視頻進行正序和逆序分別建模,最后利用一種融合和回溯優(yōu)化方法,將多個子任務(wù)以及正序、逆序的模型進行融合得到最終異常事件的定位結(jié)果。
MOTS2020挑戰(zhàn)賽
MOTS (Multi-Object Tracking and Segmentation) 多目標跟蹤與實例分割挑戰(zhàn)賽由德國慕尼黑大學(xué)、德國亞琛工業(yè)大學(xué)、ETH聯(lián)合舉辦,是多目標跟蹤方向的權(quán)威競賽。該挑戰(zhàn)賽均是計算機視覺頂會CVPR的議程之一,可以直觀反映參賽者真實的應(yīng)用能力。百度最終憑借原創(chuàng)自研的領(lǐng)先技術(shù),拿下KITTI-MOTS賽道賽道冠軍

百度拿下KITTI-MOTS競賽冠軍
KITTI-MOTS賽道是自動駕駛權(quán)威數(shù)據(jù)集KITTI中多目標跟蹤任務(wù)的擴展,也是首個同時提供實例分割以及多目標跟蹤標注的公開數(shù)據(jù)集。在KITTI-MOTS競賽中,百度提出新型方法PointTrack++,在行人和車輛兩個類別中均取得冠軍。
具體而言,PointTrack++包括視頻實例分割、掩膜特征提取以及多目標關(guān)聯(lián)跟蹤等技術(shù),突破性地把3D點云分析融入2D MOTS任務(wù)之中,首次實現(xiàn)實時在線的MOTS算法,并在車輛場景測評指標上領(lǐng)先第二名3個百分點以上,實現(xiàn)SOTA結(jié)果。
百度舉辦2場高水準Workshop 推進學(xué)術(shù)交流

Learning from Imperfect Data (LID) Workshop主要討論如何在不完美數(shù)據(jù)標注的條件下,通過機器學(xué)習(xí)算法訓(xùn)練出高精度的視覺識別模型。百度作為LID Workshop組織者,參與設(shè)計了弱監(jiān)督物體分割、弱監(jiān)督場景解析、弱監(jiān)督物體定位三項競賽(Track)。值得一提的是,兩支冠軍隊伍提交了基于飛槳的代碼。
CVPR2020 workshop on Media Forensics由百度聯(lián)合舉辦,旨在發(fā)揮人臉防偽檢測保護人臉識別系統(tǒng)免受惡意攻擊的重要作用,并吸引來自學(xué)界/業(yè)界共340支參賽隊伍,最終有19支隊伍進入決賽并提交了模型與代碼。百度已經(jīng)連續(xù)兩次(2019和2020年)獨家贊助該競賽。
百度聚焦AI新基建 助攻各項技術(shù)登上國際舞臺
近年來,AI國際頂會上的中國聲音日益響亮,中國AI企業(yè)、開發(fā)者及高校紛紛在CVPR2020上交出滿意答卷。百度作為中國AI行業(yè)頭雁,更是通過舉辦AI國際頂會研討會,鼓勵開發(fā)者使用飛槳進行參賽和科研開發(fā),以更主動的姿態(tài)深入?yún)⑴c到全球AI行業(yè)的發(fā)展之中,代表中國AI行業(yè)「最強音」站上國際舞臺。
著眼全球科技競技,人工智能將成為全新「賽點」,AI「新基建」也成為中國經(jīng)濟發(fā)展的關(guān)鍵一環(huán)。百度已搭建起以百度大腦、飛槳、智能云等為代表的AI平臺,將進一步推動智能交通、智慧城市、智慧金融、智慧能源、智慧醫(yī)療、工業(yè)互聯(lián)網(wǎng)和智能制造等領(lǐng)域?qū)崿F(xiàn)產(chǎn)業(yè)智能化升級,成為中國乃至全球的AI創(chuàng)新者和推動者。
特別提醒:本網(wǎng)內(nèi)容轉(zhuǎn)載自其他媒體,目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關(guān)內(nèi)容。本站不承擔此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。如若本網(wǎng)有任何內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系我們,本站將會在24小時內(nèi)處理完畢。