2019年3月,宇視科技(uniview)計算機視覺與深度學習算法在Multiple Object Tracking (MOT) Challenge全球競賽刷新最好成績,在MOT最新的數(shù)據(jù)集MOT17Det中,將交通場景目標檢測的AP提高至0.89X,呈現(xiàn)最高識別準確率與最低誤報率,以第一名打破騰訊優(yōu)圖、商湯等AI算法名企創(chuàng)下的記錄。
MOT Challenge是國際多目標檢測跟蹤領(lǐng)域最權(quán)威的測評平臺,評測多行人對象在復(fù)雜場景下進行同時檢測及跟蹤的算法性能。MOT競賽每年舉辦,是世界各大AI研究機構(gòu)、企業(yè)、高校角逐之地,MOT17Det采集自不同場景和多個拍攝角度下的素材,覆蓋各種復(fù)雜情況、待檢測目標,涉及欠曝和過曝場景、微小目標、目標被大量遮擋等。打榜的宇視算法AdaptNet 1.2版本,主要改進點為:
-在已有的深度神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,融合了多尺度深度特征,提升對微小目標的表達能力。
-提出了一種新的基于最大類間距的損失函數(shù),可以提升目標遮擋情況下的檢測精度。
-采用一種新的注意力機制,進一步提升過曝和欠曝等難檢目標的檢出率。
專攻人工智能科目的宇視研發(fā)副總裁謝會斌表示:“本次取得排名世界第一,驗證了我們AdaptNet網(wǎng)絡(luò)模型的有效。宇視內(nèi)部AI算法各團隊代號以貓科動物命名,此次打榜的是‘陸虎’小組。2017年,宇視在KITTI評測中獲得世界第一,側(cè)重的是車道檢測。優(yōu)秀算法模型的產(chǎn)生,不僅是在實驗室中的研究氛圍和論文產(chǎn)出、集群算力投入,宇視引以為豪的還有在實戰(zhàn)部署的項目中檢驗迭代。”
2019年以來,AdaptNet已運用于宇視前后端AI系列產(chǎn)品,如『天目』卡口/電警、『函谷』人臉/人體抓拍機、行業(yè)款『昆侖』數(shù)據(jù)結(jié)構(gòu)化服務(wù)器等。安防+AI大規(guī)模部署,宇視將傳統(tǒng)AI三要素演進為六要素:算法、算力、數(shù)據(jù),產(chǎn)品、工程、方案,從IMOS操作系統(tǒng)到六山兩關(guān),實現(xiàn)了全系列AI產(chǎn)品在雪亮、平安、交通、企業(yè)、教育、金融等多場景的落地,以實戰(zhàn)成果守護安全美好生活。