行人檢測作為計(jì)算機(jī)視覺領(lǐng)域最基本的主題之一,多年來被廣泛研究。盡管最先進(jìn)的行人檢測器已在無遮擋行人上取得了超過 90% 的準(zhǔn)確率,但在嚴(yán)重遮擋行人檢測上依然無法達(dá)到滿意的效果。究其根源,主要存在以下兩個(gè)難點(diǎn):
嚴(yán)重遮擋的行人框大部分為背景,檢測器難以將其與背景類別區(qū)分;
給定一個(gè)遮擋行人框,檢測器無法得到可見區(qū)域的信息;
Tube Feature Aggregation Network(TFAN)新方法,即利用時(shí)序信息來輔助當(dāng)前幀的遮擋行人檢測,目前該方法已在 Caltech 和 NightOwls 兩個(gè)數(shù)據(jù)集取得了業(yè)界領(lǐng)先的準(zhǔn)確率。
核心思路
利用時(shí)序信息輔助當(dāng)前幀遮擋行人檢測
目前大部分行人檢測工作都集中于靜態(tài)圖像檢測,但在實(shí)際車路環(huán)境中大部分目標(biāo)都處于運(yùn)動(dòng)狀態(tài)。針對嚴(yán)重遮擋行人的復(fù)雜場景,單幀圖像難以提供足夠有效的信息。為了優(yōu)化遮擋場景下行人的識別,地平線團(tuán)隊(duì)提出通過相鄰幀尋找無遮擋或少遮擋目標(biāo),對當(dāng)前圖像中的遮擋行人識別進(jìn)行輔助檢測。
實(shí)驗(yàn)新方法
Proposal tube 解決嚴(yán)重遮擋行人檢測
如下圖,給定一個(gè)視頻序列,首先對每幀圖像提取特征并使用 RPN(Region Proposal Network)網(wǎng)絡(luò)生成 proposal 框。從當(dāng)前幀的某個(gè) proposal 框出發(fā),依次在相鄰幀的空間鄰域內(nèi)尋找最相似的proposal框并連接成 proposal tube。
姚霆指出,當(dāng)前的多模態(tài)技術(shù)還是屬于狹隘的單任務(wù)學(xué)習(xí),整個(gè)訓(xùn)練和測試的過程都是在封閉和靜態(tài)的環(huán)境下進(jìn)行,這就和真實(shí)世界中開放動(dòng)態(tài)的應(yīng)用場景存在一定的差異性
優(yōu)酷智能檔突破“傳統(tǒng)自適應(yīng)碼率算法”的局限,解決視頻觀看體驗(yàn)中高清和流暢的矛盾
通過使用仿真和量化指標(biāo),使基準(zhǔn)測試能夠通用于許多操作領(lǐng)域,但又足夠具體,能夠提供系統(tǒng)的有關(guān)信息
基于內(nèi)容圖譜結(jié)構(gòu)化特征與索引更新平臺,在結(jié)構(gòu)化方面打破傳統(tǒng)的數(shù)倉建模方式,以知識化、業(yè)務(wù)化、服務(wù)化為視角進(jìn)行數(shù)據(jù)平臺化建設(shè),來沉淀內(nèi)容、行為、關(guān)系圖譜,目前在優(yōu)酷搜索、票票、大麥等場景開始進(jìn)行應(yīng)用
NVIDIA解決方案架構(gòu)師王閃閃講解了BERT模型原理及其成就,NVIDIA開發(fā)的Megatron-BERT
自然語言處理技術(shù)的應(yīng)用和研究領(lǐng)域發(fā)生了許多有意義的標(biāo)志性事件,技術(shù)進(jìn)展方面主要體現(xiàn)在預(yù)訓(xùn)練語言模型、跨語言 NLP/無監(jiān)督機(jī)器翻譯、知識圖譜發(fā)展 + 對話技術(shù)融合、智能人機(jī)交互、平臺廠商整合AI產(chǎn)品線
下一個(gè)十年,智能人機(jī)交互、多模態(tài)融合、結(jié)合領(lǐng)域需求的 NLP 解決方案建設(shè)、知識圖譜結(jié)合落地場景等將會(huì)有突破性變化
中國移動(dòng)聯(lián)合產(chǎn)業(yè)合作伙伴發(fā)布《室內(nèi)定位白皮書》,對室內(nèi)定位產(chǎn)業(yè)發(fā)展現(xiàn)狀及面臨的挑戰(zhàn),深入分析了垂直行業(yè)的室內(nèi)定位需求,并詳細(xì)闡述了實(shí)現(xiàn)室內(nèi)定位的技術(shù)原理, 及室內(nèi)定位評測體系
機(jī)器人、無人機(jī)、自動(dòng)駕駛汽車等加快落地,智慧城市深入建設(shè),更是為傳感器產(chǎn)業(yè)帶來了難以估量的龐大機(jī)遇
Cosero是德國波恩大學(xué)的Sven Behnke團(tuán)隊(duì)根據(jù)家庭環(huán)境中的日常操作任務(wù)而研制的一款仿人操作機(jī)器人基于深度學(xué)習(xí)方法的目標(biāo)姿態(tài)估計(jì)和RGB-D SLAM等感知測量
機(jī)器人的學(xué)習(xí)分為三個(gè)部分的軌跡預(yù)測包括示教者的手部運(yùn)動(dòng)軌跡、示教者的身體移動(dòng)軌跡以及被操作物體的運(yùn)動(dòng)軌跡
通過2D激光雷達(dá)信息采用Hector SLAM實(shí)現(xiàn)機(jī)器人對地圖的感知和自主導(dǎo)航規(guī)劃,通過頂部的RGB-D相機(jī)采集目標(biāo)物體深度和RGB圖像信息