圖:螞蟻數(shù)科國(guó)際算法負(fù)責(zé)人李建樹(shù)分享深度偽造定位數(shù)據(jù)集

由斯坦福大學(xué)、谷歌與加州大學(xué)伯克利分校聯(lián)合開(kāi)源的視頻數(shù)據(jù)集 DeepAction,包含7款大模型生成的2,600段人類(lèi)動(dòng)作視頻以及相匹配的真實(shí)鏡頭,這些視頻展示了行走、奔跑、烹飪等日常行為,研究者可在Hugging Face(抱抱臉社區(qū))下載獲取。此外,研究團(tuán)隊(duì)發(fā)表的論文《AI生成人體動(dòng)作檢測(cè)》(Human Action CLIPs: Detecting AI-Generated Human Motion)獲得該主題workshop最佳論文。該論文提出了一種基于多模態(tài)語(yǔ)義嵌入的鑒別技術(shù),可精準(zhǔn)區(qū)分真實(shí)人體動(dòng)作與AI生成動(dòng)作。該方法具有較強(qiáng)的魯棒性,可有效抵御數(shù)據(jù)篡改手段(如調(diào)整分辨率、壓縮視頻等)對(duì)檢測(cè)算法的干擾。

圖:新加坡科技研究局周天異教授為斯坦福大學(xué)Matyas Bohacek頒發(fā)最佳論文獎(jiǎng)

澳大利亞莫納什大學(xué)Abhinav Dhall教授分享了其研究團(tuán)隊(duì)通過(guò)腦電圖數(shù)據(jù)發(fā)現(xiàn):不同文化背景人群對(duì)AI造假視頻存在感知差異,當(dāng)視頻語(yǔ)言為參與者熟悉的英語(yǔ)且演員來(lái)自相似種族背景時(shí),其區(qū)分真實(shí)視頻與深度偽造視頻的表現(xiàn)更佳。該研究為全球化多元背景下的深度偽造分析領(lǐng)域鋪就了未來(lái)探索路徑。

公開(kāi)信息顯示,螞蟻數(shù)科長(zhǎng)期關(guān)注并持續(xù)投入AI安全及風(fēng)險(xiǎn)防范,旗下安全科技品牌ZOLOZ自2017年起服務(wù)海外機(jī)構(gòu)的數(shù)智化升級(jí),目前已覆蓋超25個(gè)國(guó)家和地區(qū),“實(shí)人認(rèn)證”產(chǎn)品準(zhǔn)確率達(dá)99.9%。

分享到

xiesc

相關(guān)推薦