圖說:基于安全AI理念,阿里安全圖靈實驗室推出的AI鑒黃師可識別圖片、彈幕、語音等多維度信息

再比如,用AI判定互聯(lián)網平臺上對于違規(guī)視頻的判定,除了計算機視覺技術之外,加入了語言、語音等多源網絡的設計,比如視頻畫面、視頻中的語音、彈幕和交互信息等多個維度?!爸R圖譜、多源網絡、對抗樣本等構建出更強、更安全的AI技術能力,可以有效防范攻擊,降低風險,”奧創(chuàng)表示。

安全AI將成網絡安全問題新解法

奧創(chuàng)帶領的阿里安全圖靈實驗室近年來在安全AI領域的探索和研發(fā)已久,其成果被應用于風控、知識產權、智能云服務和新零售等商業(yè)場景,以及醫(yī)療、教育、出行等數億用戶相關的生活場景,已申請專利上百項。

未來趨勢之下,AI仍將迅猛發(fā)展,在更多商業(yè)、工業(yè)和生活場景中落地。安全AI的核心理念就是讓不可能變?yōu)榭赡埽軜O大解放人力,也將成為未來網絡安全問題的新解法。

奧創(chuàng)認為,2019年也將是安全AI的爆發(fā)之年,“歐盟剛剛出臺《人工智能道德準則》,明確提出AI的發(fā)展方向應該是‘可信賴AI’,包含安全、隱私、透明等多個方面,AI應用正在成為一個社會問題,如何解決已經成為各界共同關注的話題。”

阿里安全一直堅持用技術解決社會問題,安全AI也在阿里經濟體的多個業(yè)務場景落地。結合多年從事安全研發(fā)的經驗,奧創(chuàng)認為針對安全場景的AI設計,極限數據情況下的模型訓練、實現(xiàn)不同業(yè)態(tài)與場景下的模型遷移、決策場景下的模型可解釋性、強對抗場景下的模型安全性這四個方向將非常值得探索。

“以決策場景下的模型可解釋性為例,端到端的深度學習一個廣為詬病的問題是其不透明性或不可解釋性,比如說識別一張照片中的物體,機器做出是的判斷基于什么什么有效特征,我們無從得知?!眾W創(chuàng)認為,人工智能系統(tǒng)必須具有可解釋性,以便人類可以理解系統(tǒng)的行為。

“在面臨一些重大決策的情況下,比如患者被AI建議使用了某種很罕見的治療方案、無人車或無人機沒有按照既定的軌跡完成任務、或者AI被用來進行司法判決時,智能系統(tǒng)能夠給出判斷的依據甚至能夠與人類交換想法,無疑是至關重要的?!皧W創(chuàng)指出。

分享到

zhangnn

相關推薦