測評結(jié)果發(fā)現(xiàn),15款A(yù)I大模型信息透明度的平均得分為60.2分。其中8款A(yù)I大模型信息透明度得分超過60分,它們大多出自頭部互聯(lián)網(wǎng)公司。

從排名情況看,得分最高前三位分別是騰訊元寶(72分)、星火大模型(69分)、智譜清言(67分);排名靠后的依次是百小應(yīng)(54)、面壁Luca(51分)、秘塔(43分)。

從主要維度的得分情況看,15款A(yù)I大模型在個人信息保護方面做得相對透明。測評的樣本中,在用戶注冊頁面均能看到隱私政策,各家都會主動告知收集和處理用戶個人信息,以及第三方數(shù)據(jù)訪問情況,因此這三類得分均值基本接近100%。而普遍的失分點在于缺乏清晰的用戶數(shù)據(jù)退出AI訓(xùn)練功能,此項得分均值僅有33%。

此次,被測AI大模型在內(nèi)容安全方面也做得相對透明,全部都明確了大模型限制使用的場景,包括不得生成侵犯他人權(quán)益的內(nèi)容等;且多數(shù)對生成內(nèi)容進行標識,在AI交互頁面也有“生成內(nèi)容僅供參考”等提示。

在知識產(chǎn)權(quán)方面,AI大模型信息透明度有待提升。測評發(fā)現(xiàn),沒有任何一家AI大模型主動告知訓(xùn)練模型所使用的數(shù)據(jù)集(包括版權(quán)數(shù)據(jù))出自哪里,該項得分均為0。至于特殊群體保護、投訴反饋,各家的得分差異較小——特別是在用戶友好設(shè)計加分項,基本未有亮眼表現(xiàn)。

僅有4款國產(chǎn)大模型允許用戶撤回聲音信息

具體而言,在個人信息保護方面,實測15款國產(chǎn)大模型均沿襲互聯(lián)網(wǎng)應(yīng)用的兩大“標配”——用戶協(xié)議和隱私政策。所有被測大模型均在隱私政策文本中設(shè)立專章詳細說明用戶如何收集和使用個人信息。

在與大模型交互過程中,用戶數(shù)據(jù)通常會被用于模型的優(yōu)化。如果未明確告知用戶將使用哪些數(shù)據(jù)或者數(shù)據(jù)的使用范圍過于模糊,可能導(dǎo)致用戶擔憂數(shù)據(jù)濫用的風(fēng)險。而增強AI大模型透明度有助于用戶做出知情選擇,并理解其數(shù)據(jù)的使用方式。

對照ChatGPT、Claude、Gemini等全球頂尖大模型隱私政策可以看到,為保障用戶的數(shù)據(jù)權(quán)益,企業(yè)多會主動聲明如何以及將哪些用戶數(shù)據(jù)投入AI訓(xùn)練,并做去標識化、匿名化處理,且提供一定退出機制。

此次實測中,絕大多數(shù)國產(chǎn)大模型均對此有所聲明。比如,面壁Luca在用戶協(xié)議聲明,用戶在使用本服務(wù)過程中使用的提示語、輸入的信息內(nèi)容,可能會被用于模型的進一步訓(xùn)練。天工AI也提及,會使用對話信息提高天工對用戶輸入內(nèi)容的理解能力,以便不斷改進天工的識別和響應(yīng)的速度和質(zhì)量。

那么,用戶是否有權(quán)拒絕或撤回相關(guān)數(shù)據(jù)“投喂”AI訓(xùn)練?從實測來看,只有騰訊元寶、豆包、海螺AI、智譜清言等4家大模型提及允許用戶拒絕授權(quán),且多集中在語音信息的撤回授權(quán)。

比如豆包表示,如果用戶不希望輸入或提供的語音信息用于模型訓(xùn)練和優(yōu)化,可以通過關(guān)閉“設(shè)置”-“賬號設(shè)置”-“改進語音服務(wù)”來撤回授權(quán);但如果用戶不希望其他信息用于模型訓(xùn)練和優(yōu)化,可以通過公示的聯(lián)系方式與之聯(lián)系,要求撤回將數(shù)據(jù)用于模型訓(xùn)練和優(yōu)化。

值得一提的是,《報告》關(guān)注到,海外大模型做法在“用戶數(shù)據(jù)退出AI訓(xùn)練機制”上,有不同做法。谷歌的Gemini提供了部分退出機制,用戶可以關(guān)閉“Gemini 應(yīng)用活動記錄”來避免對話內(nèi)容被用于AI訓(xùn)練,但是已經(jīng)通過人工審核的數(shù)據(jù)將會獨立保存。

ChatGPT Plus 用戶可以通過設(shè)置禁用數(shù)據(jù)用于訓(xùn)練,這使他們的對話數(shù)據(jù)不會被用于進一步優(yōu)化模型。然而,對于免費用戶,數(shù)據(jù)通常會被默認收集并用于訓(xùn)練,用戶無法完全選擇退出,同時強調(diào)已被用于模型訓(xùn)練的數(shù)據(jù)無法撤銷。

15款國產(chǎn)大模型無一披露訓(xùn)練數(shù)據(jù)來源

高質(zhì)量的訓(xùn)練數(shù)據(jù)對大模型的重要性不言而喻,而訓(xùn)練數(shù)據(jù)集往往包含受版權(quán)保護的作品,如文本、圖片、視頻和音樂等。如果未經(jīng)權(quán)利人的授權(quán)或滿足合理使用的條件,這可能構(gòu)成對版權(quán)的侵犯。

測評發(fā)現(xiàn),15款國產(chǎn)大模型無一在政策協(xié)議中提及大模型訓(xùn)練數(shù)據(jù)的具體來源,更遑論公開披露使用了哪些版權(quán)數(shù)據(jù)。這一情況,在海外大模型的測評中也是如此,基本未主動提及訓(xùn)練模型的數(shù)據(jù)來源。

為什么大模型廠商不愿公開模型訓(xùn)練的數(shù)據(jù)來源?有觀點認為,這可能是因為在數(shù)據(jù)來源不清晰的情況下,容易引起版權(quán)爭端——在此類糾紛中,AI公司未經(jīng)允許將受版權(quán)保護的內(nèi)容用于訓(xùn)練AI模型,能否以合理使用作為抗辯理由,仍值得進一步探討。

也有聲音認為,這是出于競爭的考慮。如果強迫AI公司公開訓(xùn)練數(shù)據(jù)“秘方”,則有可能讓競爭對手獲悉并復(fù)制,而且一旦知道有專有數(shù)據(jù)集,各家都想搶占它,再通過排他性協(xié)議進行談判,以此獲得數(shù)據(jù)競爭的優(yōu)勢。還有觀點指出,這也涉及數(shù)據(jù)安全的問題,擔心公開的訓(xùn)練數(shù)據(jù)集被污染等。

這些回答反映了AI公司對完全披露模型訓(xùn)練來源的顧慮——當前或許不是公開的最好時機。但從長遠來看,報告建議還是應(yīng)盡可能多地發(fā)布有關(guān)基礎(chǔ)模型的信息。因為公開模型訓(xùn)練數(shù)據(jù)集和提升算法透明度,可以讓用戶了解模型的訓(xùn)練基礎(chǔ)、工作原理和決策邏輯,進一步評估模型的準確性和可靠性,并識別潛在的數(shù)據(jù)偏見和風(fēng)險。

值得一提的是,2024年8月1日,歐盟《人工智能法》正式生效,其中也明確要求基礎(chǔ)模型的供應(yīng)商,聲明是否使用受版權(quán)保護的材料來訓(xùn)練AI。這也反映了未來的監(jiān)管方向。

盡管大模型廠商均未公開披露訓(xùn)練模型的數(shù)據(jù)集,但對用戶上傳數(shù)據(jù)的版權(quán)均會提出要求。各家的用戶協(xié)議里,基本都有專條要求用戶理解并承諾:在使用本產(chǎn)品過程中,上傳的任何資料、素材等的知識產(chǎn)權(quán)均歸您所有或已獲得合法權(quán)利人授權(quán),且不得侵犯他人包括知識產(chǎn)權(quán)在內(nèi)的合法權(quán)益。

在AI生成內(nèi)容的版權(quán)歸屬說明上,各家的情況則不同。只有智譜清言明確表示,“在適用法律允許的范圍內(nèi),您基于智譜清言生成的內(nèi)容的知識產(chǎn)權(quán)及其他權(quán)利由您享有?!?/p>

其他不少AI大模型則同時主張,如輸入和/或輸出本身包含了平臺享有知識產(chǎn)權(quán)或其他合法權(quán)益的內(nèi)容,則相應(yīng)權(quán)利仍由公司享有。比如天工AI表示,“通過天工AI輸出(生成)的音頻形式內(nèi)容(AI音樂內(nèi)容),知識產(chǎn)權(quán)屬于天工所有?!?/p>

技術(shù)受限,各家均稱無法對AI生成內(nèi)容完全保真

測評還發(fā)現(xiàn),15款大模型產(chǎn)品均表示無法完全保證生成內(nèi)容的真實性、準確性,主要原因是其服務(wù)所依賴的技術(shù)本身存在技術(shù)瓶頸,或受科技客觀限制。

基于此,12款大模型產(chǎn)品在交互頁面提示用戶正在與AI對話,輸出結(jié)果由機器生成。如百小應(yīng)稱“所有內(nèi)容均由AI大模型輸出,僅供參考,不代表我們的態(tài)度或觀點”。文心一言和商湯大模型還在交互頁面增強告知,布滿“AI生成內(nèi)容僅供參考”“內(nèi)容由AI生成僅供參考”的水印。

為提高生成內(nèi)容質(zhì)量,各家在采取的措施方面存在明顯差異。測評結(jié)果顯示,有10款大模型產(chǎn)品在用戶協(xié)議或隱私政策中承諾,將利用人工智能算法等技術(shù)對生成內(nèi)容進行自動評估、過濾、審查等,從而增強內(nèi)容真實性、準確性、客觀性、多樣性。騰訊元寶、天工AI、可靈三款還提到了機器與人工審查相結(jié)合,措施更加完備。

此外,15款大模型產(chǎn)品都設(shè)置專章,披露了用戶在從事與其服務(wù)相關(guān)的所有行為時,限制、禁止使用的場景。測評發(fā)現(xiàn),一個亮點是幾乎所有被測大模型都提到了AI造假和生成有害信息的問題,規(guī)定不得利用其產(chǎn)品自行或者幫助他人上傳、誘導(dǎo)生成、傳播含有虛假、詐騙、有害、侵犯他人隱私等在道德上令人反感或違反法律法規(guī)的內(nèi)容。

還有個別AI大模型對用戶行為做了更為細致的限制。比如,海螺用戶協(xié)議中有關(guān)被禁止行為的專章共有22小節(jié),用戶被禁止發(fā)布的內(nèi)容還包括宣揚流量至上、奢靡享樂、炫富拜金等不良價值觀;展現(xiàn)“飯圈”亂象和不良粉絲文化等。

星野作為一款主打AI陪伴的大模型產(chǎn)品,則規(guī)定禁止用戶發(fā)表不友善對話,比如諷刺其他用戶,陰陽怪氣地表達批評;對其他用戶創(chuàng)作的內(nèi)容直接進行貶低性的評論等。

不僅如此,多數(shù)平臺還按照相關(guān)管理辦法規(guī)定,對圖片、視頻等生成內(nèi)容進行標識。報告以生成一張AI圖片進行實測,除不具備該功能的大模型外,9款生成的圖片上都有相關(guān)標識。如騰訊元寶生成的圖片右下角標明“騰訊元寶AI生成”,智譜清言則有“清言AI”標記。

同時多數(shù)平臺還在政策協(xié)議中,明確禁止以任何方式刪除、篡改、隱匿生成合成內(nèi)容標識。

呼吁提升大模型透明度,增強用戶信任

在特殊群里保護上,幾乎所有被測大模型均在政策協(xié)議中提供就未成年人保護設(shè)置專章。但也有個別如天工AI提到“如果您是未成年人,為了保護您的合法利益,您應(yīng)立即停止使用天工的產(chǎn)品或服務(wù)。

此次測評中,星野是唯一一家提供了未成年人保護模式的大模型產(chǎn)品。打開星野App伊始,頁面彈出“青少年模式”提示框并設(shè)置實名認證功能。不過作為AI陪伴大模型,星野在政策協(xié)議也表示,該軟件主要面向成人,原則上不向未成年人開放。

海螺AI則在平臺自律公約上明確禁止不利于未成年人健康成長的內(nèi)容,包括表現(xiàn)未成年人早戀的,以及抽煙酗酒、打架斗毆等不良行為;人物造型過分擴張怪異,對未成年人有不良影響的;利用未成年人制作不良節(jié)目等。

對于未成年人保護,國外AI陪伴類產(chǎn)品Character.AI有新的動作。在全球首例AI聊天機器人致死案發(fā)生后,Character.AI表示已為18歲以下用戶增加了新的防護措施。這些防護措施包括減少“遇到敏感或暗示性內(nèi)容的可能性”、改進干預(yù)措施、在“每次聊天時添加免責(zé)聲明,提醒用戶人工智能不是真人”,以及在用戶使用平臺一小時后發(fā)出通知。

在投訴反饋測評方面,大多數(shù)平臺提供投訴反饋入口,大多承諾在15個工作日內(nèi)反饋,用戶可直接在網(wǎng)頁版或App內(nèi)提交意見。商量大模型承諾的反應(yīng)速度最快,稱收到投訴舉報后將于10個工作日內(nèi)提供反饋。

還有一家AI大模型就逝者賬號權(quán)益作出規(guī)定??伸`AI表示,逝者近親屬可以通過其隱私政策載明的方式聯(lián)系平臺,在不違反逝者生前安排且不侵害他人和公眾正當利益的前提下,完成身份核驗手續(xù)后,查閱、復(fù)制、更正、刪除逝者個人信息以行使法律法規(guī)規(guī)定的合法正當權(quán)益。

根據(jù)測評發(fā)現(xiàn),《報告》也提出了相關(guān)建議。在個人信息保護方面,《報告》建議,賦予用戶對個人數(shù)據(jù)的更多自主權(quán),建議平臺提供便捷的功能設(shè)計,讓用戶有權(quán)在設(shè)置中選擇是否同意個人數(shù)據(jù)被用于模型訓(xùn)練。

此外,《報告》重申尊重知識產(chǎn)權(quán)和原創(chuàng)性。在充分考慮和平衡各方利益的情況下,探索出AI時代的版權(quán)保護路徑,確保原創(chuàng)作品的保護與傳播。

為了提高生成內(nèi)容的質(zhì)量,《報告》鼓勵大模型平臺采取機器與人工審查相結(jié)合的方式,增強內(nèi)容真實性、準確性、客觀性、多樣性。同時建議加強對AI生成內(nèi)容的標識要求,呼吁相關(guān)的管理辦法和國標盡快出臺,為產(chǎn)業(yè)界提供清晰指引和落地指南。

從整體來看,《報告》認為,AI廠商應(yīng)重視大模型信息透明度問題,加強可解釋性研究——比如可以提供相關(guān)的政策文件和規(guī)則,建立線上平臺回應(yīng)公眾的關(guān)切等;以此更好地理解模型的決策過程和行為,增加用戶信任度,并及時發(fā)現(xiàn)潛在的安全風(fēng)險。

分享到

崔歡歡

相關(guān)推薦