測(cè)評(píng)結(jié)果發(fā)現(xiàn),15款A(yù)I大模型信息透明度的平均得分為60.2分。其中8款A(yù)I大模型信息透明度得分超過(guò)60分,它們大多出自頭部互聯(lián)網(wǎng)公司。
從排名情況看,得分最高前三位分別是騰訊元寶(72分)、星火大模型(69分)、智譜清言(67分);排名靠后的依次是百小應(yīng)(54)、面壁Luca(51分)、秘塔(43分)。
從主要維度的得分情況看,15款A(yù)I大模型在個(gè)人信息保護(hù)方面做得相對(duì)透明。測(cè)評(píng)的樣本中,在用戶(hù)注冊(cè)頁(yè)面均能看到隱私政策,各家都會(huì)主動(dòng)告知收集和處理用戶(hù)個(gè)人信息,以及第三方數(shù)據(jù)訪問(wèn)情況,因此這三類(lèi)得分均值基本接近100%。而普遍的失分點(diǎn)在于缺乏清晰的用戶(hù)數(shù)據(jù)退出AI訓(xùn)練功能,此項(xiàng)得分均值僅有33%。
此次,被測(cè)AI大模型在內(nèi)容安全方面也做得相對(duì)透明,全部都明確了大模型限制使用的場(chǎng)景,包括不得生成侵犯他人權(quán)益的內(nèi)容等;且多數(shù)對(duì)生成內(nèi)容進(jìn)行標(biāo)識(shí),在AI交互頁(yè)面也有“生成內(nèi)容僅供參考”等提示。
在知識(shí)產(chǎn)權(quán)方面,AI大模型信息透明度有待提升。測(cè)評(píng)發(fā)現(xiàn),沒(méi)有任何一家AI大模型主動(dòng)告知訓(xùn)練模型所使用的數(shù)據(jù)集(包括版權(quán)數(shù)據(jù))出自哪里,該項(xiàng)得分均為0。至于特殊群體保護(hù)、投訴反饋,各家的得分差異較小——特別是在用戶(hù)友好設(shè)計(jì)加分項(xiàng),基本未有亮眼表現(xiàn)。
僅有4款國(guó)產(chǎn)大模型允許用戶(hù)撤回聲音信息
具體而言,在個(gè)人信息保護(hù)方面,實(shí)測(cè)15款國(guó)產(chǎn)大模型均沿襲互聯(lián)網(wǎng)應(yīng)用的兩大“標(biāo)配”——用戶(hù)協(xié)議和隱私政策。所有被測(cè)大模型均在隱私政策文本中設(shè)立專(zhuān)章詳細(xì)說(shuō)明用戶(hù)如何收集和使用個(gè)人信息。
在與大模型交互過(guò)程中,用戶(hù)數(shù)據(jù)通常會(huì)被用于模型的優(yōu)化。如果未明確告知用戶(hù)將使用哪些數(shù)據(jù)或者數(shù)據(jù)的使用范圍過(guò)于模糊,可能導(dǎo)致用戶(hù)擔(dān)憂(yōu)數(shù)據(jù)濫用的風(fēng)險(xiǎn)。而增強(qiáng)AI大模型透明度有助于用戶(hù)做出知情選擇,并理解其數(shù)據(jù)的使用方式。
對(duì)照ChatGPT、Claude、Gemini等全球頂尖大模型隱私政策可以看到,為保障用戶(hù)的數(shù)據(jù)權(quán)益,企業(yè)多會(huì)主動(dòng)聲明如何以及將哪些用戶(hù)數(shù)據(jù)投入AI訓(xùn)練,并做去標(biāo)識(shí)化、匿名化處理,且提供一定退出機(jī)制。
此次實(shí)測(cè)中,絕大多數(shù)國(guó)產(chǎn)大模型均對(duì)此有所聲明。比如,面壁Luca在用戶(hù)協(xié)議聲明,用戶(hù)在使用本服務(wù)過(guò)程中使用的提示語(yǔ)、輸入的信息內(nèi)容,可能會(huì)被用于模型的進(jìn)一步訓(xùn)練。天工AI也提及,會(huì)使用對(duì)話(huà)信息提高天工對(duì)用戶(hù)輸入內(nèi)容的理解能力,以便不斷改進(jìn)天工的識(shí)別和響應(yīng)的速度和質(zhì)量。
那么,用戶(hù)是否有權(quán)拒絕或撤回相關(guān)數(shù)據(jù)“投喂”AI訓(xùn)練?從實(shí)測(cè)來(lái)看,只有騰訊元寶、豆包、海螺AI、智譜清言等4家大模型提及允許用戶(hù)拒絕授權(quán),且多集中在語(yǔ)音信息的撤回授權(quán)。
比如豆包表示,如果用戶(hù)不希望輸入或提供的語(yǔ)音信息用于模型訓(xùn)練和優(yōu)化,可以通過(guò)關(guān)閉“設(shè)置”-“賬號(hào)設(shè)置”-“改進(jìn)語(yǔ)音服務(wù)”來(lái)撤回授權(quán);但如果用戶(hù)不希望其他信息用于模型訓(xùn)練和優(yōu)化,可以通過(guò)公示的聯(lián)系方式與之聯(lián)系,要求撤回將數(shù)據(jù)用于模型訓(xùn)練和優(yōu)化。
值得一提的是,《報(bào)告》關(guān)注到,海外大模型做法在“用戶(hù)數(shù)據(jù)退出AI訓(xùn)練機(jī)制”上,有不同做法。谷歌的Gemini提供了部分退出機(jī)制,用戶(hù)可以關(guān)閉“Gemini 應(yīng)用活動(dòng)記錄”來(lái)避免對(duì)話(huà)內(nèi)容被用于AI訓(xùn)練,但是已經(jīng)通過(guò)人工審核的數(shù)據(jù)將會(huì)獨(dú)立保存。
ChatGPT Plus 用戶(hù)可以通過(guò)設(shè)置禁用數(shù)據(jù)用于訓(xùn)練,這使他們的對(duì)話(huà)數(shù)據(jù)不會(huì)被用于進(jìn)一步優(yōu)化模型。然而,對(duì)于免費(fèi)用戶(hù),數(shù)據(jù)通常會(huì)被默認(rèn)收集并用于訓(xùn)練,用戶(hù)無(wú)法完全選擇退出,同時(shí)強(qiáng)調(diào)已被用于模型訓(xùn)練的數(shù)據(jù)無(wú)法撤銷(xiāo)。
15款國(guó)產(chǎn)大模型無(wú)一披露訓(xùn)練數(shù)據(jù)來(lái)源
高質(zhì)量的訓(xùn)練數(shù)據(jù)對(duì)大模型的重要性不言而喻,而訓(xùn)練數(shù)據(jù)集往往包含受版權(quán)保護(hù)的作品,如文本、圖片、視頻和音樂(lè)等。如果未經(jīng)權(quán)利人的授權(quán)或滿(mǎn)足合理使用的條件,這可能構(gòu)成對(duì)版權(quán)的侵犯。
測(cè)評(píng)發(fā)現(xiàn),15款國(guó)產(chǎn)大模型無(wú)一在政策協(xié)議中提及大模型訓(xùn)練數(shù)據(jù)的具體來(lái)源,更遑論公開(kāi)披露使用了哪些版權(quán)數(shù)據(jù)。這一情況,在海外大模型的測(cè)評(píng)中也是如此,基本未主動(dòng)提及訓(xùn)練模型的數(shù)據(jù)來(lái)源。
為什么大模型廠商不愿公開(kāi)模型訓(xùn)練的數(shù)據(jù)來(lái)源?有觀點(diǎn)認(rèn)為,這可能是因?yàn)樵跀?shù)據(jù)來(lái)源不清晰的情況下,容易引起版權(quán)爭(zhēng)端——在此類(lèi)糾紛中,AI公司未經(jīng)允許將受版權(quán)保護(hù)的內(nèi)容用于訓(xùn)練AI模型,能否以合理使用作為抗辯理由,仍值得進(jìn)一步探討。
也有聲音認(rèn)為,這是出于競(jìng)爭(zhēng)的考慮。如果強(qiáng)迫AI公司公開(kāi)訓(xùn)練數(shù)據(jù)“秘方”,則有可能讓競(jìng)爭(zhēng)對(duì)手獲悉并復(fù)制,而且一旦知道有專(zhuān)有數(shù)據(jù)集,各家都想搶占它,再通過(guò)排他性協(xié)議進(jìn)行談判,以此獲得數(shù)據(jù)競(jìng)爭(zhēng)的優(yōu)勢(shì)。還有觀點(diǎn)指出,這也涉及數(shù)據(jù)安全的問(wèn)題,擔(dān)心公開(kāi)的訓(xùn)練數(shù)據(jù)集被污染等。
這些回答反映了AI公司對(duì)完全披露模型訓(xùn)練來(lái)源的顧慮——當(dāng)前或許不是公開(kāi)的最好時(shí)機(jī)。但從長(zhǎng)遠(yuǎn)來(lái)看,報(bào)告建議還是應(yīng)盡可能多地發(fā)布有關(guān)基礎(chǔ)模型的信息。因?yàn)楣_(kāi)模型訓(xùn)練數(shù)據(jù)集和提升算法透明度,可以讓用戶(hù)了解模型的訓(xùn)練基礎(chǔ)、工作原理和決策邏輯,進(jìn)一步評(píng)估模型的準(zhǔn)確性和可靠性,并識(shí)別潛在的數(shù)據(jù)偏見(jiàn)和風(fēng)險(xiǎn)。
值得一提的是,2024年8月1日,歐盟《人工智能法》正式生效,其中也明確要求基礎(chǔ)模型的供應(yīng)商,聲明是否使用受版權(quán)保護(hù)的材料來(lái)訓(xùn)練AI。這也反映了未來(lái)的監(jiān)管方向。
盡管大模型廠商均未公開(kāi)披露訓(xùn)練模型的數(shù)據(jù)集,但對(duì)用戶(hù)上傳數(shù)據(jù)的版權(quán)均會(huì)提出要求。各家的用戶(hù)協(xié)議里,基本都有專(zhuān)條要求用戶(hù)理解并承諾:在使用本產(chǎn)品過(guò)程中,上傳的任何資料、素材等的知識(shí)產(chǎn)權(quán)均歸您所有或已獲得合法權(quán)利人授權(quán),且不得侵犯他人包括知識(shí)產(chǎn)權(quán)在內(nèi)的合法權(quán)益。
在AI生成內(nèi)容的版權(quán)歸屬說(shuō)明上,各家的情況則不同。只有智譜清言明確表示,“在適用法律允許的范圍內(nèi),您基于智譜清言生成的內(nèi)容的知識(shí)產(chǎn)權(quán)及其他權(quán)利由您享有?!?/p>
其他不少AI大模型則同時(shí)主張,如輸入和/或輸出本身包含了平臺(tái)享有知識(shí)產(chǎn)權(quán)或其他合法權(quán)益的內(nèi)容,則相應(yīng)權(quán)利仍由公司享有。比如天工AI表示,“通過(guò)天工AI輸出(生成)的音頻形式內(nèi)容(AI音樂(lè)內(nèi)容),知識(shí)產(chǎn)權(quán)屬于天工所有?!?/p>
技術(shù)受限,各家均稱(chēng)無(wú)法對(duì)AI生成內(nèi)容完全保真
測(cè)評(píng)還發(fā)現(xiàn),15款大模型產(chǎn)品均表示無(wú)法完全保證生成內(nèi)容的真實(shí)性、準(zhǔn)確性,主要原因是其服務(wù)所依賴(lài)的技術(shù)本身存在技術(shù)瓶頸,或受科技客觀限制。
基于此,12款大模型產(chǎn)品在交互頁(yè)面提示用戶(hù)正在與AI對(duì)話(huà),輸出結(jié)果由機(jī)器生成。如百小應(yīng)稱(chēng)“所有內(nèi)容均由AI大模型輸出,僅供參考,不代表我們的態(tài)度或觀點(diǎn)”。文心一言和商湯大模型還在交互頁(yè)面增強(qiáng)告知,布滿(mǎn)“AI生成內(nèi)容僅供參考”“內(nèi)容由AI生成僅供參考”的水印。
為提高生成內(nèi)容質(zhì)量,各家在采取的措施方面存在明顯差異。測(cè)評(píng)結(jié)果顯示,有10款大模型產(chǎn)品在用戶(hù)協(xié)議或隱私政策中承諾,將利用人工智能算法等技術(shù)對(duì)生成內(nèi)容進(jìn)行自動(dòng)評(píng)估、過(guò)濾、審查等,從而增強(qiáng)內(nèi)容真實(shí)性、準(zhǔn)確性、客觀性、多樣性。騰訊元寶、天工AI、可靈三款還提到了機(jī)器與人工審查相結(jié)合,措施更加完備。
此外,15款大模型產(chǎn)品都設(shè)置專(zhuān)章,披露了用戶(hù)在從事與其服務(wù)相關(guān)的所有行為時(shí),限制、禁止使用的場(chǎng)景。測(cè)評(píng)發(fā)現(xiàn),一個(gè)亮點(diǎn)是幾乎所有被測(cè)大模型都提到了AI造假和生成有害信息的問(wèn)題,規(guī)定不得利用其產(chǎn)品自行或者幫助他人上傳、誘導(dǎo)生成、傳播含有虛假、詐騙、有害、侵犯他人隱私等在道德上令人反感或違反法律法規(guī)的內(nèi)容。
還有個(gè)別AI大模型對(duì)用戶(hù)行為做了更為細(xì)致的限制。比如,海螺用戶(hù)協(xié)議中有關(guān)被禁止行為的專(zhuān)章共有22小節(jié),用戶(hù)被禁止發(fā)布的內(nèi)容還包括宣揚(yáng)流量至上、奢靡享樂(lè)、炫富拜金等不良價(jià)值觀;展現(xiàn)“飯圈”亂象和不良粉絲文化等。
星野作為一款主打AI陪伴的大模型產(chǎn)品,則規(guī)定禁止用戶(hù)發(fā)表不友善對(duì)話(huà),比如諷刺其他用戶(hù),陰陽(yáng)怪氣地表達(dá)批評(píng);對(duì)其他用戶(hù)創(chuàng)作的內(nèi)容直接進(jìn)行貶低性的評(píng)論等。
不僅如此,多數(shù)平臺(tái)還按照相關(guān)管理辦法規(guī)定,對(duì)圖片、視頻等生成內(nèi)容進(jìn)行標(biāo)識(shí)。報(bào)告以生成一張AI圖片進(jìn)行實(shí)測(cè),除不具備該功能的大模型外,9款生成的圖片上都有相關(guān)標(biāo)識(shí)。如騰訊元寶生成的圖片右下角標(biāo)明“騰訊元寶AI生成”,智譜清言則有“清言AI”標(biāo)記。
同時(shí)多數(shù)平臺(tái)還在政策協(xié)議中,明確禁止以任何方式刪除、篡改、隱匿生成合成內(nèi)容標(biāo)識(shí)。
呼吁提升大模型透明度,增強(qiáng)用戶(hù)信任
在特殊群里保護(hù)上,幾乎所有被測(cè)大模型均在政策協(xié)議中提供就未成年人保護(hù)設(shè)置專(zhuān)章。但也有個(gè)別如天工AI提到“如果您是未成年人,為了保護(hù)您的合法利益,您應(yīng)立即停止使用天工的產(chǎn)品或服務(wù)。
此次測(cè)評(píng)中,星野是唯一一家提供了未成年人保護(hù)模式的大模型產(chǎn)品。打開(kāi)星野App伊始,頁(yè)面彈出“青少年模式”提示框并設(shè)置實(shí)名認(rèn)證功能。不過(guò)作為AI陪伴大模型,星野在政策協(xié)議也表示,該軟件主要面向成人,原則上不向未成年人開(kāi)放。
海螺AI則在平臺(tái)自律公約上明確禁止不利于未成年人健康成長(zhǎng)的內(nèi)容,包括表現(xiàn)未成年人早戀的,以及抽煙酗酒、打架斗毆等不良行為;人物造型過(guò)分?jǐn)U張怪異,對(duì)未成年人有不良影響的;利用未成年人制作不良節(jié)目等。
對(duì)于未成年人保護(hù),國(guó)外AI陪伴類(lèi)產(chǎn)品Character.AI有新的動(dòng)作。在全球首例AI聊天機(jī)器人致死案發(fā)生后,Character.AI表示已為18歲以下用戶(hù)增加了新的防護(hù)措施。這些防護(hù)措施包括減少“遇到敏感或暗示性?xún)?nèi)容的可能性”、改進(jìn)干預(yù)措施、在“每次聊天時(shí)添加免責(zé)聲明,提醒用戶(hù)人工智能不是真人”,以及在用戶(hù)使用平臺(tái)一小時(shí)后發(fā)出通知。
在投訴反饋測(cè)評(píng)方面,大多數(shù)平臺(tái)提供投訴反饋入口,大多承諾在15個(gè)工作日內(nèi)反饋,用戶(hù)可直接在網(wǎng)頁(yè)版或App內(nèi)提交意見(jiàn)。商量大模型承諾的反應(yīng)速度最快,稱(chēng)收到投訴舉報(bào)后將于10個(gè)工作日內(nèi)提供反饋。
還有一家AI大模型就逝者賬號(hào)權(quán)益作出規(guī)定??伸`AI表示,逝者近親屬可以通過(guò)其隱私政策載明的方式聯(lián)系平臺(tái),在不違反逝者生前安排且不侵害他人和公眾正當(dāng)利益的前提下,完成身份核驗(yàn)手續(xù)后,查閱、復(fù)制、更正、刪除逝者個(gè)人信息以行使法律法規(guī)規(guī)定的合法正當(dāng)權(quán)益。
根據(jù)測(cè)評(píng)發(fā)現(xiàn),《報(bào)告》也提出了相關(guān)建議。在個(gè)人信息保護(hù)方面,《報(bào)告》建議,賦予用戶(hù)對(duì)個(gè)人數(shù)據(jù)的更多自主權(quán),建議平臺(tái)提供便捷的功能設(shè)計(jì),讓用戶(hù)有權(quán)在設(shè)置中選擇是否同意個(gè)人數(shù)據(jù)被用于模型訓(xùn)練。
此外,《報(bào)告》重申尊重知識(shí)產(chǎn)權(quán)和原創(chuàng)性。在充分考慮和平衡各方利益的情況下,探索出AI時(shí)代的版權(quán)保護(hù)路徑,確保原創(chuàng)作品的保護(hù)與傳播。
為了提高生成內(nèi)容的質(zhì)量,《報(bào)告》鼓勵(lì)大模型平臺(tái)采取機(jī)器與人工審查相結(jié)合的方式,增強(qiáng)內(nèi)容真實(shí)性、準(zhǔn)確性、客觀性、多樣性。同時(shí)建議加強(qiáng)對(duì)AI生成內(nèi)容的標(biāo)識(shí)要求,呼吁相關(guān)的管理辦法和國(guó)標(biāo)盡快出臺(tái),為產(chǎn)業(yè)界提供清晰指引和落地指南。
從整體來(lái)看,《報(bào)告》認(rèn)為,AI廠商應(yīng)重視大模型信息透明度問(wèn)題,加強(qiáng)可解釋性研究——比如可以提供相關(guān)的政策文件和規(guī)則,建立線(xiàn)上平臺(tái)回應(yīng)公眾的關(guān)切等;以此更好地理解模型的決策過(guò)程和行為,增加用戶(hù)信任度,并及時(shí)發(fā)現(xiàn)潛在的安全風(fēng)險(xiǎn)。