發(fā)布時(shí)間:2025-09-10 來(lái)源:鼓舌揚(yáng)唇網(wǎng)作者:c羅才是真球王
眼下,一種“AI套娃”現(xiàn)象正在悄然蔓延——AI生成的內(nèi)容被另一批AI抓取、學(xué)習(xí)、再輸出,形成一場(chǎng)無(wú)限循環(huán)的“以訛傳訛”,帶來(lái)前所未有的真實(shí)性風(fēng)險(xiǎn)與信任危機(jī)。
“AI套娃”的核心病灶在于“垃圾進(jìn)、垃圾出”的數(shù)據(jù)污染。一些虛假信息、謬誤觀點(diǎn)甚至惡意內(nèi)容,通過(guò)AI的“咀嚼消化”搖身一變甚至成為“權(quán)威答案”。有研究顯示,當(dāng)訓(xùn)練數(shù)據(jù)集中僅有0.01%的虛假文本時(shí),模型輸出的有害內(nèi)容會(huì)增加11.2%。就像俄羅斯套娃層層嵌套,每一代AI都在復(fù)制上一次錯(cuò)誤,形成累積性的認(rèn)知偏差。
商業(yè)利益的驅(qū)使讓“AI套娃”愈演愈烈。一些機(jī)構(gòu)利用生成式引擎優(yōu)化技術(shù),用AI批量炮制看似中立的營(yíng)銷內(nèi)容,再通過(guò)算法推送給互聯(lián)網(wǎng)用戶。這種“以流量換利益”的模式,正在將互聯(lián)網(wǎng)變成AI的“垃圾食品加工廠”,而我們每個(gè)人都在被動(dòng)接受這些“精神快餐”的投喂。
更荒誕的是,如今還出現(xiàn)“用AI打敗AI”的怪象。不少網(wǎng)友分享“如何將需求扔給模型A生成方案,再將生成方案讓模型B修改”的經(jīng)驗(yàn)。不少老師吐槽,學(xué)生用AI完成作業(yè),再用AI降“AI率”,導(dǎo)致行文邏輯不通、辭藻空洞;學(xué)術(shù)圈同樣未能幸免,作者用AI潤(rùn)色論文、審稿人再讓AI生成論文評(píng)審意見(jiàn)的例子并不罕見(jiàn)。一位大學(xué)教授痛心疾首:“我們正在培養(yǎng)一批不會(huì)思考的‘AI提線木偶’,他們能熟練操作模型,卻寫不出一句有獨(dú)立見(jiàn)解的話。”
誠(chéng)然,AI可以幫助人們快速?gòu)暮A繑?shù)據(jù)中提取有價(jià)值的知識(shí)和信息,但不能忽視的是,AI在解決問(wèn)題的同時(shí),也正在成為問(wèn)題本身?!癆I幻覺(jué)”本就難以根治,“AI套娃”更讓問(wèn)題雪上加霜。一旦習(xí)慣于“AI套娃”,人們的獨(dú)立思考和信息甄別能力會(huì)出現(xiàn)退化,導(dǎo)致“AI越來(lái)越像人,而人越來(lái)越像AI”;以信任為基礎(chǔ)的評(píng)價(jià)體系被重創(chuàng),將帶來(lái)一系列社會(huì)倫理風(fēng)險(xiǎn);而其形成的“回音室效應(yīng)”,對(duì)于伴隨互聯(lián)網(wǎng)成長(zhǎng)起來(lái)的年輕一代,危害尤甚。而醫(yī)療、法律等專業(yè)領(lǐng)域的“套娃”風(fēng)險(xiǎn),更是關(guān)乎生死。整治“AI套娃”,勢(shì)在必行。
9月1日起施行的《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法》,明確要求AI生成內(nèi)容必須明確標(biāo)識(shí)。這是一個(gè)開(kāi)始,但遠(yuǎn)非終點(diǎn)。相關(guān)部門要把好數(shù)據(jù)源頭關(guān),明確要求AI研發(fā)機(jī)構(gòu)對(duì)訓(xùn)練數(shù)據(jù)集的合規(guī)性與真實(shí)性負(fù)責(zé),建立更嚴(yán)格的數(shù)據(jù)清洗、標(biāo)注和溯源標(biāo)準(zhǔn),推動(dòng)大模型提升安全能力水平。平臺(tái)也應(yīng)加強(qiáng)篩查和審核,對(duì)疑似AI生成的大規(guī)模同質(zhì)化、低質(zhì)或虛假內(nèi)容進(jìn)行限流與標(biāo)注,嚴(yán)防其污染公共信息生態(tài)。此外,教育、科研等機(jī)構(gòu)也需重塑考核評(píng)價(jià)方式,由“重成果輸出”向“重過(guò)程考查”轉(zhuǎn)變,重視考查學(xué)生或作者的思維過(guò)程、原始數(shù)據(jù)與創(chuàng)新性,同時(shí)設(shè)立“AI使用聲明與倫理規(guī)范”,并將此納入學(xué)術(shù)誠(chéng)信管理范疇。
技術(shù)本身無(wú)罪,但技術(shù)再先進(jìn)也不能替代人類的價(jià)值判斷。技術(shù)狂飆之時(shí),我們需要的是更清醒的使用者、更負(fù)責(zé)任的企業(yè)、更嚴(yán)格的監(jiān)管以及更深刻的反思。錨定價(jià)值理性的坐標(biāo),守住數(shù)據(jù)源頭的純凈,筑牢內(nèi)容審核的防線,才能讓AI走出“套娃”怪圈,盡其善、利于民。(蘇群超、陳立民)