機器之心報道
機器之心編輯部
近日,人工智能教父杰弗里?辛頓(Geoffrey Hinton)在接受媒體采訪時,透露了一則趣聞。
他說在日常生活中通常將 OpenAI 的 ChatGPT 作為首選 AI 產(chǎn)品工具,當然他的使用目的往往是工作需求、用于研究等??蓻]想到有一天,ChatGPT 竟會「入侵」他的個人生活,他和前女友分手居然是通過 ChatGPT 完成的。
原來在兩人分手期間,前女友曾將辛頓的一些行為發(fā)送給 ChatGPT,要求 ChatGPT 來證明他是一個多么「糟糕」的人。
之后,她還將這些對話一并發(fā)給了辛頓。但辛頓并不覺得自己很糟糕,所以 ChatGPT 的說辭「并沒有讓我感覺太糟糕?!?/p>
當然,這只是一個趣聞,辛頓之所以講起這件事,是在表達一個不爭的事實:如今 AI 的觸角正蔓延至人類生活的細枝末節(jié)中,甚至成為一些人際交往的重要參與者。
無論是答疑解惑、寫文檔、起草電子郵件、解決日常問題,還是像辛頓那樣借助 AI 來分手,一一都在表明,AI 正在塑造著人類的新型溝通范式,人類甚至越來越依賴 AI。但,這是一件好事嗎……
今年 3 月份的時候,OpenAI 和麻省理工學院媒體實驗室的研究人員就發(fā)表了一項研究,分析了與 ChatGPT 的數(shù)百萬次聊天對話和數(shù)千次音頻互動后發(fā)現(xiàn),ChatGPT 可能會加劇一群「強力用戶」的孤獨感。
研究結(jié)果顯示,孤獨的人更有可能尋求與 AI 助手、聊天機器人的情感聯(lián)系,這很大程度上說明了人類在使用 AI 時并不僅僅是為了完成任務,甚至任由其越來越深入、越來越廣泛地進入個人生活的「私人領(lǐng)域」。
除了談及 ChatGPT 的使用感受,在這次采訪中,辛頓又一次澄清了之前從谷歌離職的原因。
辛頓 2013 年加入谷歌,之后一直擔任谷歌副總裁兼工程研究員,直到 2023 年 5 月的時候,辛頓突然宣布從谷歌離職,結(jié)束了在此長達十多年的就職生涯,回到多倫多大學繼續(xù)學術(shù)研究。
為此,外界議論紛紛,認為他這一做法是為了「直言不諱談論 AI 的危險」,并將其奉為「AI 安全剎車人」「吹哨人」……
但辛頓并不認同這種解讀。「每次接受采訪,我都會糾正這個誤解,但沒用,因為這是一個好故事。」
他表示,之所以離職,是因為當時自己已經(jīng) 75 歲了,編程能力大不如前,自己已經(jīng)努力工作了 55 年,覺得是時候退休了。另外,「Netflix 上還有好多劇沒看。」
而之所以談論 AI 威脅,是因為,「反正都要離開了,不如借這個機會談談 AI 的風險?!?/p>
所以,在這次采訪中,Hinton 再次對 AI 可能帶來的潛在威脅發(fā)出了警告。
一方面,當前隨著 AI 技術(shù)的不斷發(fā)展進步,落地應用越來越普及,很多人都在期待「超級智能」的到來。但辛頓認為未來 AI 將導致大規(guī)模失業(yè),并使少數(shù)人變得更為富有,「實際上,富人會用 AI 取代工人?!剐令D說道。
「這將造成大規(guī)模失業(yè),并大幅提高利潤。它會讓少數(shù)人變得更富有,而大多數(shù)人變得更窮。這不是 AI 的錯,而是資本主義制度的錯?!闺m然從當下來看,企業(yè)裁員人數(shù)尚未激增,但越來越多的證據(jù)都在表明一個既定的事實:AI 正在減少入門級的工作機會。
關(guān)于這一點,在他上個月接受《財富》雜志采訪時也曾有過類似表述,他認為,AI 公司更關(guān)心短期利潤,而不是該技術(shù)的長期后果。
另外,更為重要的是,辛頓再次重申了未來 AI 將給人類帶來「毀滅性打擊」的擔憂,認為如果一直任由 AI 在沒有限制的自由中瘋狂發(fā)展,那么等到「超級智能」出現(xiàn)之后,AI 消滅人類的可能性將高達 10% 到 20% 。
他警告稱,AI 可能會被某些人利用甚至濫用,來制造生物武器。另外,他還對特朗普政府不愿加強對 AI 進行相應的監(jiān)管表示遺憾,并認為中國對這一威脅更為重視。
「我們不知道會發(fā)生什么,我們毫無頭緒,那些告訴你會發(fā)生什么的人簡直是愚蠢至極,」辛頓說道,「我們正處于歷史的轉(zhuǎn)折點,一些令人驚嘆的事情正在發(fā)生,它可能是驚人的好,也可能是驚人的壞。我們可以做出猜測,但事情不會一直這樣下去?!?/p>
而今年 6 月份的時候,辛頓在一次采訪時也提及了 AI 可能帶來的威脅,并認為自己沒有更早一些認識到 AI 的隱患。
他表示,自己對某些風險的認知其實相當遲鈍,比如人類會將 AI 用于制造自主性致命武器,即那些能自行決定殺戮對象的機器。而其他風險,比如 AI 有天會超越人類智慧甚至使我們變得無足輕重等,這類可能性他都遲遲未能察覺,直到幾年前才真正認識到這個迫在眉睫的威脅。而有些人可能早在二十年前就有人意識到這點。
「二三十年前的神經(jīng)網(wǎng)絡還非常原始,它們在視覺處理語言與語音識別等領(lǐng)域方面的能力遠遜于人類。當時若說要擔心它們超越人類智慧簡直是無稽之談?!?/p>
這種認知改變的轉(zhuǎn)折點,從大眾層面來說是 ChatGPT 的爆發(fā),而于他個人而言,是當他開始意識到數(shù)字智能擁有某種遠超生物智能的特質(zhì)之后。
而在這次采訪中,談及人類該如何應對或盡可能克服AI的一些風險時,辛頓舉了一個例子。
「當(AI)助手比你聰明得多時,你該如何保持那種權(quán)力(控制力)?我們知道只有一個例子是更智能的存在被遠不如其智能的存在所控制,那就是母親和嬰兒…… 如果嬰兒不能控制他們的母親,他們就會死?!?/p>
因此,辛頓認為,人類「唯一的希望」是通過工程設(shè)計讓 AI 成為我們的母親,「因為母親非常關(guān)心嬰兒,保護嬰兒的生命」及其發(fā)展。
「這才是我們應該追求的那種關(guān)系?!?/p>
https://www.businessinsider.com/geoffrey-hinton-ai-girlfriend-breakup-chatgpt-openai-2025-9
https://www.ft.com/content/31feb335-4945-475e-baaa-3b880d9cf8ce
https://fortune.com/2025/09/06/godfather-of-ai-geoffrey-hinton-massive-unemployment-soaring-profits-capitalist-system/?utm_content=socialShare_off&utm_medium=x&utm_campaign=social_share
https://www.youtube.com/watch?v=giT0ytynSqg