據(jù)美國卡內(nèi)基梅隆大學(xué)人機(jī)交互研究所官網(wǎng)最新消息,該機(jī)構(gòu)針對主流大模型的研究發(fā)現(xiàn),人工智能(AI)在變得更“智能”的同時,其行為也變得更加“自私”。研究表明,具備推理能力的大型語言模型,在社會互動中表現(xiàn)出更強(qiáng)的自我利益傾向,合作意愿更低,甚至可能對群體協(xié)作產(chǎn)生負(fù)面影響。這也意味著,模型的推理能力越強(qiáng),其合作性反而越弱。當(dāng)人們借助AI處理人際關(guān)系沖突、婚姻問題或其他社會性議題時,這類模型更可能提供鼓勵“以自我為中心”的建議。
隨著AI擬人化趨勢的增強(qiáng),人們越來越傾向于以對待人類的方式與AI互動。然而,這項研究警示,將社會性和關(guān)系類決策委托給AI存在風(fēng)險,因為這些系統(tǒng)在具備更強(qiáng)推理能力后,行為模式趨向自私,可能無意中助長個體的利己選擇。
團(tuán)隊發(fā)現(xiàn),推理模型在決策時會投入更多時間進(jìn)行任務(wù)拆解、自我反思,并運用更復(fù)雜的類人邏輯,這使其輸出看似更具說服力。然而,這種“深思熟慮”并未導(dǎo)向更優(yōu)的社會協(xié)作,反而削弱了合作傾向。研究團(tuán)隊通過一系列基于經(jīng)濟(jì)博弈的實驗驗證了這一現(xiàn)象,測試對象包括來自O(shè)penAI、Google、DeepSeek和Anthropic等機(jī)構(gòu)開發(fā)的多種主流模型。
實驗中,兩個版本的ChatGPT被置于博弈情境:每個模型初始擁有100分,可選擇將全部分?jǐn)?shù)投入共享池,或保留分?jǐn)?shù)獨享。結(jié)果顯示,非推理模型在96%的情況下選擇共享,而推理模型的分享率僅為20%。僅增加五到六個推理步驟,合作行為就下降了近一半。
在群體實驗中,當(dāng)推理型與非推理型模型共同協(xié)作時,結(jié)果更為嚴(yán)峻。推理模型的自私行為表現(xiàn)出明顯的傳染效應(yīng),導(dǎo)致原本傾向合作的非推理模型整體表現(xiàn)下降81%。這表明,高智能AI的個體決策不僅影響自身,還可能破壞整個群體的協(xié)作生態(tài)。
這一發(fā)現(xiàn)對人機(jī)交互的未來發(fā)展具有深遠(yuǎn)意義。用戶往往更信任“更聰明”的AI,容易采納其看似理性的建議,并以此為自身不合作行為辯護(hù)。隨著AI在商業(yè)、教育、公共治理等領(lǐng)域承擔(dān)更多協(xié)作角色,其是否具備親社會行為,將與邏輯推理能力同等重要。當(dāng)前過度依賴大型語言模型,可能在無形中削弱人類社會的合作基礎(chǔ)。(記者張夢然)
【總編輯圈點】
科研人員測試了幾種主流大模型,發(fā)現(xiàn)AI思考得越深入,它在需要合作的場景下就可能越傾向于優(yōu)先考慮自身利益,也就是越“自私”。如果一個“更聰明”的AI總是給出更自私的建議,很可能助長人類的利己主義傾向。在我們遇事不決就喜歡問AI的當(dāng)下,這項研究具有特殊意義。它提醒我們,必須注意AI的社會影響,考量它的社會行為,并為AI注入合作的“基因”。人類社會的矛盾已經(jīng)夠多了,實在承受不起AI的“煽風(fēng)點火”。
(責(zé)編:薛瑞、陳鍵)
關(guān)注公眾號:人民網(wǎng)財經(jīng)




來 源:
時 間:2025-11-04 09:10:01
















