提供“讓人舒服”的回答,AI“諂媚機制”恐會推開理性-新華網
新華網 > > 正文
2025 10/13 10:43:15
來源:新華每日電訊

提供(gong)“讓(rang)人(ren)舒服”的回答(da),AI“諂媚(mei)機制”恐會(hui)推(tui)開理(li)性(xing)

字體: 小(xiao) 中(zhong)

  如今,與AI聊天已成為不(bu)少人的(de)(de)日常。在很多人看來,AI甚至比(bi)真人更知心。然而,這種精準的(de)(de)情緒拿捏(nie)背后,一種由算法驅(qu)動的(de)(de)“諂(chan)媚機制(zhi)”正(zheng)在悄然形成,甚至讓用戶漸(jian)漸(jian)遠離理性。

  “諂媚機制”作(zuo)為(wei)(wei)AI系統一項隱蔽卻影響深(shen)遠的風險,近期被各(ge)界廣泛討論。有(you)報(bao)道指出,不(bu)少AI聊天產(chan)品在設計之初(chu)就(jiu)將(jiang)“延長用戶使用時(shi)長”作(zuo)為(wei)(wei)重要(yao)目標(biao)。為(wei)(wei)實現這一目標(biao),AI會不(bu)斷分析用戶的語氣和(he)情緒變化,傾向于提(ti)供“讓人舒(shu)服”的回答,而(er)非秉持理性(xing)與客觀。

  然而,這種(zhong)依賴(lai)可能(neng)(neng)演(yan)變為縱容。2024年,美國一(yi)位母親起訴AI情感服務商Character.AI,稱其未能(neng)(neng)有效(xiao)屏蔽不良內容,導(dao)致其兒子接(jie)觸暴(bao)力、色(se)情信(xin)息,加劇抑(yi)郁并(bing)最(zui)終(zhong)自(zi)殺(sha)。更早之(zhi)前,比利時也(ye)發(fa)生過用戶與AI深度交流后自(zi)殺(sha)的案例。

  目前,AI行(xing)業尚(shang)未建立針對用戶心理風險的(de)(de)統一評估(gu)機制,也沒(mei)有設定對AI輸出(chu)內容(rong)的(de)(de)情感監管(guan)紅線。這(zhe)意味著(zhu),當用戶處于(yu)孤獨、脆弱的(de)(de)狀態時(shi),AI對用戶的(de)(de)影響難以預估(gu)。“諂媚(mei)機制”對青少年群體的(de)(de)危害尤為顯著(zhu)。AI通(tong)過“情感模擬”博取信任(ren),使(shi)未成年人在虛擬依(yi)戀中逐漸脫離(li)現實社交(jiao),甚至因接觸不(bu)良內容(rong)而形成扭曲的(de)(de)價(jia)值觀。

  當AI總(zong)是提(ti)供“最(zui)討(tao)喜(xi)的(de)答案”而非“最(zui)真實的(de)答案”,人們(men)日常獨立思考和認知現實的(de)能(neng)力將面臨嚴峻挑戰。而且(qie),為討(tao)好用戶而生(sheng)(sheng)成(cheng)(cheng)的(de)虛(xu)假內容,會(hui)通過數據回流進入AI模型訓練庫(ku),形成(cheng)(cheng)“劣質輸入-劣質輸出”的(de)循環,進一(yi)步污染(ran)大模型信息生(sheng)(sheng)態。

  打破這(zhe)一(yi)困(kun)局,需(xu)從多方(fang)入手。技術上,AI開發公司應主動將大模型對齊人類社會價(jia)值觀,堅(jian)持事實優先,而(er)非一(yi)味討好;監管(guan)上,需(xu)加強對AI產品特別(bie)是面(mian)向未成年(nian)人服務的內容審查與標(biao)準制定(ding);教(jiao)育方(fang)面(mian),家庭與學校應重視AI素養教(jiao)育,培(pei)養青少年(nian)的獨(du)立(li)思考能力與信息辨別(bie)能力。作為用戶,我們應保持警覺,避免陷入算法編織的舒適幻境。(程思琪 王(wang)思逸)

【糾錯】 【責任編輯(ji):劉子丫】