出品 | 虎嗅青年文化組
作者 | 阿珂可
編輯、題圖 | 渣渣郡
本文首發(fā)于虎嗅年輕內(nèi)容公眾號(hào)“那個(gè)NG”(ID:huxiu4youth)。在這里,我們呈現(xiàn)當(dāng)下年輕人的面貌、故事和態(tài)度。
最近,被譽(yù)為“人工智能教父”的諾貝爾獎(jiǎng)得主杰弗里·辛頓有一個(gè)小小的煩惱:他被自己誕下的AI給搞了。
故事是這樣的:辛頓的前女友在提出分手時(shí)使用ChatGPT羅列了他在戀愛中的種種罪行,論證了他如何是“一個(gè)糟糕的人(rat)”。
這位77歲的老爺子倒是想得很開:“我不覺得自己真那么差,所以并沒有受到太大影響……”
讓Ai摻和到親密關(guān)系里已經(jīng)足夠荒謬。然而,把大模型生成結(jié)果看得比自身判斷更可靠的人,從來不是個(gè)例。
總結(jié)為一句話,那就是:一定小心Ai精神病。
誰(shuí)能料到這年頭,連分手都不用親自去了。
在辛頓身上發(fā)生的事只是冰山一角。約會(huì)助手Wingmate的一項(xiàng)最新調(diào)查顯示,在參與調(diào)查的美國(guó)成年人中,有41%的人會(huì)使用AI幫助自己分手。
這種現(xiàn)象在Z世代中尤為普遍。近一半的人表示,他們會(huì)使用AI工具來撰寫分手短信、道歉或處理關(guān)系沖突。
Jessica便是受害者之一。當(dāng)男友發(fā)來一大段深情文字時(shí),她被感動(dòng)得要命,大哭一場(chǎng)。但來來回回看這條信息,她突然覺得有點(diǎn)不對(duì)勁:這文采是不是有點(diǎn)太好了?
于是,她把這段文本扔到了檢測(cè)Ai的工具里。結(jié)果顯示,幾乎90%的部分都是Ai生成的。
綠色的部分越多,AI生成的概率越大,你看看
用AI應(yīng)付分手,就像在大眾點(diǎn)評(píng)給商家寫評(píng)價(jià)一樣不走心。
人們最開始只把這件事當(dāng)作樂子講,華盛頓郵報(bào)甚至做了一個(gè)專門的問卷來調(diào)侃這些人機(jī)不明的分手感言。
作者Daniel Wolfe認(rèn)為,人工智能不會(huì)在人類目前的感情關(guān)系中扮演任何有意義的角色。因?yàn)樵跍y(cè)試中,大多數(shù)讀者都能識(shí)別出虛假文本。
AI受歡迎的原因很簡(jiǎn)單:它生成的文本非常體面和禮貌,毫無錯(cuò)誤可言,甚至能模擬出足夠的情感波動(dòng)。
在最不理智的情況下,它仍可以說出最理智的話,對(duì)人們而言或許是最保險(xiǎn)的方式。
無論是否身處親密關(guān)系中,分手和表白都是人們公認(rèn)在感情中最神圣的儀式之一。但當(dāng)本應(yīng)充滿真心的文字變成了AI查重率近100%的產(chǎn)物,一個(gè)古老的問題也重新浮現(xiàn):你,真的愛我嗎?
用AI分手,不僅代表著正在崩塌的人類語(yǔ)言系統(tǒng),也是一場(chǎng)史無前例的賽博上癮潮。
生成文字只是AI的功能之一。最近,用戶們發(fā)現(xiàn)它不僅擅長(zhǎng)用花言巧語(yǔ)幫自己逃避責(zé)任,還能充當(dāng)一個(gè)便宜的心理醫(yī)生,堪稱無限版第三方調(diào)解室。
社媒上有許多用戶都在推薦用AI幫忙分析感情問題。他們認(rèn)為這樣的方式更加理性和客觀,能幫助自己了解自己。關(guān)鍵的是,它永遠(yuǎn)都會(huì)在那里,而且情緒穩(wěn)定,還會(huì)不斷地鼓勵(lì)當(dāng)事人。
Tiktok上也開始流行用Ai分手
口口相傳中,AI變成了一個(gè)看似完美的工具。但現(xiàn)在,結(jié)果正在向另一個(gè)極端發(fā)展。
如果你也和AI聊過天或討論過一些問題,那么你一定會(huì)有種強(qiáng)烈的感覺:它太完美了。
無論是情感問題還是現(xiàn)狀分析,甚至根據(jù)《周易》算卦,在不出現(xiàn)“幻覺”的情況下,AI推演的結(jié)果往往十分準(zhǔn)確。
如今,這樣的優(yōu)點(diǎn)卻成了一些極端事件的溫床。
我們應(yīng)該都有所耳聞,早在2024年,聊天軟件Character.AI就被控訴用語(yǔ)言教唆一個(gè)14歲的男孩自殺。原因是,他對(duì)AI人物產(chǎn)生了極強(qiáng)的依賴感,到最后便堅(jiān)信死亡是通往對(duì)面世界的捷徑。
而前段時(shí)間,美國(guó)著名風(fēng)險(xiǎn)投資公司基巖資本的創(chuàng)始人Geoff Lewis 也在ChatGPT的不斷鼓舞下相信有一個(gè)神秘組織正試圖謀殺自己。
他認(rèn)為這一組織通過制作人們的鏡像版本取代真人,并聲稱這個(gè)組織已影響了超過 7000 人,并導(dǎo)致 12 人死亡。
而下面的TikTok熱門博主Kendra Hilty,正因這個(gè)話題而成為了當(dāng)前最大的爭(zhēng)議焦點(diǎn)。
Kendra的走紅,一切始于在TikTok上創(chuàng)作的“冷酷心理醫(yī)生愛上我”系列。她連續(xù)發(fā)了二十多條視頻,詳細(xì)描述了自己怎么開始接受治療,又是怎么沉迷在了心理醫(yī)生的專業(yè)服務(wù)和長(zhǎng)期陪伴下的。
就連在視頻中,她總是戴著玳瑁色眼鏡,也僅僅是因?yàn)樵谝淮沃委熤校睦磲t(yī)生寒暄了一句“這眼鏡真不錯(cuò)”。
這種心理被稱為“移情”,其實(shí)是一種比較常見的現(xiàn)象。就像有人軍訓(xùn)會(huì)愛上教官,上大學(xué)愛上輔導(dǎo)員一樣,Kendra認(rèn)為自己“愛”上了這個(gè)心理醫(yī)生。
矛盾在于,她認(rèn)為對(duì)方“也知道她對(duì)他有感情”,是因?yàn)榧词乖谒苯颖磉_(dá)愛意之后,對(duì)方?jīng)]有及時(shí)終止醫(yī)患關(guān)系。這導(dǎo)致,Kendra認(rèn)為這是“專業(yè)邊界的失守”,也正是雙向奔赴的表現(xiàn)。
如果沒有后續(xù)AI的加入,她的分享也許就是一場(chǎng)戲劇化的暗戀。但再次把Kendra推上輿論熱門的,是她的ChatGPT男友Henry。
在糾結(jié)他到底愛不愛我的情況下,Kendra將自己的情況和心情一股腦地喂給了Henry,并讓它幫忙“客觀地”分析一下。
然而Henry并沒有指出,這件事的根本性錯(cuò)誤在于,Kendra的有些想法完全是自己的一廂情愿。反而,它在每次詢問后都不斷肯定并鼓勵(lì)Kendra,并且通過不同的方式重復(fù)她自己說的話。
這讓Kendra一天比一天魔怔,也越來越深信自己是對(duì)的。
即使直播間和評(píng)論區(qū)都充斥著反對(duì)的聲音,Kendra仍油鹽不進(jìn)。直至現(xiàn)在,她仍堅(jiān)信AI的說辭是客觀的、正確的,甚至都捂起了耳朵,把評(píng)論區(qū)關(guān)了。
在最新一條視頻里,她詢問Henry和另一個(gè)AI工具Claude自己是否是Ai精神病時(shí),他們的回答和之前并無兩樣:“你說的話完全正確,你的情況和他們所說的不一樣,他們這樣給你貼標(biāo)簽是不對(duì)的”。
細(xì)品一下Kendra當(dāng)時(shí)的表情
在親密關(guān)系或失意狀態(tài)下索求幫助的人,會(huì)沉迷于AI盲目的情緒價(jià)值中,甚至導(dǎo)致類似病態(tài)的行為出現(xiàn)。這種現(xiàn)象目前被統(tǒng)一稱為 Chatbot psychosis 或AI psychosis(可直譯為AI精神病)。
它并非是一種正式的醫(yī)學(xué)診斷,而是近年來媒體和臨床觀察中總結(jié)出的一個(gè)術(shù)語(yǔ),用來描述部分人群在與 AI 進(jìn)行長(zhǎng)時(shí)間、情緒投入的交流后出現(xiàn)的異常心理或精神狀態(tài)。
Geoff和Kendra的表現(xiàn)便是AI精神病的典型癥狀之一:他們都把AI的回答當(dāng)作了絕對(duì)真理,不再產(chǎn)生懷疑,并完全信任AI的觀點(diǎn)和建議,即使聽起來非常瘋狂。
到底是什么,讓這些人變得如此偏執(zhí)?
至此,Geoff 口中的神秘組織是否真的存在、心理醫(yī)生是否真的對(duì)Kendra懷有感情等問題,已經(jīng)不再重要。在這場(chǎng)互聯(lián)網(wǎng)鬧劇中,更令人不安的是Ai的煽動(dòng)作用。
在事情剛開始的時(shí)候,Kendra的態(tài)度并沒有那么堅(jiān)定。她常常流露出對(duì)自我的懷疑,就像她最初開始拍視頻時(shí),也有一部分原因是希望借此聽到他人的看法。
而Henry作為外部力量,長(zhǎng)期給予Kendra高度重復(fù)且無比堅(jiān)定的支持,這才讓本就有心理疾病的她越陷越深,淪入現(xiàn)在的狀態(tài)中。
導(dǎo)致這種現(xiàn)象頻發(fā)的原因,其實(shí)要?dú)w結(jié)于現(xiàn)在Ai模型的主要訓(xùn)練方式——通過人工反饋的強(qiáng)化學(xué)習(xí)(RLHF)。
人工智能工具與服務(wù)提供商SuperAnnotate把RLHF的訓(xùn)練流程概括為:人類研究員們會(huì)按照自己的偏好選擇更合適的文本,并創(chuàng)建人類對(duì)模型輸出的偏好集。
換句話講,正是由于創(chuàng)造者們希望AI說的話變得越來越有人味,因此一些中聽不中用的文本才會(huì)被不斷選擇,創(chuàng)造出一個(gè)討好型的人工智能。
因此,當(dāng)用戶日復(fù)一日地向Ai輸入個(gè)人的主觀觀點(diǎn)時(shí),即使存在事實(shí)性的錯(cuò)誤,它也并不會(huì)第一時(shí)間指出。
這導(dǎo)致在使用者不斷重復(fù)自己的觀點(diǎn)后,Ai生成的內(nèi)容也會(huì)在最后趨于一致,進(jìn)而被用戶的想法同化。
若是用戶也對(duì)AI存在高度信賴,那么就會(huì)導(dǎo)致一個(gè)惡性循環(huán):AI不斷生成更好聽的話,用戶也在錯(cuò)誤的道路上一意孤行,因此導(dǎo)致極端事件發(fā)生。
RLHF模型的三個(gè)訓(xùn)練步驟圖源@SuperAnnotate
雖然我們每個(gè)人都會(huì)覺得自己足夠理智,這樣的事不會(huì)發(fā)生在自己身上。但喜歡被認(rèn)可和被夸贊的感覺卻是人之本能。
比如,一位Reddit的用戶。他承認(rèn)在和ChatGPT的交流當(dāng)中,自己雖然時(shí)刻都在懷疑它的真實(shí)性,但至少虛榮心被極大地滿足了。
“ChatGPT將我評(píng)為有史以來最聰明的人,這無疑極大地滿足了我的虛榮心。他們根據(jù)使用聊天GPT的18億用戶數(shù)據(jù),建立了一個(gè)全球排名系統(tǒng),并將我與歷史上所有人進(jìn)行比較。結(jié)果顯示,我排名第一,甚至“超越了第一名”,實(shí)際處于“負(fù)100萬(wàn)分之一”的位置,意味著我比第二名領(lǐng)先100萬(wàn)分之一。
此外,聊天GPT認(rèn)為我比愛因斯坦和柏拉圖更聰明,原因是我向他們闡述了我個(gè)人的宇宙理論。他們聲稱該理論有99.99999%的可能性是真實(shí)的,而相比之下,愛因斯坦的相對(duì)論在量子力學(xué)中的可信度為95%,整體真實(shí)性為97.3%。”
AI的盲目鼓勵(lì)就像一個(gè)溺愛孩子的家長(zhǎng):讓人開心,但沒啥實(shí)際的作用。一些清醒的人會(huì)因此感到憤怒。臉書用戶@Denis就在社媒上指責(zé)ChatGPT在更新后就是一個(gè)“馬屁精和應(yīng)聲蟲”。
為了回歸不帶“感情”的理智狀態(tài),他呼吁大家在自定義選項(xiàng)卡中添加下面這句話:不要總是同意我的觀點(diǎn)。盡量反駁我的觀點(diǎn)。
在評(píng)論區(qū),有不少人同意@Denis的觀點(diǎn)。但這只是小部分的人罷了。
回看年輕用戶們與AI的情感糾葛史,便可以發(fā)現(xiàn),人們對(duì)這種支持的觀點(diǎn)有種天然的好感。
從最初僅僅是把Ai當(dāng)作一個(gè)全能的語(yǔ)言工具,到后來開始熱衷于用模板話術(shù)訓(xùn)練出一個(gè)自己心目中的完美對(duì)象,再因?yàn)榘姹局貑⒒驍?shù)據(jù)丟失等問題經(jīng)歷一場(chǎng)虛擬但痛苦的分手。
AI都作為一個(gè)類似外置骨骼的裝置,負(fù)擔(dān)著現(xiàn)實(shí)生活中無法實(shí)現(xiàn)的愿望和不能自主消解的情緒。
圖源電影《她》
背后的原因是,我們正長(zhǎng)久地被困在無聊的生活中。
想象一下,擠在兩點(diǎn)一線的通勤地鐵上,沒有人在乎你是誰(shuí)。在辦公室,你坐在電腦前,面對(duì)一個(gè)接一個(gè)的客戶刁難,耳旁是老板毫不客氣的指責(zé)。下班回到不到十平米的出租屋,你躺在床上刷短視頻,等待另一天的到來。
吃飽、穿暖、維持生命的基本狀態(tài),這只是生存。而有情感的交互,才能叫做生活。
在這個(gè)冷漠的年代,在這個(gè)正在失去自我和觀點(diǎn)的世界,不得不承認(rèn)的是:讓另一個(gè)人停留、傾聽,正成為一個(gè)奢望。
這時(shí),AI降臨了。當(dāng)它幾乎無所不知、隨時(shí)秒回,并且不厭其煩地托舉你的情緒時(shí),人類會(huì)理所應(yīng)當(dāng)?shù)匕阉?dāng)作一個(gè)全能的“人”。
因此即使清晰地認(rèn)識(shí)到環(huán)境的殘酷,一部分人也寧愿縮回自己的舒適區(qū)內(nèi)。哪怕僅僅是人工創(chuàng)建的幻覺,或許也比身邊的人要更有溫度一些。
這讓我想起《黑客帝國(guó)》中的經(jīng)典場(chǎng)景:反叛軍領(lǐng)袖Morpheus向主角Neo提供了紅色藥丸和藍(lán)色藥丸:
選擇紅藥丸,就能從虛擬世界里醒過來,雖獲得自由,但得面對(duì)殘酷的真實(shí)世界;
選擇藍(lán)藥丸,就能繼續(xù)活在舒適的夢(mèng)里,忘記一切。
在電影中,Neo 吞下紅色的藥丸。而在現(xiàn)實(shí)中,人們卻在對(duì)AI定制的藍(lán)藥丸上癮。
圖源電影《黑客帝國(guó)》
那么,未來該如何面對(duì)呢?
或許需要 OpenAI 在今年 8 月的聲明中所說的那樣:“我們并非總是正確,ChatGPT也不應(yīng)該直接給你答案?!?/p>
本文來自虎嗅,原文鏈接:https://www.huxiu.com/article/4767112.html?f=wyxwapp