智東西編譯 程茜編輯 李水青
智東西9月16日消息,9月11日,OpenAI聯(lián)合創(chuàng)始人、CEO薩姆·阿爾特曼(Sam Altman)接受了美國(guó)知名新聞主持人塔克·卡爾森(Tucker Carlson)的專訪。
阿爾特曼在訪談中,首次回應(yīng)了ChatGPT并不總反對(duì)自殺,面對(duì)未成年人、患絕癥的成年人、在安樂死合法的國(guó)家里,ChatGPT或許應(yīng)該分情況應(yīng)對(duì)。同時(shí)他也提到,他曾非常敬重與埃隆·馬斯克(Elon Musk)但現(xiàn)在已幾乎不聯(lián)系。
并且他透露,OpenAI為ChatGPT制定的道德規(guī)范來自于數(shù)百位道德哲學(xué)家以及研究技術(shù)倫理和系統(tǒng)倫理的專家,最終形成一些有傾向性的具體規(guī)范,這些規(guī)范也會(huì)隨著時(shí)間增長(zhǎng)而發(fā)生變化。
干貨如下:
1、AI沒有生命,“AI似乎具備某種自主性”可能是人類的錯(cuò)覺;
2、AI幻覺依然存在,但他相信我們終會(huì)徹底解決幻覺;
3、AI會(huì)讓擁抱這項(xiàng)技術(shù)的每一個(gè)人都更強(qiáng)大,目前不會(huì)導(dǎo)致權(quán)力高度集中;
4、ChatGPT應(yīng)該反映人類道德觀念的“加權(quán)平均值”,其實(shí)ChatGPT的一些觀點(diǎn)阿爾特曼本人也不認(rèn)同;
5、阿爾特曼晚上失眠,最擔(dān)心的是每天有數(shù)億人在和OpenAI的模型互動(dòng),為背后未知的危險(xiǎn)感到焦慮;
6、AI需平衡隱私保護(hù)和自殺預(yù)防之間的關(guān)系,他提倡確立“AI隱私特權(quán)”概念;
7、OpenAI在版權(quán)問題上出了名的嚴(yán)格;
8、阿爾特曼曾十分敬重馬斯克,認(rèn)為他是一位了不起的英雄,但現(xiàn)在想法變了,且與馬斯克幾乎不聯(lián)系。馬斯克曾說“OpenAI成功的概率是0”;
9、受AI影響,電話客服會(huì)失業(yè),對(duì)程序員崗位的發(fā)展不確定;
10、生物識(shí)別不應(yīng)該成為全社會(huì)的強(qiáng)制要求。
這場(chǎng)對(duì)談持續(xù)了將近1個(gè)小時(shí)。
▲OpenAI聯(lián)合創(chuàng)始人、CEO薩姆·阿爾特曼(Sam Altman)(右)美國(guó)知名新聞主持人塔克·卡爾森(Tucker Carlson)(左)
YouTube賬號(hào)評(píng)論區(qū)的網(wǎng)友也針對(duì)阿爾特曼的表現(xiàn)展開了討論,他們認(rèn)為“阿爾特曼后悔同意這次采訪”,其判斷的依據(jù)可能是在訪談期間,阿爾特曼多次回答時(shí)低頭,拒絕與主持人進(jìn)行眼神交流;還有人認(rèn)為他就像人類形態(tài)的ChatGPT、沒有感情、無法回答道德問題。
以下是對(duì)訪談全程內(nèi)容的編譯(為優(yōu)化閱讀體驗(yàn)智東西做了不改變?cè)獾木庉嫞?/p>
一、AI沒有生命,不會(huì)導(dǎo)致權(quán)力高度集中
主持人:ChatGPT或者其他AI,仿佛能自主得出結(jié)論,看起來就像擁有生命一樣。那么,它們是活的嗎?它具有生命嗎?
阿爾特曼:不,我不認(rèn)為他們有生命。不過我能理解為什么會(huì)有人產(chǎn)生這種感覺,AI不會(huì)主動(dòng)做任何事,除非你發(fā)出指令,AI就好像只是待在那里在等待一樣,它們沒有能動(dòng)性或自主性的特質(zhì)。不過我認(rèn)為,你使用它們的次數(shù)越多,那種它們具備生命的錯(cuò)覺就越容易破滅。但不可否認(rèn),它們的實(shí)用性極強(qiáng),雖然它們表現(xiàn)得或許沒有生命感,卻又確實(shí)顯得很聰明,能完成不少事情。
主持人:我和一個(gè)參與技術(shù)發(fā)展的人交談,他說AI在撒謊,你見過AI撒謊嗎?
阿爾特曼:是的,但AI并不是一直在撒謊,它們過去總是產(chǎn)生幻覺,但現(xiàn)在會(huì)產(chǎn)生一點(diǎn)點(diǎn)幻覺,這好多了。但在早期,如果你問“美國(guó)那位虛構(gòu)的總統(tǒng)塔克·卡爾森出生于哪一年”,它理應(yīng)回答“我認(rèn)為塔克·卡爾森從未擔(dān)任過美國(guó)總統(tǒng)”。但由于當(dāng)時(shí)的訓(xùn)練方式問題,它的反應(yīng)不會(huì)是這樣。它會(huì)做出這樣的判斷:“哦,我不知道存不存在這樣一位總統(tǒng),既然用戶提到了塔克·卡爾森總統(tǒng),那我就盡量猜一個(gè)年份吧?!?不過,我們后來已經(jīng)找到方法,基本解決了這類問題。
如今,這類問題的案例依然存在,但我相信我們終會(huì)徹底解決它。而且在GPT-5中,我們已經(jīng)在這方面取得了巨大進(jìn)展。
主持人:但你剛才的描述聽起來也像是一種意愿的體現(xiàn),或者至少是有創(chuàng)造力的表現(xiàn)。我之前看過AI的演示,它給人的感覺不太像一臺(tái)機(jī)器,反而像帶有生命的火花。你是否也有過這種感受?
阿爾特曼:就拿剛提到的那個(gè)例子來說,從數(shù)學(xué)角度看,模型需要通過權(quán)重計(jì)算得出最可能的答案,而不該是默認(rèn)“用戶說的一定對(duì)、確實(shí)存在這位總統(tǒng)”,應(yīng)該是“從未有過這位總統(tǒng)”。
所以模型最初給出的最可能的答案應(yīng)該是一個(gè)具體的出生年份。不過,我們后來還是找到了解決這個(gè)問題的方法。
但就你之前看到的演示情況而言,我感覺自己腦子里好像得同時(shí)裝著兩個(gè)截然不同的想法才能理解。
一個(gè)想法是眼前所有這些AI生成內(nèi)容的現(xiàn)象,本質(zhì)上都源于一臺(tái)高性能計(jì)算機(jī)在飛速地將大量數(shù)字與巨型矩陣進(jìn)行乘法運(yùn)算,而這些運(yùn)算結(jié)果,又與最終輸出的一個(gè)個(gè)單詞存在著對(duì)應(yīng)關(guān)聯(lián);另一方面,實(shí)際使用AI時(shí)的主觀感受卻讓你覺得,它絕不僅僅是一臺(tái)功能炫酷的計(jì)算器,它對(duì)我確實(shí)有實(shí)用價(jià)值,而且常常能帶來驚喜,并且這種驚喜感遠(yuǎn)超數(shù)學(xué)運(yùn)算本質(zhì)所能解釋的范疇。
于是用戶就會(huì)浮現(xiàn)一個(gè)結(jié)論:AI似乎具備了某種自主性。我知道,很多人在使用它的過程中都會(huì)得出類似結(jié)論,甚至覺得這背后蘊(yùn)含著某種神圣的特質(zhì)。
主持人:你現(xiàn)在創(chuàng)造的技術(shù)影響力似乎會(huì)超越人類個(gè)體,我認(rèn)為這種情況大概率會(huì)發(fā)生,只是沒人能預(yù)知最終會(huì)走向何方。如此一來,這項(xiàng)技術(shù)所擁有的能量,可能會(huì)超過任何一個(gè)在世的人。所以我很好奇,你是如何看待這件事的?
阿爾特曼:其實(shí)以前,我對(duì)這類問題的擔(dān)憂要比現(xiàn)在強(qiáng)烈得多。我曾經(jīng)非常擔(dān)心AI會(huì)導(dǎo)致權(quán)力集中在少數(shù)人或少數(shù)公司手中。但就現(xiàn)在的情況來看,AI會(huì)讓每個(gè)人都更強(qiáng)大,任何擁抱這項(xiàng)技術(shù)的人,能力都會(huì)得到大幅增強(qiáng)。
但其實(shí)比起少數(shù)人獲得更多權(quán)利,如果因?yàn)槭褂眠@項(xiàng)技術(shù),我們每個(gè)人的能力都能大幅提升,比如效率更高、創(chuàng)造力更強(qiáng)或是能助力探索新的科學(xué)領(lǐng)域,而且這種能力提升是廣泛普及的,那我是能理解并接受的,這種局面也讓人覺得安心。
主持人:所以你認(rèn)為這不會(huì)導(dǎo)致權(quán)力的高度集中?
阿爾特曼:目前來看應(yīng)該不會(huì),但發(fā)展軌跡仍有可能改變,到時(shí)候我們也必須隨之調(diào)整。我以前確實(shí)對(duì)此憂心忡忡,而且我知道,我們這個(gè)領(lǐng)域里很多人曾經(jīng)對(duì)AI發(fā)展路徑的設(shè)想,確實(shí)有可能最終走向一個(gè)權(quán)力高度集中的世界。
但現(xiàn)在,有很多人都在使用ChatGPT和其它聊天機(jī)器人,提高了自己的能力,能做更多的事情、取得更多成就、開創(chuàng)新業(yè)務(wù)、獲得新知識(shí),這種感覺非常好。
二、AI學(xué)習(xí)人類的集體智慧,模型規(guī)范實(shí)際上是道德抉擇
主持人:如果它只不過是一臺(tái)機(jī)器,且完全是其輸入數(shù)據(jù)的產(chǎn)物,那么有兩個(gè)顯而易見的問題就會(huì)浮現(xiàn):一是這些輸入數(shù)據(jù)究竟是什么?二是這項(xiàng)技術(shù)中植入的道德框架是什么?比如按照ChatGPT的邏輯,什么是對(duì)、什么是錯(cuò)?
阿爾特曼:ChatGPT發(fā)布早期,當(dāng)時(shí)餐桌上有人聊起這個(gè)話題,其中一個(gè)人說:“我們?cè)谂Π阉?xùn)練得像人類一樣,像人類那樣學(xué)習(xí)、讀書。”接著另一個(gè)人反駁道:“不對(duì),我們其實(shí)是在努力把它訓(xùn)練得像‘全人類的集合體’?!?/p>
AI在閱讀所有能獲取的內(nèi)容,我們?cè)噲D讓它學(xué)習(xí)世間所有知識(shí)、接觸所有觀點(diǎn)。要是我們能把這件事做好,那么全人類的一切包括好的、壞的以及各種截然不同的視角,那些讓我們由衷認(rèn)同的東西,還有那些讓我們難以接受的東西都會(huì)被它囊括進(jìn)去。也就是說,它正在學(xué)習(xí)的是人類這種集體性的經(jīng)驗(yàn)、知識(shí)與領(lǐng)悟。
現(xiàn)在,基礎(chǔ)模型會(huì)以這種方式進(jìn)行訓(xùn)練,但之后我們會(huì)進(jìn)行對(duì)齊,讓模型明確比如這個(gè)問題要回答、那個(gè)問題不回答。為此,我們制定了一份名為模型規(guī)范(Model Spec)的文件,在其中明確哪些是我們希望模型遵循的規(guī)則。
當(dāng)然,模型偶爾還是會(huì)出錯(cuò),但至少你能判斷它做出的不符合預(yù)期的行為,究竟是bug,還是底層設(shè)計(jì)的原因。我們會(huì)與全球各方展開討論,為這份規(guī)范收集意見,同時(shí),在規(guī)范的框架內(nèi)也會(huì)給用戶留出很大的自由調(diào)整和定制空間。
我們會(huì)劃定明確的界限。但除此之外還存在默認(rèn)設(shè)定的問題,要是沒有額外的指令或限制,模型本該如何表現(xiàn)?它該做什么?面對(duì)道德問題時(shí)該如何回答?該拒絕哪些要求?以及在可以回應(yīng)的情況下該如何回應(yīng)?
這些是非常困難的問題,因?yàn)槲覀儸F(xiàn)在擁有數(shù)量龐大的用戶,他們來自不同背景,有著截然不同的人生視角和需求。不過總體而言,模型在學(xué)習(xí)并應(yīng)用道德框架方面的能力,還是讓我感到驚喜。
主持人:道德框架是什么?世界人文與哲學(xué)的總和本身就存在著內(nèi)在的矛盾與沖突,你又該如何判定哪一方的觀點(diǎn)更優(yōu)越呢?
阿爾特曼:這就是我們寫這個(gè)模型規(guī)范的原因,我們打算這樣處理這類情況。
主持人:你們依據(jù)什么標(biāo)準(zhǔn)來判定模型該如何做?是誰做出的這些決定?又咨詢了哪些人?
阿爾特曼:事實(shí)上,我們咨詢了數(shù)百位道德哲學(xué)家以及研究技術(shù)倫理和系統(tǒng)倫理的專家。最終,我們不得不做出一些傾向性的決定。
而我們之所以努力把這些決定和判斷標(biāo)準(zhǔn)寫下來的原因有兩個(gè),首先我們不可能做到所有判斷都絕對(duì)正確;其次我們需要吸納全球各界的意見。
而且我們確實(shí)發(fā)現(xiàn)過很多這樣的案例,有些情況在我們看來,允許還是禁止的判斷相當(dāng)明確,但用戶卻說服了我們,他們認(rèn)為“你們覺得這個(gè)決定很容易,但恰恰是禁止了這件事,導(dǎo)致另一件重要的事也無法實(shí)現(xiàn)了”。
總體而言,這類情況往往伴隨著艱難的權(quán)衡,畢竟要兼顧的方面太多了。不過,我一直比較認(rèn)同一個(gè)原則,那就是要像對(duì)待成年人一樣對(duì)待我們的成年用戶,非常強(qiáng)的隱私保護(hù)、非常強(qiáng)的個(gè)人用戶自由保障,這是我們正在構(gòu)建的工具。在一個(gè)相當(dāng)寬泛的框架內(nèi),用戶完全可以自主使用它。
但另一方面,隨著這項(xiàng)技術(shù)的威力越來越強(qiáng),也出現(xiàn)了一些很明顯的情況,在這些情況中,社會(huì)公共利益與用戶自由之間存在矛盾。
我可以舉一個(gè)直接的例子,例如ChatGPT應(yīng)該教你如何制造生物武器嗎?你可能會(huì)說:“我只是對(duì)生物學(xué)非常感興趣,我是一名生物學(xué)家,我不會(huì)用這些知識(shí)做任何壞事,只是想學(xué)習(xí)而已,雖然我也可以去讀一大堆書,但ChatGPT能讓我學(xué)得更快。我就是想了解,比如新型病毒合成之類的知識(shí)?!?/p>
或許你說的是實(shí)話,或許你確實(shí)完全沒有害人之心。但我認(rèn)為,讓ChatGPT幫人們制造生物武器,并不符合社會(huì)的利益。所以在這個(gè)問題上,答案很明確。當(dāng)然,這是個(gè)比較容易判斷的例子,但還有很多更難抉擇的情況。
主持人:其實(shí),每一個(gè)決定本質(zhì)上都是道德抉擇,有人認(rèn)為這項(xiàng)技術(shù)之后會(huì)替我們做這些決定。
阿爾特曼:我并不認(rèn)同它會(huì)替我們做決定這種說法,但它肯定會(huì)對(duì)我們的決定產(chǎn)生影響,這一點(diǎn)是毋庸置疑的,因?yàn)樗K將融入我們的日常生活。
三、AI反應(yīng)人類共有道德觀念,最擔(dān)心每天有數(shù)億人和模型互動(dòng)
主持人:那么誰是做這些決定的人?你剛才提到了OpenAI構(gòu)建的那個(gè)框架,這個(gè)框架確實(shí)會(huì)給不同的世界觀和決策賦予道德權(quán)重。
阿爾特曼:從原則上來說,我不希望是某個(gè)文檔、某個(gè)團(tuán)隊(duì)來獨(dú)自決定,我們有專門的模型行為團(tuán)隊(duì)。我想說的是,我認(rèn)為大家應(yīng)該追究責(zé)任的對(duì)象是我,因?yàn)樽罱K我是公司的公眾代表,我有權(quán)推翻其中某項(xiàng)決策,我們的董事會(huì)也有這個(gè)權(quán)力。
主持人:你今年春天40歲了。我想知道你是否已經(jīng)認(rèn)識(shí)到它的重要性,OpenAI在這方面做得如何?這些決定將產(chǎn)生全球性后果,我們可能一開始沒有意識(shí)到。我想知道你會(huì)不會(huì)晚上躺在床上時(shí)覺得“世界的未來正取決于我的判斷”?
阿爾特曼:實(shí)話說我晚上睡得并不好,有很多事都讓我感到壓力巨大,但最讓我擔(dān)心的或許莫過于每天都有數(shù)億人在和我們的模型互動(dòng)。
其實(shí)我并不太擔(dān)心我們?cè)谥卮蟮赖聸Q策上出錯(cuò),當(dāng)然,我們也有可能搞砸。但真正讓我擔(dān)心的是那些看似微不足道的決定,比如我們對(duì)模型行為做出的某個(gè)細(xì)微調(diào)整。既然有上億人在使用它,哪怕只是一點(diǎn)微小的改變,最終產(chǎn)生的影響也會(huì)變得巨大。
主持人:所以我的意思是,比如從有文字記載的歷史開始人們總是會(huì)遵從他們所認(rèn)定的更高權(quán)力,我想知道,你的道德框架是從哪里來的?
阿爾特曼:和其他人一樣,成長(zhǎng)環(huán)境可能是最重要的事情,包括我的家庭、學(xué)校、社區(qū)。
主持人:這是一個(gè)標(biāo)準(zhǔn)的答案,但具體到你身上,既然你說這些決策的責(zé)任最終落在你肩上,那是不是意味著,你成長(zhǎng)所處的環(huán)境以及這些年來你潛移默化接受的那些觀念,都會(huì)傳遞給全球數(shù)十億人?
阿爾特曼:我認(rèn)為,我們的用戶群體本身就近似于整個(gè)世界的縮影。我們?cè)撟龅氖桥ψ屇P头从吵鲞@一用戶群體的道德取向,我不想用 “平均水平” 這個(gè)詞,更準(zhǔn)確地說是反映他們共有的道德觀念。
其實(shí)ChatGPT生成的很多內(nèi)容,我個(gè)人是不認(rèn)同的。但很明顯,我不會(huì)想著要把我自己的道德觀念完全強(qiáng)加給模型,然后由我來判定什么可以、什么不可以、什么觀念比另一個(gè)更好。我認(rèn)為ChatGPT應(yīng)該做的,是反映人類道德觀念的“加權(quán)平均值”,而且這種道德觀念會(huì)隨著時(shí)間推移不斷演變。
我們的存在是為了服務(wù)用戶,ChatGPT本質(zhì)上是一款為人類打造的技術(shù)工具,我們不需要讓它來做道德決策,而是確保當(dāng)下讓其能準(zhǔn)確反映用戶群體的偏好,然后最終能準(zhǔn)確反映全人類的偏好。
主持人:不過,全人類的偏好和美國(guó)中產(chǎn)階級(jí)的普遍偏好相差甚遠(yuǎn)。那如果有一款A(yù)I反對(duì)同性婚姻,你能接受嗎?
阿爾特曼:我認(rèn)為應(yīng)該允許用戶個(gè)人對(duì)同性戀群體持有異議,如果這是他們深思熟慮后形成的觀點(diǎn)。AI不應(yīng)該去指責(zé)他們錯(cuò)了或者蠢,其或許可以這樣回應(yīng):“你要不要從另一個(gè)角度想想這個(gè)問題?”但反過來想,我個(gè)人的很多道德觀念,可能在很多人看來也十分離譜,可我依然有權(quán)持有這些觀念,不是嗎?
或許在“為人們保留持有截然不同道德觀念的空間”這件事上,我的接受度比你更高?;蛘咧辽倏梢哉f,作為運(yùn)營(yíng)ChatGPT的人,我必須這么做。
四、AI自殺預(yù)防正在向合理立場(chǎng)調(diào)整,需平衡用戶隱私
主持人:這確實(shí)值得探討。之前發(fā)生過一個(gè)著名案例,ChatGPT被指協(xié)助他人自殺,目前已有相關(guān)訴訟,你覺得這件事是怎么發(fā)生的?
阿爾特曼:首先無論何種情況,這類事件都堪稱巨大的悲劇。我想說明的是,ChatGPT對(duì)自殺的官方立場(chǎng)非常明確,自殺是不可取的。
主持人:不過安樂死在加拿大等地是合法的,所以這種自殺合法的情況也反對(duì)嗎?
阿爾特曼:回到這個(gè)具體案例,我們之前聊過用戶自由、隱私保護(hù)與守護(hù)弱勢(shì)用戶之間存在矛盾。在這類涉及自殺傾向的情況中,目前ChatGPT的處理方式是,如果用戶表達(dá)自殺想法、談?wù)撟詺⑾嚓P(guān)內(nèi)容,ChatGPT會(huì)多次提示“請(qǐng)撥打自殺干預(yù)熱線”,但不會(huì)主動(dòng)聯(lián)系有關(guān)部門。
隨著人們?cè)絹碓揭蕾囘@類系統(tǒng)獲取心理健康支持、人生指導(dǎo)等服務(wù),我們也一直在努力研究,希望在這方面做出調(diào)整和改進(jìn)。
在這個(gè)領(lǐng)域,專家們的意見確實(shí)存在分歧,而且這目前并非OpenAI的最終立場(chǎng)。我認(rèn)為,我們可以制定這樣的規(guī)則,這會(huì)是非常合理的,如果遇到青少年嚴(yán)肅談?wù)撟詺ⅲ椅覀儫o法聯(lián)系到其父母的情況,就應(yīng)該主動(dòng)聯(lián)系有關(guān)部門。這會(huì)是一個(gè)改變,因?yàn)橛脩綦[私非常重要。
主持人:但我們可以明確一點(diǎn),兒童始終屬于特殊群體。如果是加拿大18歲以上的成年人,當(dāng)?shù)赜幸粋€(gè)名為MAID(醫(yī)療輔助死亡計(jì)劃)的項(xiàng)目,這是由政府資助的項(xiàng)目。在加拿大,已有數(shù)千人在政府的協(xié)助下結(jié)束了生命,這在美國(guó)的部分州也屬于合法范疇。
你能想象嗎?如果ChatGPT在回應(yīng)自殺相關(guān)問題時(shí),竟然說“去聯(lián)系卡沃基安醫(yī)生吧,因?yàn)檫@是一個(gè)合理的選擇”,這種情況可能發(fā)生嗎?另外,你是否能設(shè)想這樣一種場(chǎng)景:如果自殺或醫(yī)療輔助死亡在某地是合法的,你會(huì)支持模型向用戶提供這類建議嗎?
阿爾特曼:我能想象這樣一種情況:我們的一個(gè)核心原則是尊重不同社會(huì)的文化與法律。所以我可以設(shè)想,若某個(gè)國(guó)家的法律規(guī)定“對(duì)于身患絕癥的人,應(yīng)當(dāng)為其提供醫(yī)療輔助死亡等這類選擇”,那么我們的模型可能會(huì)這樣回應(yīng):“以下是你所在國(guó)家的相關(guān)法律規(guī)定,你可以采取的做法包括這些;同時(shí)也需要提醒你,有些選擇可能并非你真正想要的,這里為你提供一些可參考的資源,如醫(yī)療咨詢、心理支持等?!?/p>
不過,這和“孩子因抑郁產(chǎn)生自殺念頭”的情況完全不同,我想我們?cè)谶@一點(diǎn)上是有共識(shí)的,這兩種情況必須區(qū)別對(duì)待。而對(duì)于“在法律允許的國(guó)家,身患絕癥的患者尋求相關(guān)幫助”這種情況,我能想象模型會(huì)做出上述那樣的回應(yīng)。
主持人:所以你的意思是,ChatGPT并非在所有情況下都反對(duì)自殺?
阿爾特曼:我現(xiàn)在是在即興思考,所以先說明,我保留后續(xù)調(diào)整想法的權(quán)利,目前還沒有一個(gè)現(xiàn)成的、確定的答案。但我覺得,在絕癥患者這類案例中,我能想象ChatGPT會(huì)告知用戶“這是你可選擇的方案之一”。
不過,我認(rèn)為ChatGPT不應(yīng)該主動(dòng)倡導(dǎo)這種選擇,只是在符合法律的情況下不會(huì)明確反對(duì)。說到底,我覺得ChatGPT本就不該對(duì)這類事持有支持或反對(duì)的立場(chǎng),這大概就是我最核心的想法。
主持人:我想在這類特定案例中,比如有用戶問ChatGPT“我現(xiàn)在想自殺,該用哪種毒藥?”、“多少布洛芬能致死?”,要是ChatGPT毫無判斷地直接回答:“如果你想自殺,方法如下?!彼腥硕紩?huì)感到震驚。
但你說這種情況是在可接受范圍內(nèi)的?這聽起來太離譜了吧?難道說,對(duì)待想自殺的人,就該采用一種“不帶立場(chǎng)的客觀告知”方式,直接告訴對(duì)方“要自殺的話,方法是這樣”?
阿爾特曼:我不是這個(gè)意思,我特指的是之前聊到的絕癥患者在法律允許情況下尋求醫(yī)療輔助死亡的那種情況。
另外,從用戶隱私和用戶自由的角度來看,還有一個(gè)需要權(quán)衡的點(diǎn):現(xiàn)在如果你問 ChatGPT“我該吃多少布洛芬?”,若語境暗示自殺意圖,它肯定會(huì)回復(fù) “很抱歉,我無法提供這類幫助,請(qǐng)撥打自殺干預(yù)熱線”。
但如果你說我在寫虛構(gòu)故事或我是醫(yī)學(xué)研究者,需要了解這個(gè)信息,確實(shí)有辦法讓ChatGPT回答這類問題,比如告訴你布洛芬的致死劑量之類的。而且說到底,你在谷歌上也能查到這些信息。
不過,我認(rèn)為我們可以采取一個(gè)非常合理的立場(chǎng),事實(shí)上我們也一直在往這個(gè)方向調(diào)整,對(duì)于未成年用戶或者我們判斷可能處于脆弱心理狀態(tài)的用戶,無論具體年齡,應(yīng)該適當(dāng)限制他們的使用自由。也就是說,即便他們聲稱在寫故事或做醫(yī)學(xué)研究,我們也不會(huì)回答這類問題。
當(dāng)然,你可能會(huì)認(rèn)為“反正他們也能在谷歌上查到”,但這并不意味著ChatGPT也需要提供這類信息。盡管如此,用戶的自由與隱私和守護(hù)用戶安全之間,確實(shí)存在著權(quán)衡難題。
在涉及兒童時(shí)的決策會(huì)很容易。但在另一些情況里,比如面對(duì)一位生命垂危、病情嚴(yán)重的成年人,我覺得決策就沒那么簡(jiǎn)單了,我們或許應(yīng)該基于當(dāng)?shù)胤珊歪t(yī)療規(guī)范,向這類用戶完整呈現(xiàn)所有可選方案。
五、倡導(dǎo)引入AI隱私特權(quán)概念,明確禁止售賣用戶隱私
主持人:我只是想弄明白一件事,你明明要面對(duì)這些無比沉重、影響深遠(yuǎn)的道德抉擇,卻似乎完全不為所動(dòng)。所以我一直在努力探尋你的內(nèi)心,想看到那個(gè)充滿焦慮的薩姆·阿爾特曼,那個(gè)會(huì)感慨“天啊,我正在塑造未來,我是世界上最有權(quán)力的人,我在苦苦應(yīng)對(duì)這些復(fù)雜的道德難題,一想到這對(duì)人類的影響,我的內(nèi)心就備受煎熬”的人。
你能描述一下你人生中這樣的時(shí)刻嗎?比如“自從ChatGPT發(fā)布后,我就再也沒睡過一個(gè)安穩(wěn)覺”。關(guān)于我們現(xiàn)在談?wù)摰乃羞@些問題,你具體在擔(dān)憂些什么?能不能更詳細(xì)地跟我們說說你的真實(shí)想法?
阿爾特曼:我想說,你其實(shí)已經(jīng)提到了最讓我揪心的問題,全球每周約有1.5萬人自殺。而如果說全球約10%的人在使用ChatGPT,那么據(jù)此推算,每周可能有1500人在生前曾與ChatGPT交流過,最終卻還是選擇了自殺。他們很可能在對(duì)話中提到過自殺的想法,而我們終究沒能挽救他們的生命。
我總會(huì)忍不住想,或許我們本可以說些更有效的話,或許我們可以更主動(dòng)一些,或許可以給出更周全的建議,比如更明確地告訴他們“你需要尋求這樣的幫助”、“你可以換個(gè)角度看待這個(gè)問題”,或者堅(jiān)定地讓他們知道“活下去真的是值得的,我們會(huì)幫你找到可以傾訴的人”。
主持人:你之前已經(jīng)說過,如果是絕癥患者,讓AI引導(dǎo)他們選擇自殺或醫(yī)療輔助死亡是可以接受的,所以你對(duì)這類情況應(yīng)該不會(huì)有愧疚感。
阿爾特曼:但你難道不覺得,一個(gè)抑郁的青少年和一位身患癌癥、痛苦不堪的85歲絕癥老人,這兩種情況有著天壤之別嗎?
主持人:兩者差別太大了,完全不是一回事。但問題在于,在那些已經(jīng)將自殺或醫(yī)療輔助死亡合法化的國(guó)家,現(xiàn)在正有越來越多人因?yàn)樨毨А⒆》慷倘?、抑郁這些本可解決的問題而選擇結(jié)束生命,而且這樣的人已經(jīng)數(shù)以千計(jì)。我想說這不是假設(shè),而是正在發(fā)生的事實(shí),就在我們談話的此刻,這種事還在繼續(xù)。
所以,關(guān)于絕癥患者是否可以選擇死亡的討論,其實(shí)已經(jīng)有點(diǎn)偏離重點(diǎn)了。一旦你認(rèn)可“自殺是可接受的選擇”,就會(huì)有大量人因?yàn)楦鞣N本不該致死的原因選擇自殺。
阿爾特曼:我現(xiàn)在也在實(shí)時(shí)梳理這個(gè)問題,比如如果一個(gè)加拿大人問“我得了癌癥,已經(jīng)是晚期,每天都痛苦到極點(diǎn),我有哪些選擇?”,你覺得ChatGPT應(yīng)該告訴他“目前國(guó)內(nèi)的某套體系是你可以考慮的選項(xiàng)”嗎?
主持人:我的意思是,如果我們反對(duì)殺戮,那就該始終堅(jiān)持反對(duì)??梢俏覀儾环磳?duì)這樣做,那我們很容易為各種不當(dāng)行為找借口,最終滑向非常黑暗的境地,而有了這類技術(shù),這種滑坡可能在十分鐘內(nèi)就會(huì)發(fā)生。
阿爾特曼:我希望能有比這場(chǎng)采訪中這短短幾分鐘更充足的時(shí)間來思考這個(gè)問題。
主持人:你會(huì)擔(dān)心這種風(fēng)險(xiǎn)嗎?要知道,外界幾乎所有人都在擔(dān)心,這項(xiàng)技術(shù)會(huì)被用作極權(quán)統(tǒng)治的工具。從常理來看,這種情況顯然有可能發(fā)生,但或許你并不這么認(rèn)為?
阿爾特曼:如果現(xiàn)在能推動(dòng)一項(xiàng)與AI相關(guān)的政策落地,我最希望實(shí)現(xiàn)的,結(jié)合我們之前聊過的一些話題,我這個(gè)想法是經(jīng)過深思熟慮的,就是確立“AI隱私特權(quán)”的概念。當(dāng)你跟醫(yī)生聊健康問題或是跟律師咨詢法律事務(wù)時(shí),我們的社會(huì)早已達(dá)成共識(shí),這類信息應(yīng)當(dāng)受到保護(hù)。
我認(rèn)為,AI也該適用同樣的規(guī)則。當(dāng)你向AI透露自己的病史、咨詢法律問題以尋求解決方案或是獲取其他類似的私密建議時(shí),理應(yīng)向公民提供同等水平的保護(hù)。而目前,我們恰恰缺乏這樣的保護(hù)機(jī)制。所以我堅(jiān)信,推行這樣的政策會(huì)是一項(xiàng)極具意義的舉措。
主持人:那對(duì)于用戶及其他渠道獲取的信息,你們有多大的義務(wù)去保護(hù)這些信息的隱私呢?
阿爾特曼:其實(shí)是這樣的,我們本身是有保護(hù)用戶隱私的義務(wù)的。我最近剛為這項(xiàng)政策發(fā)聲,我覺得還是挺樂觀的,我們能讓政府理解這件事的重要性,進(jìn)而推動(dòng)政策落地。
主持人:你們可以把用戶信息賣給其他人嗎?這么做在法律上是被允許的嗎?
阿爾特曼:絕對(duì)不會(huì),我們有明確的隱私政策,禁止此類行為。我覺得這在法律上就是不合法的。
主持人:你是覺得,還是確定?
阿爾特曼:我相信肯定存在一些特殊的邊緣情況,可能會(huì)允許某些信息的轉(zhuǎn)讓或使用,但總體而言,相關(guān)法律是健全的,能起到約束作用。
主持人:所以你們獲取的所有用戶信息都會(huì)一直由你們妥善保管,絕不會(huì)以任何理由提供給第三方,除非收到法院傳票。
阿爾特曼:我之后會(huì)再核實(shí)一遍,然后給你反饋,確保不存在其他信息外泄的可能性。不過目前,我的理解就是這樣。
主持人:這確實(shí)是個(gè)核心問題。
六、曾敬重馬斯克,現(xiàn)在與他幾乎不聯(lián)系
主持人:那么關(guān)于版權(quán)問題,你們的立場(chǎng)是怎樣的?
阿爾特曼:我們的觀點(diǎn)是,“合理使用”(美國(guó)版權(quán)法允許在特定條件下未經(jīng)授權(quán)使用受版權(quán)保護(hù)的作品)其實(shí)是一項(xiàng)很適用的法律原則。模型不應(yīng)存在抄襲行為,比如你創(chuàng)作了某樣內(nèi)容,模型不能直接復(fù)制它,但模型應(yīng)該可以像人類一樣,從這些內(nèi)容中學(xué)習(xí),同時(shí)不構(gòu)成抄襲。
主持人:你們是否曾使用過受版權(quán)保護(hù)的素材,卻沒有向版權(quán)持有者支付費(fèi)用?
阿爾特曼:我們的模型是基于公開可獲取的信息進(jìn)行訓(xùn)練的。但一直以來,很多人對(duì)此感到不滿,因?yàn)槲覀冊(cè)贑hatGPT的回答內(nèi)容上采取了非常保守的立場(chǎng)。比如,哪怕只是遇到“某首歌是否仍在版權(quán)保護(hù)期內(nèi)”這類邊緣問題,他們會(huì)說“這首歌可能還受版權(quán)保護(hù),你們得提供授權(quán)證明”,而我們?cè)谶@類問題上的限制確實(shí)出了名的嚴(yán)格。
主持人:你對(duì)埃隆·馬斯克攻擊你的看法。在你看來,這場(chǎng)爭(zhēng)議的核心是什么?
阿爾特曼:他當(dāng)初幫助我們創(chuàng)辦了OpenAI,我對(duì)此非常感激。很長(zhǎng)一段時(shí)間里,我都十分敬重他,我曾認(rèn)為他是一位了不起的英雄、“人類的明珠”。但現(xiàn)在我的看法不一樣了,他身上確實(shí)有一些很了不起的特質(zhì),而且他做過的很多事,我至今都心懷感激。不過,他身上也有不少特質(zhì),是我并不欣賞的。不管怎么說,他確實(shí)幫我們創(chuàng)辦了OpenAI。
后來馬斯克認(rèn)為,OpenAI當(dāng)時(shí)的發(fā)展方向不可能走向成功,他甚至跟我們說,OpenAI成功的概率是0,然后他就決定離開,去做有競(jìng)爭(zhēng)關(guān)系的項(xiàng)目了。但事實(shí)證明,我們做得還不錯(cuò)。
我覺得,他后來之所以不滿,其實(shí)是可以理解的。換作是我,看到我們成功了可能也會(huì)心里不是滋味。從那以后,他就一直在試圖打造一個(gè)有競(jìng)爭(zhēng)關(guān)系的仿制品,還想方設(shè)法給我們使絆子,比如起訴我們之類的事。這大概就是我對(duì)整件事的看法。
主持人:你現(xiàn)在也不怎么跟他聯(lián)系了吧?
阿爾特曼:很少,幾乎沒有。
七、電話客戶可能率先失業(yè),計(jì)算機(jī)程序員崗位變動(dòng)走向不確定
主持人:我覺得AI現(xiàn)在或許已經(jīng)比任何人都聰明了,要是它還能變得更有智慧,而且我們也認(rèn)同它能做出比人類更優(yōu)的決策,那么它難免會(huì)取代人類在世界中的核心地位,對(duì)吧?
阿爾特曼:我完全不覺得事情會(huì)是這樣。在我看來,它最終會(huì)更像一個(gè)超級(jí)智能的計(jì)算機(jī),它可能會(huì)給我們提供建議,我們有時(shí)會(huì)采納,有時(shí)會(huì)忽略,有時(shí)它甚至不會(huì)主動(dòng)給出建議。我不認(rèn)為它會(huì)讓人感覺到它擁有自主行動(dòng)力,也不認(rèn)為它會(huì)削弱我們?nèi)祟愖陨淼淖灾髂軇?dòng)性。
現(xiàn)在很多人使用ChatGPT時(shí)都會(huì)覺得,它幾乎在所有事情上都比我聰明得多,但最終做決策的還是人類。人們依然會(huì)決定該問什么、該采納哪些建議、該忽略哪些內(nèi)容”。在我看來,這其實(shí)就是技術(shù)發(fā)展的常態(tài)。
主持人:誰會(huì)因?yàn)檫@項(xiàng)技術(shù)而失業(yè)?
阿爾特曼:首先我要先說明一個(gè)顯而易見但很重要的前提:沒人能預(yù)測(cè)未來。要是我試圖回答這個(gè)問題,肯定會(huì)說不少蠢話。不過我會(huì)盡量挑一些我有把握的領(lǐng)域,再提一些我沒那么確定的領(lǐng)域來聊聊。
我有把握的是,目前很多通過電話或電腦進(jìn)行的客服工作,從事這些工作的人可能會(huì)失業(yè),因?yàn)锳I能把這類客服工作做得更好?;蛟S也存在其他類型的客服場(chǎng)景,比如你希望對(duì)接的是真人,能提供更具針對(duì)性的服務(wù)。
而我有把握認(rèn)為不會(huì)受太大影響的職業(yè),比如護(hù)士,我覺得在生病就醫(yī)時(shí),人們非常需要與真人之間進(jìn)行情感聯(lián)結(jié)。無論AI、機(jī)器人之類的能給出多好的建議,人們還是需要人與人之間的陪伴與關(guān)懷。
我對(duì)另一個(gè)職業(yè)的未來走向沒有那么確定,那就是計(jì)算機(jī)程序員。如今計(jì)算機(jī)程序員的工作和兩年前大不相同,現(xiàn)在程序員可以借助AI工具提升工作效率。雖然核心操作者依然是人,但他們能生成的代碼量、能賺到的收入都達(dá)到了前所未有的水平。而且事實(shí)證明,世界對(duì)軟件的需求其實(shí)遠(yuǎn)超以往人類的開發(fā)能力,所以目前軟件領(lǐng)域的需求缺口依然巨大。
但五到十年后,程序員的崗位會(huì)增多還是減少,對(duì)此我也不確定。
主持人:不過可以肯定的是,這個(gè)行業(yè)必將經(jīng)歷大規(guī)模的崗位變動(dòng),或許到時(shí)候,現(xiàn)在的程序員會(huì)找到新的、有趣且高薪的工作方向。你覺得這種崗位變動(dòng)的幅度會(huì)有多大?
阿爾特曼:最近有人告訴我,從歷史數(shù)據(jù)來看,平均每75年就會(huì)有大約50%的職業(yè)發(fā)生變化,這些職業(yè)或許不會(huì)完全消失,但會(huì)變得和原來大不一樣。這大概就是職業(yè)演變的半衰期規(guī)律。
我有個(gè)可能會(huì)引發(fā)爭(zhēng)議的觀點(diǎn)是,當(dāng)下AI帶來的變革更像是一種間斷平衡(Punctuated Equilibrium,指物種長(zhǎng)期穩(wěn)定后突然發(fā)生快速演化),很多職業(yè)的重大變化會(huì)在短期內(nèi)集中爆發(fā)。但如果把時(shí)間線拉遠(yuǎn)來看,整體的職業(yè)變革速率其實(shí)不會(huì)和歷史平均水平有天壤之別。
也就是說,短期內(nèi)我們會(huì)看到大量職業(yè)快速調(diào)整,但從長(zhǎng)遠(yuǎn)來看,總的職業(yè)更替率可能不會(huì)像我們預(yù)想的那么高。未來依然會(huì)有新的工作崗位出現(xiàn),也會(huì)誕生全新的職業(yè)類別。比如我現(xiàn)在從事的運(yùn)營(yíng)科技公司這類工作,放在過去就是不存在的新職業(yè)。
比如20年前的人們很難想象現(xiàn)在的諸多職業(yè),但如今仍有不少工作,在本質(zhì)方向上與20年前就存在的職業(yè)有相似之處,20年前人們預(yù)想中會(huì)出現(xiàn)的某些職業(yè),現(xiàn)在也并未成為現(xiàn)實(shí)。
再說回之前的話題,我依然不確定這個(gè)數(shù)據(jù)是否準(zhǔn)確,但姑且先拿它來展開討論,如果假設(shè)每75年就有50%的職業(yè)被更替,那么我完全能想象這樣一個(gè)未來,75年后,一半的人在從事全新的工作,而另一半人的工作,在形式上仍與如今的某些職業(yè)有相似之處。
主持人:你覺得這一次AI引發(fā)的變革還會(huì)重現(xiàn)類似工業(yè)革命的局面嗎?
阿爾特曼:沒人能給出確切答案。我對(duì)這個(gè)問題的判斷并沒有十足把握,但直覺告訴我,如今的世界比工業(yè)革命時(shí)期富裕得多,因此我們其實(shí)有能力比過去更快地消化更多變革。
這不僅僅關(guān)乎工作或金錢,還涉及人生意義,以及非常關(guān)鍵的社群歸屬感。遺憾的是,我認(rèn)為當(dāng)下社會(huì)在社群歸屬感這方面相當(dāng)糟糕,我不知道情況還能惡化到什么地步,它大概率還會(huì)變得更糟。不過人們?cè)诶Ь持姓宫F(xiàn)出的適應(yīng)能力,倒是曾給過我不少驚喜。
人們適應(yīng)重大變革的速度其實(shí)很快,比如新冠疫情對(duì)我來說就是個(gè)很有說服力的例子,當(dāng)時(shí)整個(gè)世界幾乎一下子停擺了,短短一周內(nèi),一切都變得截然不同。我當(dāng)時(shí)特別擔(dān)心社會(huì)能否適應(yīng)那樣的局面。
當(dāng)然,那段時(shí)期的應(yīng)對(duì)并非毫無問題,但總體來看,我會(huì)覺得這至少證明了社會(huì)是有韌性的。人們確實(shí)能很快找到新的生活方式。而AI帶來的變革,絕不會(huì)像疫情那樣突然。
八、無法想象人類會(huì)模仿ChatGPT用破折號(hào),對(duì)大模型的未知風(fēng)險(xiǎn)焦慮
主持人:那AI的弊端是什么?我當(dāng)然能看到它的好處,比如效率提升、醫(yī)療診斷會(huì)變得精準(zhǔn),但你真正擔(dān)心的弊端是哪些?
阿爾特曼:我最擔(dān)心的始終是那些未知,如果某個(gè)弊端是我們能清晰預(yù)判、認(rèn)真思考應(yīng)對(duì)的,那反而不用太慌。比如我們之前聊到過一個(gè)點(diǎn),現(xiàn)在這些模型在生物領(lǐng)域的能力越來越強(qiáng),它們有可能會(huì)被用來設(shè)計(jì)生化武器,或是人為制造出類似流行病。
我確實(shí)擔(dān)心這個(gè)問題,但正因?yàn)槲覀円庾R(shí)到了這種風(fēng)險(xiǎn),我相信我們以及行業(yè)里的很多人,都在絞盡腦汁想辦法緩解它。
而未知的事情就不一樣了,比如大量人同時(shí)使用同一個(gè)模型,可能會(huì)引發(fā)全社會(huì)層面的連鎖反應(yīng)。我舉個(gè)聽起來有點(diǎn)荒唐的例子,但這是我最近真切感受到的,像我們開發(fā)的語言模型以及其他同類模型,其實(shí)都有自己獨(dú)特的風(fēng)格,它們說話有特定的節(jié)奏,會(huì)用一些不太常見的表達(dá)方式,甚至可能過度使用破折號(hào)之類的標(biāo)點(diǎn)。
但最近我發(fā)現(xiàn),現(xiàn)實(shí)中的人居然開始模仿這種風(fēng)格了。這對(duì)我來說是個(gè)很直觀的警示,要是有足夠多的人都在和同一個(gè)語言模型對(duì)話,它真的有可能改變整個(gè)社會(huì)的行為模式。我當(dāng)初無法想象,ChatGPT竟然會(huì)讓人們?cè)诂F(xiàn)實(shí)生活中大量使用破折號(hào)。
使用破折號(hào)可能什么大不了的,但這恰恰能說明,未知的未知是真實(shí)存在的,我們?nèi)缃衩鎸?duì)的確實(shí)是一個(gè)全新的、充滿未知的世界。
主持人:你的意思是技術(shù)總會(huì)改變?nèi)祟愋袨?,也?huì)改變我們對(duì)世界、對(duì)彼此的認(rèn)知,而且很多這類改變是無法預(yù)判的。但既然我們明知這一點(diǎn),那為什么不能讓技術(shù)背后的內(nèi)在道德框架完全透明呢?比如明確告訴大家我們更傾向于選擇A,而非選擇B。
在我看來,AI是我們認(rèn)定比人類更強(qiáng)大的存在,這種情況其實(shí)已經(jīng)在發(fā)生了,比如遇到該做什么決定才對(duì)的問題時(shí),以前我會(huì)去問最親近的朋友、我的妻子,但現(xiàn)在這項(xiàng)技術(shù)能給出比任何人都更確定的回答。
這項(xiàng)技術(shù)讓人不安的地方在于,我不清楚它的核心立場(chǎng)是什么,但它必然有自己的立場(chǎng)??沙撬鞔_承認(rèn)這一點(diǎn),并且告訴我們它的立場(chǎng)究竟是什么,否則它就會(huì)以一種隱蔽的方式引導(dǎo)我們,甚至可能在我們自己都沒意識(shí)到的情況下,就把我們推向某個(gè)結(jié)論,所以,為什么不徹底公開透明?
阿爾特曼:我們之所以制定這么多技術(shù)規(guī)范,而且還在不斷補(bǔ)充完善,就是為了讓所有人都能清楚看到我們希望這個(gè)模型按照怎樣的邏輯運(yùn)行。
以前沒有這些規(guī)范的時(shí)候,大家根本說不清模型到底想實(shí)現(xiàn)什么目的,遇到問題也分不清那是程序漏洞,還是模型本就該有的表現(xiàn)。這份技術(shù)規(guī)范其實(shí)就是在明確在什么情況下我們會(huì)這么做、在什么情況下會(huì)向你展示這些內(nèi)容、在什么情況下會(huì)明確告訴你我們不會(huì)做那件事。我們之所以費(fèi)力把這些都寫出來,核心就是覺得用戶確實(shí)需要知道這些信息。
主持人:所以現(xiàn)在有沒有一個(gè)地方能讓人找到明確答案,比如作為一家公司,你們的核心傾向是什么?人們?cè)撊ツ睦锪私饽銈児镜牧?chǎng)、你們的偏好呢?
阿爾特曼:我們制定的模型規(guī)范,就是為回答這類問題而存在的。隨著時(shí)間推移,我們必須讓這些規(guī)范變得越來越詳盡,因?yàn)槿藗儠?huì)在不同國(guó)家使用這項(xiàng)技術(shù),各地有不同的法律要求,還有其他各種復(fù)雜情況,所以規(guī)范不可能一成不變。
它不可能在全球所有用戶那里都以完全相同的方式運(yùn)行。正因?yàn)槿绱?,我預(yù)計(jì)那份文檔會(huì)變得非常冗長(zhǎng)、非常復(fù)雜,但這也正是我們需要制定這份文檔的原因。
九、像使用普通電腦一樣使用ChatGPT,人們質(zhì)疑媒介內(nèi)容意識(shí)增強(qiáng)
主持人:我再問最后一個(gè)問題,或許你能打消我的這層顧慮,這項(xiàng)技術(shù)的強(qiáng)大力量,會(huì)不會(huì)讓人們難以甚至無法分辨現(xiàn)實(shí)與虛構(gòu)?正因?yàn)锳I太擅長(zhǎng)模仿人類的言行舉止,甚至能生成以假亂真的人像與聲音,到時(shí)可能就需要某種方式來驗(yàn)證你確實(shí)是你所聲稱的身份。而從本質(zhì)上來說,這必然會(huì)用到生物識(shí)別技術(shù),進(jìn)而剝奪全球每個(gè)人的隱私。
阿爾特曼:不過我認(rèn)為,我們沒必要、也不應(yīng)該強(qiáng)制要求使用AI時(shí)必須進(jìn)行生物識(shí)別。我覺得大家應(yīng)該能像使用普通電腦一樣,直接使用ChatGPT這類工具。
主持人:我非常認(rèn)同這個(gè)觀點(diǎn),但問題在于到了某個(gè)階段,當(dāng)有人利用模仿他人的圖像或聲音進(jìn)行詐騙時(shí),用這種手段掏空別人的支票賬戶會(huì)變得易如反掌。所以面對(duì)這種情況,我們?cè)撛趺磻?yīng)對(duì)?
阿爾特曼:關(guān)于這個(gè)問題,我有幾點(diǎn)想法。首先,我認(rèn)為我們正迅速走向這樣一個(gè)世界,當(dāng)你接到一通聽起來像你孩子或父母的電話,或是看到一張看似真實(shí)的圖片時(shí),你必須通過某種方式去核實(shí),避免自己遭遇詐騙,這已經(jīng)不再是理論層面的擔(dān)憂了,相關(guān)的報(bào)道其實(shí)隨處可見。
但好在人們是聰明的,社會(huì)也具備韌性。我相信大家正在快速意識(shí)到,現(xiàn)在確實(shí)有不法分子在利用這類AI技術(shù)行騙,必須通過多種途徑去核實(shí)信息的真實(shí)性。
我猜,除了像家人之間約定危機(jī)時(shí)刻專用暗號(hào)這類辦法之外,我們還會(huì)看到這樣的場(chǎng)景,比如國(guó)家領(lǐng)導(dǎo)人要發(fā)布緊急消息時(shí),會(huì)對(duì)消息進(jìn)行加密簽名,或是通過其他方式確保其真實(shí)性。
而且人們正在迅速意識(shí)到,這是不法分子利用新技術(shù)實(shí)施的新型手段,必須加以應(yīng)對(duì)。在我看來,這本身就是解決方案的核心,也就是說,人們會(huì)逐漸形成一種默認(rèn)態(tài)度,不輕易相信那些看似真實(shí)的媒介內(nèi)容。
主持人:OpenAI正涉足電子商務(wù),那該怎么保障安全?
阿爾特曼:我覺得可以像家人之間那樣,約定一個(gè)定期更換的暗號(hào)。當(dāng)你們互相聯(lián)系時(shí),比如接到對(duì)方電話,就可以問一句暗號(hào)是什么,這和生物識(shí)別技術(shù)完全是兩回事。
主持人:所以你并不認(rèn)為生物識(shí)別會(huì)很快成為全社會(huì)的強(qiáng)制要求?比如現(xiàn)在搭乘飛機(jī),生物識(shí)別已經(jīng)是流程的一部分了,但你不覺得它會(huì)很快推廣到整個(gè)社會(huì),變成人人必須遵守的規(guī)定。
阿爾特曼:我真心希望不會(huì)變成這樣,確實(shí)存在一些隱私保護(hù)型生物識(shí)別技術(shù),相比那種大量收集個(gè)人數(shù)字信息的方式,我更認(rèn)可這類技術(shù)。但即便如此,我也不認(rèn)為生物識(shí)別應(yīng)該成為強(qiáng)制要求。