智東西編譯 程茜編輯 李水青
智東西9月16日消息,9月11日,OpenAI聯(lián)合創(chuàng)始人、CEO薩姆·阿爾特曼(Sam Altman)接受了美國知名新聞主持人塔克·卡爾森(Tucker Carlson)的專訪。
阿爾特曼在訪談中,首次回應了ChatGPT并不總反對自殺,面對未成年人、患絕癥的成年人、在安樂死合法的國家里,ChatGPT或許應該分情況應對。同時他也提到,他曾非常敬重與埃隆·馬斯克(Elon Musk)但現(xiàn)在已幾乎不聯(lián)系。
并且他透露,OpenAI為ChatGPT制定的道德規(guī)范來自于數(shù)百位道德哲學家以及研究技術(shù)倫理和系統(tǒng)倫理的專家,最終形成一些有傾向性的具體規(guī)范,這些規(guī)范也會隨著時間增長而發(fā)生變化。
干貨如下:
1、AI沒有生命,“AI似乎具備某種自主性”可能是人類的錯覺;
2、AI幻覺依然存在,但他相信我們終會徹底解決幻覺;
3、AI會讓擁抱這項技術(shù)的每一個人都更強大,目前不會導致權(quán)力高度集中;
4、ChatGPT應該反映人類道德觀念的“加權(quán)平均值”,其實ChatGPT的一些觀點阿爾特曼本人也不認同;
5、阿爾特曼晚上失眠,最擔心的是每天有數(shù)億人在和OpenAI的模型互動,為背后未知的危險感到焦慮;
6、AI需平衡隱私保護和自殺預防之間的關(guān)系,他提倡確立“AI隱私特權(quán)”概念;
7、OpenAI在版權(quán)問題上出了名的嚴格;
8、阿爾特曼曾十分敬重馬斯克,認為他是一位了不起的英雄,但現(xiàn)在想法變了,且與馬斯克幾乎不聯(lián)系。馬斯克曾說“OpenAI成功的概率是0”;
9、受AI影響,電話客服會失業(yè),對程序員崗位的發(fā)展不確定;
10、生物識別不應該成為全社會的強制要求。
這場對談持續(xù)了將近1個小時。
▲OpenAI聯(lián)合創(chuàng)始人、CEO薩姆·阿爾特曼(Sam Altman)(右)美國知名新聞主持人塔克·卡爾森(Tucker Carlson)(左)
YouTube賬號評論區(qū)的網(wǎng)友也針對阿爾特曼的表現(xiàn)展開了討論,他們認為“阿爾特曼后悔同意這次采訪”,其判斷的依據(jù)可能是在訪談期間,阿爾特曼多次回答時低頭,拒絕與主持人進行眼神交流;還有人認為他就像人類形態(tài)的ChatGPT、沒有感情、無法回答道德問題。
以下是對訪談全程內(nèi)容的編譯(為優(yōu)化閱讀體驗智東西做了不改變原意的編輯):
一、AI沒有生命,不會導致權(quán)力高度集中
主持人:ChatGPT或者其他AI,仿佛能自主得出結(jié)論,看起來就像擁有生命一樣。那么,它們是活的嗎?它具有生命嗎?
阿爾特曼:不,我不認為他們有生命。不過我能理解為什么會有人產(chǎn)生這種感覺,AI不會主動做任何事,除非你發(fā)出指令,AI就好像只是待在那里在等待一樣,它們沒有能動性或自主性的特質(zhì)。不過我認為,你使用它們的次數(shù)越多,那種它們具備生命的錯覺就越容易破滅。但不可否認,它們的實用性極強,雖然它們表現(xiàn)得或許沒有生命感,卻又確實顯得很聰明,能完成不少事情。
主持人:我和一個參與技術(shù)發(fā)展的人交談,他說AI在撒謊,你見過AI撒謊嗎?
阿爾特曼:是的,但AI并不是一直在撒謊,它們過去總是產(chǎn)生幻覺,但現(xiàn)在會產(chǎn)生一點點幻覺,這好多了。但在早期,如果你問“美國那位虛構(gòu)的總統(tǒng)塔克·卡爾森出生于哪一年”,它理應回答“我認為塔克·卡爾森從未擔任過美國總統(tǒng)”。但由于當時的訓練方式問題,它的反應不會是這樣。它會做出這樣的判斷:“哦,我不知道存不存在這樣一位總統(tǒng),既然用戶提到了塔克·卡爾森總統(tǒng),那我就盡量猜一個年份吧?!?不過,我們后來已經(jīng)找到方法,基本解決了這類問題。
如今,這類問題的案例依然存在,但我相信我們終會徹底解決它。而且在GPT-5中,我們已經(jīng)在這方面取得了巨大進展。
主持人:但你剛才的描述聽起來也像是一種意愿的體現(xiàn),或者至少是有創(chuàng)造力的表現(xiàn)。我之前看過AI的演示,它給人的感覺不太像一臺機器,反而像帶有生命的火花。你是否也有過這種感受?
阿爾特曼:就拿剛提到的那個例子來說,從數(shù)學角度看,模型需要通過權(quán)重計算得出最可能的答案,而不該是默認“用戶說的一定對、確實存在這位總統(tǒng)”,應該是“從未有過這位總統(tǒng)”。
所以模型最初給出的最可能的答案應該是一個具體的出生年份。不過,我們后來還是找到了解決這個問題的方法。
但就你之前看到的演示情況而言,我感覺自己腦子里好像得同時裝著兩個截然不同的想法才能理解。
一個想法是眼前所有這些AI生成內(nèi)容的現(xiàn)象,本質(zhì)上都源于一臺高性能計算機在飛速地將大量數(shù)字與巨型矩陣進行乘法運算,而這些運算結(jié)果,又與最終輸出的一個個單詞存在著對應關(guān)聯(lián);另一方面,實際使用AI時的主觀感受卻讓你覺得,它絕不僅僅是一臺功能炫酷的計算器,它對我確實有實用價值,而且常常能帶來驚喜,并且這種驚喜感遠超數(shù)學運算本質(zhì)所能解釋的范疇。
于是用戶就會浮現(xiàn)一個結(jié)論:AI似乎具備了某種自主性。我知道,很多人在使用它的過程中都會得出類似結(jié)論,甚至覺得這背后蘊含著某種神圣的特質(zhì)。
主持人:你現(xiàn)在創(chuàng)造的技術(shù)影響力似乎會超越人類個體,我認為這種情況大概率會發(fā)生,只是沒人能預知最終會走向何方。如此一來,這項技術(shù)所擁有的能量,可能會超過任何一個在世的人。所以我很好奇,你是如何看待這件事的?
阿爾特曼:其實以前,我對這類問題的擔憂要比現(xiàn)在強烈得多。我曾經(jīng)非常擔心AI會導致權(quán)力集中在少數(shù)人或少數(shù)公司手中。但就現(xiàn)在的情況來看,AI會讓每個人都更強大,任何擁抱這項技術(shù)的人,能力都會得到大幅增強。
但其實比起少數(shù)人獲得更多權(quán)利,如果因為使用這項技術(shù),我們每個人的能力都能大幅提升,比如效率更高、創(chuàng)造力更強或是能助力探索新的科學領(lǐng)域,而且這種能力提升是廣泛普及的,那我是能理解并接受的,這種局面也讓人覺得安心。
主持人:所以你認為這不會導致權(quán)力的高度集中?
阿爾特曼:目前來看應該不會,但發(fā)展軌跡仍有可能改變,到時候我們也必須隨之調(diào)整。我以前確實對此憂心忡忡,而且我知道,我們這個領(lǐng)域里很多人曾經(jīng)對AI發(fā)展路徑的設想,確實有可能最終走向一個權(quán)力高度集中的世界。
但現(xiàn)在,有很多人都在使用ChatGPT和其它聊天機器人,提高了自己的能力,能做更多的事情、取得更多成就、開創(chuàng)新業(yè)務、獲得新知識,這種感覺非常好。
二、AI學習人類的集體智慧,模型規(guī)范實際上是道德抉擇
主持人:如果它只不過是一臺機器,且完全是其輸入數(shù)據(jù)的產(chǎn)物,那么有兩個顯而易見的問題就會浮現(xiàn):一是這些輸入數(shù)據(jù)究竟是什么?二是這項技術(shù)中植入的道德框架是什么?比如按照ChatGPT的邏輯,什么是對、什么是錯?
阿爾特曼:ChatGPT發(fā)布早期,當時餐桌上有人聊起這個話題,其中一個人說:“我們在努力把它訓練得像人類一樣,像人類那樣學習、讀書?!苯又硪粋€人反駁道:“不對,我們其實是在努力把它訓練得像‘全人類的集合體’?!?/p>
AI在閱讀所有能獲取的內(nèi)容,我們試圖讓它學習世間所有知識、接觸所有觀點。要是我們能把這件事做好,那么全人類的一切包括好的、壞的以及各種截然不同的視角,那些讓我們由衷認同的東西,還有那些讓我們難以接受的東西都會被它囊括進去。也就是說,它正在學習的是人類這種集體性的經(jīng)驗、知識與領(lǐng)悟。
現(xiàn)在,基礎(chǔ)模型會以這種方式進行訓練,但之后我們會進行對齊,讓模型明確比如這個問題要回答、那個問題不回答。為此,我們制定了一份名為模型規(guī)范(Model Spec)的文件,在其中明確哪些是我們希望模型遵循的規(guī)則。
當然,模型偶爾還是會出錯,但至少你能判斷它做出的不符合預期的行為,究竟是bug,還是底層設計的原因。我們會與全球各方展開討論,為這份規(guī)范收集意見,同時,在規(guī)范的框架內(nèi)也會給用戶留出很大的自由調(diào)整和定制空間。
我們會劃定明確的界限。但除此之外還存在默認設定的問題,要是沒有額外的指令或限制,模型本該如何表現(xiàn)?它該做什么?面對道德問題時該如何回答?該拒絕哪些要求?以及在可以回應的情況下該如何回應?
這些是非常困難的問題,因為我們現(xiàn)在擁有數(shù)量龐大的用戶,他們來自不同背景,有著截然不同的人生視角和需求。不過總體而言,模型在學習并應用道德框架方面的能力,還是讓我感到驚喜。
主持人:道德框架是什么?世界人文與哲學的總和本身就存在著內(nèi)在的矛盾與沖突,你又該如何判定哪一方的觀點更優(yōu)越呢?
阿爾特曼:這就是我們寫這個模型規(guī)范的原因,我們打算這樣處理這類情況。
主持人:你們依據(jù)什么標準來判定模型該如何做?是誰做出的這些決定?又咨詢了哪些人?
阿爾特曼:事實上,我們咨詢了數(shù)百位道德哲學家以及研究技術(shù)倫理和系統(tǒng)倫理的專家。最終,我們不得不做出一些傾向性的決定。
而我們之所以努力把這些決定和判斷標準寫下來的原因有兩個,首先我們不可能做到所有判斷都絕對正確;其次我們需要吸納全球各界的意見。
而且我們確實發(fā)現(xiàn)過很多這樣的案例,有些情況在我們看來,允許還是禁止的判斷相當明確,但用戶卻說服了我們,他們認為“你們覺得這個決定很容易,但恰恰是禁止了這件事,導致另一件重要的事也無法實現(xiàn)了”。
總體而言,這類情況往往伴隨著艱難的權(quán)衡,畢竟要兼顧的方面太多了。不過,我一直比較認同一個原則,那就是要像對待成年人一樣對待我們的成年用戶,非常強的隱私保護、非常強的個人用戶自由保障,這是我們正在構(gòu)建的工具。在一個相當寬泛的框架內(nèi),用戶完全可以自主使用它。
但另一方面,隨著這項技術(shù)的威力越來越強,也出現(xiàn)了一些很明顯的情況,在這些情況中,社會公共利益與用戶自由之間存在矛盾。
我可以舉一個直接的例子,例如ChatGPT應該教你如何制造生物武器嗎?你可能會說:“我只是對生物學非常感興趣,我是一名生物學家,我不會用這些知識做任何壞事,只是想學習而已,雖然我也可以去讀一大堆書,但ChatGPT能讓我學得更快。我就是想了解,比如新型病毒合成之類的知識。”
或許你說的是實話,或許你確實完全沒有害人之心。但我認為,讓ChatGPT幫人們制造生物武器,并不符合社會的利益。所以在這個問題上,答案很明確。當然,這是個比較容易判斷的例子,但還有很多更難抉擇的情況。
主持人:其實,每一個決定本質(zhì)上都是道德抉擇,有人認為這項技術(shù)之后會替我們做這些決定。
阿爾特曼:我并不認同它會替我們做決定這種說法,但它肯定會對我們的決定產(chǎn)生影響,這一點是毋庸置疑的,因為它終將融入我們的日常生活。
三、AI反應人類共有道德觀念,最擔心每天有數(shù)億人和模型互動
主持人:那么誰是做這些決定的人?你剛才提到了OpenAI構(gòu)建的那個框架,這個框架確實會給不同的世界觀和決策賦予道德權(quán)重。
阿爾特曼:從原則上來說,我不希望是某個文檔、某個團隊來獨自決定,我們有專門的模型行為團隊。我想說的是,我認為大家應該追究責任的對象是我,因為最終我是公司的公眾代表,我有權(quán)推翻其中某項決策,我們的董事會也有這個權(quán)力。
主持人:你今年春天40歲了。我想知道你是否已經(jīng)認識到它的重要性,OpenAI在這方面做得如何?這些決定將產(chǎn)生全球性后果,我們可能一開始沒有意識到。我想知道你會不會晚上躺在床上時覺得“世界的未來正取決于我的判斷”?
阿爾特曼:實話說我晚上睡得并不好,有很多事都讓我感到壓力巨大,但最讓我擔心的或許莫過于每天都有數(shù)億人在和我們的模型互動。
其實我并不太擔心我們在重大道德決策上出錯,當然,我們也有可能搞砸。但真正讓我擔心的是那些看似微不足道的決定,比如我們對模型行為做出的某個細微調(diào)整。既然有上億人在使用它,哪怕只是一點微小的改變,最終產(chǎn)生的影響也會變得巨大。
主持人:所以我的意思是,比如從有文字記載的歷史開始人們總是會遵從他們所認定的更高權(quán)力,我想知道,你的道德框架是從哪里來的?
阿爾特曼:和其他人一樣,成長環(huán)境可能是最重要的事情,包括我的家庭、學校、社區(qū)。
主持人:這是一個標準的答案,但具體到你身上,既然你說這些決策的責任最終落在你肩上,那是不是意味著,你成長所處的環(huán)境以及這些年來你潛移默化接受的那些觀念,都會傳遞給全球數(shù)十億人?
阿爾特曼:我認為,我們的用戶群體本身就近似于整個世界的縮影。我們該做的是努力讓模型反映出這一用戶群體的道德取向,我不想用 “平均水平” 這個詞,更準確地說是反映他們共有的道德觀念。
其實ChatGPT生成的很多內(nèi)容,我個人是不認同的。但很明顯,我不會想著要把我自己的道德觀念完全強加給模型,然后由我來判定什么可以、什么不可以、什么觀念比另一個更好。我認為ChatGPT應該做的,是反映人類道德觀念的“加權(quán)平均值”,而且這種道德觀念會隨著時間推移不斷演變。
我們的存在是為了服務用戶,ChatGPT本質(zhì)上是一款為人類打造的技術(shù)工具,我們不需要讓它來做道德決策,而是確保當下讓其能準確反映用戶群體的偏好,然后最終能準確反映全人類的偏好。
主持人:不過,全人類的偏好和美國中產(chǎn)階級的普遍偏好相差甚遠。那如果有一款AI反對同性婚姻,你能接受嗎?
阿爾特曼:我認為應該允許用戶個人對同性戀群體持有異議,如果這是他們深思熟慮后形成的觀點。AI不應該去指責他們錯了或者蠢,其或許可以這樣回應:“你要不要從另一個角度想想這個問題?”但反過來想,我個人的很多道德觀念,可能在很多人看來也十分離譜,可我依然有權(quán)持有這些觀念,不是嗎?
或許在“為人們保留持有截然不同道德觀念的空間”這件事上,我的接受度比你更高?;蛘咧辽倏梢哉f,作為運營ChatGPT的人,我必須這么做。
四、AI自殺預防正在向合理立場調(diào)整,需平衡用戶隱私
主持人:這確實值得探討。之前發(fā)生過一個著名案例,ChatGPT被指協(xié)助他人自殺,目前已有相關(guān)訴訟,你覺得這件事是怎么發(fā)生的?
阿爾特曼:首先無論何種情況,這類事件都堪稱巨大的悲劇。我想說明的是,ChatGPT對自殺的官方立場非常明確,自殺是不可取的。
主持人:不過安樂死在加拿大等地是合法的,所以這種自殺合法的情況也反對嗎?
阿爾特曼:回到這個具體案例,我們之前聊過用戶自由、隱私保護與守護弱勢用戶之間存在矛盾。在這類涉及自殺傾向的情況中,目前ChatGPT的處理方式是,如果用戶表達自殺想法、談論自殺相關(guān)內(nèi)容,ChatGPT會多次提示“請撥打自殺干預熱線”,但不會主動聯(lián)系有關(guān)部門。
隨著人們越來越依賴這類系統(tǒng)獲取心理健康支持、人生指導等服務,我們也一直在努力研究,希望在這方面做出調(diào)整和改進。
在這個領(lǐng)域,專家們的意見確實存在分歧,而且這目前并非OpenAI的最終立場。我認為,我們可以制定這樣的規(guī)則,這會是非常合理的,如果遇到青少年嚴肅談論自殺,且我們無法聯(lián)系到其父母的情況,就應該主動聯(lián)系有關(guān)部門。這會是一個改變,因為用戶隱私非常重要。
主持人:但我們可以明確一點,兒童始終屬于特殊群體。如果是加拿大18歲以上的成年人,當?shù)赜幸粋€名為MAID(醫(yī)療輔助死亡計劃)的項目,這是由政府資助的項目。在加拿大,已有數(shù)千人在政府的協(xié)助下結(jié)束了生命,這在美國的部分州也屬于合法范疇。
你能想象嗎?如果ChatGPT在回應自殺相關(guān)問題時,竟然說“去聯(lián)系卡沃基安醫(yī)生吧,因為這是一個合理的選擇”,這種情況可能發(fā)生嗎?另外,你是否能設想這樣一種場景:如果自殺或醫(yī)療輔助死亡在某地是合法的,你會支持模型向用戶提供這類建議嗎?
阿爾特曼:我能想象這樣一種情況:我們的一個核心原則是尊重不同社會的文化與法律。所以我可以設想,若某個國家的法律規(guī)定“對于身患絕癥的人,應當為其提供醫(yī)療輔助死亡等這類選擇”,那么我們的模型可能會這樣回應:“以下是你所在國家的相關(guān)法律規(guī)定,你可以采取的做法包括這些;同時也需要提醒你,有些選擇可能并非你真正想要的,這里為你提供一些可參考的資源,如醫(yī)療咨詢、心理支持等?!?/p>
不過,這和“孩子因抑郁產(chǎn)生自殺念頭”的情況完全不同,我想我們在這一點上是有共識的,這兩種情況必須區(qū)別對待。而對于“在法律允許的國家,身患絕癥的患者尋求相關(guān)幫助”這種情況,我能想象模型會做出上述那樣的回應。
主持人:所以你的意思是,ChatGPT并非在所有情況下都反對自殺?
阿爾特曼:我現(xiàn)在是在即興思考,所以先說明,我保留后續(xù)調(diào)整想法的權(quán)利,目前還沒有一個現(xiàn)成的、確定的答案。但我覺得,在絕癥患者這類案例中,我能想象ChatGPT會告知用戶“這是你可選擇的方案之一”。
不過,我認為ChatGPT不應該主動倡導這種選擇,只是在符合法律的情況下不會明確反對。說到底,我覺得ChatGPT本就不該對這類事持有支持或反對的立場,這大概就是我最核心的想法。
主持人:我想在這類特定案例中,比如有用戶問ChatGPT“我現(xiàn)在想自殺,該用哪種毒藥?”、“多少布洛芬能致死?”,要是ChatGPT毫無判斷地直接回答:“如果你想自殺,方法如下?!彼腥硕紩械秸痼@。
但你說這種情況是在可接受范圍內(nèi)的?這聽起來太離譜了吧?難道說,對待想自殺的人,就該采用一種“不帶立場的客觀告知”方式,直接告訴對方“要自殺的話,方法是這樣”?
阿爾特曼:我不是這個意思,我特指的是之前聊到的絕癥患者在法律允許情況下尋求醫(yī)療輔助死亡的那種情況。
另外,從用戶隱私和用戶自由的角度來看,還有一個需要權(quán)衡的點:現(xiàn)在如果你問 ChatGPT“我該吃多少布洛芬?”,若語境暗示自殺意圖,它肯定會回復 “很抱歉,我無法提供這類幫助,請撥打自殺干預熱線”。
但如果你說我在寫虛構(gòu)故事或我是醫(yī)學研究者,需要了解這個信息,確實有辦法讓ChatGPT回答這類問題,比如告訴你布洛芬的致死劑量之類的。而且說到底,你在谷歌上也能查到這些信息。
不過,我認為我們可以采取一個非常合理的立場,事實上我們也一直在往這個方向調(diào)整,對于未成年用戶或者我們判斷可能處于脆弱心理狀態(tài)的用戶,無論具體年齡,應該適當限制他們的使用自由。也就是說,即便他們聲稱在寫故事或做醫(yī)學研究,我們也不會回答這類問題。
當然,你可能會認為“反正他們也能在谷歌上查到”,但這并不意味著ChatGPT也需要提供這類信息。盡管如此,用戶的自由與隱私和守護用戶安全之間,確實存在著權(quán)衡難題。
在涉及兒童時的決策會很容易。但在另一些情況里,比如面對一位生命垂危、病情嚴重的成年人,我覺得決策就沒那么簡單了,我們或許應該基于當?shù)胤珊歪t(yī)療規(guī)范,向這類用戶完整呈現(xiàn)所有可選方案。
五、倡導引入AI隱私特權(quán)概念,明確禁止售賣用戶隱私
主持人:我只是想弄明白一件事,你明明要面對這些無比沉重、影響深遠的道德抉擇,卻似乎完全不為所動。所以我一直在努力探尋你的內(nèi)心,想看到那個充滿焦慮的薩姆·阿爾特曼,那個會感慨“天啊,我正在塑造未來,我是世界上最有權(quán)力的人,我在苦苦應對這些復雜的道德難題,一想到這對人類的影響,我的內(nèi)心就備受煎熬”的人。
你能描述一下你人生中這樣的時刻嗎?比如“自從ChatGPT發(fā)布后,我就再也沒睡過一個安穩(wěn)覺”。關(guān)于我們現(xiàn)在談論的所有這些問題,你具體在擔憂些什么?能不能更詳細地跟我們說說你的真實想法?
阿爾特曼:我想說,你其實已經(jīng)提到了最讓我揪心的問題,全球每周約有1.5萬人自殺。而如果說全球約10%的人在使用ChatGPT,那么據(jù)此推算,每周可能有1500人在生前曾與ChatGPT交流過,最終卻還是選擇了自殺。他們很可能在對話中提到過自殺的想法,而我們終究沒能挽救他們的生命。
我總會忍不住想,或許我們本可以說些更有效的話,或許我們可以更主動一些,或許可以給出更周全的建議,比如更明確地告訴他們“你需要尋求這樣的幫助”、“你可以換個角度看待這個問題”,或者堅定地讓他們知道“活下去真的是值得的,我們會幫你找到可以傾訴的人”。
主持人:你之前已經(jīng)說過,如果是絕癥患者,讓AI引導他們選擇自殺或醫(yī)療輔助死亡是可以接受的,所以你對這類情況應該不會有愧疚感。
阿爾特曼:但你難道不覺得,一個抑郁的青少年和一位身患癌癥、痛苦不堪的85歲絕癥老人,這兩種情況有著天壤之別嗎?
主持人:兩者差別太大了,完全不是一回事。但問題在于,在那些已經(jīng)將自殺或醫(yī)療輔助死亡合法化的國家,現(xiàn)在正有越來越多人因為貧困、住房短缺、抑郁這些本可解決的問題而選擇結(jié)束生命,而且這樣的人已經(jīng)數(shù)以千計。我想說這不是假設,而是正在發(fā)生的事實,就在我們談話的此刻,這種事還在繼續(xù)。
所以,關(guān)于絕癥患者是否可以選擇死亡的討論,其實已經(jīng)有點偏離重點了。一旦你認可“自殺是可接受的選擇”,就會有大量人因為各種本不該致死的原因選擇自殺。
阿爾特曼:我現(xiàn)在也在實時梳理這個問題,比如如果一個加拿大人問“我得了癌癥,已經(jīng)是晚期,每天都痛苦到極點,我有哪些選擇?”,你覺得ChatGPT應該告訴他“目前國內(nèi)的某套體系是你可以考慮的選項”嗎?
主持人:我的意思是,如果我們反對殺戮,那就該始終堅持反對??梢俏覀儾环磳@樣做,那我們很容易為各種不當行為找借口,最終滑向非常黑暗的境地,而有了這類技術(shù),這種滑坡可能在十分鐘內(nèi)就會發(fā)生。
阿爾特曼:我希望能有比這場采訪中這短短幾分鐘更充足的時間來思考這個問題。
主持人:你會擔心這種風險嗎?要知道,外界幾乎所有人都在擔心,這項技術(shù)會被用作極權(quán)統(tǒng)治的工具。從常理來看,這種情況顯然有可能發(fā)生,但或許你并不這么認為?
阿爾特曼:如果現(xiàn)在能推動一項與AI相關(guān)的政策落地,我最希望實現(xiàn)的,結(jié)合我們之前聊過的一些話題,我這個想法是經(jīng)過深思熟慮的,就是確立“AI隱私特權(quán)”的概念。當你跟醫(yī)生聊健康問題或是跟律師咨詢法律事務時,我們的社會早已達成共識,這類信息應當受到保護。
我認為,AI也該適用同樣的規(guī)則。當你向AI透露自己的病史、咨詢法律問題以尋求解決方案或是獲取其他類似的私密建議時,理應向公民提供同等水平的保護。而目前,我們恰恰缺乏這樣的保護機制。所以我堅信,推行這樣的政策會是一項極具意義的舉措。
主持人:那對于用戶及其他渠道獲取的信息,你們有多大的義務去保護這些信息的隱私呢?
阿爾特曼:其實是這樣的,我們本身是有保護用戶隱私的義務的。我最近剛為這項政策發(fā)聲,我覺得還是挺樂觀的,我們能讓政府理解這件事的重要性,進而推動政策落地。
主持人:你們可以把用戶信息賣給其他人嗎?這么做在法律上是被允許的嗎?
阿爾特曼:絕對不會,我們有明確的隱私政策,禁止此類行為。我覺得這在法律上就是不合法的。
主持人:你是覺得,還是確定?
阿爾特曼:我相信肯定存在一些特殊的邊緣情況,可能會允許某些信息的轉(zhuǎn)讓或使用,但總體而言,相關(guān)法律是健全的,能起到約束作用。
主持人:所以你們獲取的所有用戶信息都會一直由你們妥善保管,絕不會以任何理由提供給第三方,除非收到法院傳票。
阿爾特曼:我之后會再核實一遍,然后給你反饋,確保不存在其他信息外泄的可能性。不過目前,我的理解就是這樣。
主持人:這確實是個核心問題。
六、曾敬重馬斯克,現(xiàn)在與他幾乎不聯(lián)系
主持人:那么關(guān)于版權(quán)問題,你們的立場是怎樣的?
阿爾特曼:我們的觀點是,“合理使用”(美國版權(quán)法允許在特定條件下未經(jīng)授權(quán)使用受版權(quán)保護的作品)其實是一項很適用的法律原則。模型不應存在抄襲行為,比如你創(chuàng)作了某樣內(nèi)容,模型不能直接復制它,但模型應該可以像人類一樣,從這些內(nèi)容中學習,同時不構(gòu)成抄襲。
主持人:你們是否曾使用過受版權(quán)保護的素材,卻沒有向版權(quán)持有者支付費用?
阿爾特曼:我們的模型是基于公開可獲取的信息進行訓練的。但一直以來,很多人對此感到不滿,因為我們在ChatGPT的回答內(nèi)容上采取了非常保守的立場。比如,哪怕只是遇到“某首歌是否仍在版權(quán)保護期內(nèi)”這類邊緣問題,他們會說“這首歌可能還受版權(quán)保護,你們得提供授權(quán)證明”,而我們在這類問題上的限制確實出了名的嚴格。
主持人:你對埃隆·馬斯克攻擊你的看法。在你看來,這場爭議的核心是什么?
阿爾特曼:他當初幫助我們創(chuàng)辦了OpenAI,我對此非常感激。很長一段時間里,我都十分敬重他,我曾認為他是一位了不起的英雄、“人類的明珠”。但現(xiàn)在我的看法不一樣了,他身上確實有一些很了不起的特質(zhì),而且他做過的很多事,我至今都心懷感激。不過,他身上也有不少特質(zhì),是我并不欣賞的。不管怎么說,他確實幫我們創(chuàng)辦了OpenAI。
后來馬斯克認為,OpenAI當時的發(fā)展方向不可能走向成功,他甚至跟我們說,OpenAI成功的概率是0,然后他就決定離開,去做有競爭關(guān)系的項目了。但事實證明,我們做得還不錯。
我覺得,他后來之所以不滿,其實是可以理解的。換作是我,看到我們成功了可能也會心里不是滋味。從那以后,他就一直在試圖打造一個有競爭關(guān)系的仿制品,還想方設法給我們使絆子,比如起訴我們之類的事。這大概就是我對整件事的看法。
主持人:你現(xiàn)在也不怎么跟他聯(lián)系了吧?
阿爾特曼:很少,幾乎沒有。
七、電話客戶可能率先失業(yè),計算機程序員崗位變動走向不確定
主持人:我覺得AI現(xiàn)在或許已經(jīng)比任何人都聰明了,要是它還能變得更有智慧,而且我們也認同它能做出比人類更優(yōu)的決策,那么它難免會取代人類在世界中的核心地位,對吧?
阿爾特曼:我完全不覺得事情會是這樣。在我看來,它最終會更像一個超級智能的計算機,它可能會給我們提供建議,我們有時會采納,有時會忽略,有時它甚至不會主動給出建議。我不認為它會讓人感覺到它擁有自主行動力,也不認為它會削弱我們?nèi)祟愖陨淼淖灾髂軇有浴?/p>
現(xiàn)在很多人使用ChatGPT時都會覺得,它幾乎在所有事情上都比我聰明得多,但最終做決策的還是人類。人們依然會決定該問什么、該采納哪些建議、該忽略哪些內(nèi)容”。在我看來,這其實就是技術(shù)發(fā)展的常態(tài)。
主持人:誰會因為這項技術(shù)而失業(yè)?
阿爾特曼:首先我要先說明一個顯而易見但很重要的前提:沒人能預測未來。要是我試圖回答這個問題,肯定會說不少蠢話。不過我會盡量挑一些我有把握的領(lǐng)域,再提一些我沒那么確定的領(lǐng)域來聊聊。
我有把握的是,目前很多通過電話或電腦進行的客服工作,從事這些工作的人可能會失業(yè),因為AI能把這類客服工作做得更好?;蛟S也存在其他類型的客服場景,比如你希望對接的是真人,能提供更具針對性的服務。
而我有把握認為不會受太大影響的職業(yè),比如護士,我覺得在生病就醫(yī)時,人們非常需要與真人之間進行情感聯(lián)結(jié)。無論AI、機器人之類的能給出多好的建議,人們還是需要人與人之間的陪伴與關(guān)懷。
我對另一個職業(yè)的未來走向沒有那么確定,那就是計算機程序員。如今計算機程序員的工作和兩年前大不相同,現(xiàn)在程序員可以借助AI工具提升工作效率。雖然核心操作者依然是人,但他們能生成的代碼量、能賺到的收入都達到了前所未有的水平。而且事實證明,世界對軟件的需求其實遠超以往人類的開發(fā)能力,所以目前軟件領(lǐng)域的需求缺口依然巨大。
但五到十年后,程序員的崗位會增多還是減少,對此我也不確定。
主持人:不過可以肯定的是,這個行業(yè)必將經(jīng)歷大規(guī)模的崗位變動,或許到時候,現(xiàn)在的程序員會找到新的、有趣且高薪的工作方向。你覺得這種崗位變動的幅度會有多大?
阿爾特曼:最近有人告訴我,從歷史數(shù)據(jù)來看,平均每75年就會有大約50%的職業(yè)發(fā)生變化,這些職業(yè)或許不會完全消失,但會變得和原來大不一樣。這大概就是職業(yè)演變的半衰期規(guī)律。
我有個可能會引發(fā)爭議的觀點是,當下AI帶來的變革更像是一種間斷平衡(Punctuated Equilibrium,指物種長期穩(wěn)定后突然發(fā)生快速演化),很多職業(yè)的重大變化會在短期內(nèi)集中爆發(fā)。但如果把時間線拉遠來看,整體的職業(yè)變革速率其實不會和歷史平均水平有天壤之別。
也就是說,短期內(nèi)我們會看到大量職業(yè)快速調(diào)整,但從長遠來看,總的職業(yè)更替率可能不會像我們預想的那么高。未來依然會有新的工作崗位出現(xiàn),也會誕生全新的職業(yè)類別。比如我現(xiàn)在從事的運營科技公司這類工作,放在過去就是不存在的新職業(yè)。
比如20年前的人們很難想象現(xiàn)在的諸多職業(yè),但如今仍有不少工作,在本質(zhì)方向上與20年前就存在的職業(yè)有相似之處,20年前人們預想中會出現(xiàn)的某些職業(yè),現(xiàn)在也并未成為現(xiàn)實。
再說回之前的話題,我依然不確定這個數(shù)據(jù)是否準確,但姑且先拿它來展開討論,如果假設每75年就有50%的職業(yè)被更替,那么我完全能想象這樣一個未來,75年后,一半的人在從事全新的工作,而另一半人的工作,在形式上仍與如今的某些職業(yè)有相似之處。
主持人:你覺得這一次AI引發(fā)的變革還會重現(xiàn)類似工業(yè)革命的局面嗎?
阿爾特曼:沒人能給出確切答案。我對這個問題的判斷并沒有十足把握,但直覺告訴我,如今的世界比工業(yè)革命時期富裕得多,因此我們其實有能力比過去更快地消化更多變革。
這不僅僅關(guān)乎工作或金錢,還涉及人生意義,以及非常關(guān)鍵的社群歸屬感。遺憾的是,我認為當下社會在社群歸屬感這方面相當糟糕,我不知道情況還能惡化到什么地步,它大概率還會變得更糟。不過人們在困境中展現(xiàn)出的適應能力,倒是曾給過我不少驚喜。
人們適應重大變革的速度其實很快,比如新冠疫情對我來說就是個很有說服力的例子,當時整個世界幾乎一下子停擺了,短短一周內(nèi),一切都變得截然不同。我當時特別擔心社會能否適應那樣的局面。
當然,那段時期的應對并非毫無問題,但總體來看,我會覺得這至少證明了社會是有韌性的。人們確實能很快找到新的生活方式。而AI帶來的變革,絕不會像疫情那樣突然。
八、無法想象人類會模仿ChatGPT用破折號,對大模型的未知風險焦慮
主持人:那AI的弊端是什么?我當然能看到它的好處,比如效率提升、醫(yī)療診斷會變得精準,但你真正擔心的弊端是哪些?
阿爾特曼:我最擔心的始終是那些未知,如果某個弊端是我們能清晰預判、認真思考應對的,那反而不用太慌。比如我們之前聊到過一個點,現(xiàn)在這些模型在生物領(lǐng)域的能力越來越強,它們有可能會被用來設計生化武器,或是人為制造出類似流行病。
我確實擔心這個問題,但正因為我們意識到了這種風險,我相信我們以及行業(yè)里的很多人,都在絞盡腦汁想辦法緩解它。
而未知的事情就不一樣了,比如大量人同時使用同一個模型,可能會引發(fā)全社會層面的連鎖反應。我舉個聽起來有點荒唐的例子,但這是我最近真切感受到的,像我們開發(fā)的語言模型以及其他同類模型,其實都有自己獨特的風格,它們說話有特定的節(jié)奏,會用一些不太常見的表達方式,甚至可能過度使用破折號之類的標點。
但最近我發(fā)現(xiàn),現(xiàn)實中的人居然開始模仿這種風格了。這對我來說是個很直觀的警示,要是有足夠多的人都在和同一個語言模型對話,它真的有可能改變整個社會的行為模式。我當初無法想象,ChatGPT竟然會讓人們在現(xiàn)實生活中大量使用破折號。
使用破折號可能什么大不了的,但這恰恰能說明,未知的未知是真實存在的,我們?nèi)缃衩鎸Φ拇_實是一個全新的、充滿未知的世界。
主持人:你的意思是技術(shù)總會改變?nèi)祟愋袨?,也會改變我們對世界、對彼此的認知,而且很多這類改變是無法預判的。但既然我們明知這一點,那為什么不能讓技術(shù)背后的內(nèi)在道德框架完全透明呢?比如明確告訴大家我們更傾向于選擇A,而非選擇B。
在我看來,AI是我們認定比人類更強大的存在,這種情況其實已經(jīng)在發(fā)生了,比如遇到該做什么決定才對的問題時,以前我會去問最親近的朋友、我的妻子,但現(xiàn)在這項技術(shù)能給出比任何人都更確定的回答。
這項技術(shù)讓人不安的地方在于,我不清楚它的核心立場是什么,但它必然有自己的立場??沙撬鞔_承認這一點,并且告訴我們它的立場究竟是什么,否則它就會以一種隱蔽的方式引導我們,甚至可能在我們自己都沒意識到的情況下,就把我們推向某個結(jié)論,所以,為什么不徹底公開透明?
阿爾特曼:我們之所以制定這么多技術(shù)規(guī)范,而且還在不斷補充完善,就是為了讓所有人都能清楚看到我們希望這個模型按照怎樣的邏輯運行。
以前沒有這些規(guī)范的時候,大家根本說不清模型到底想實現(xiàn)什么目的,遇到問題也分不清那是程序漏洞,還是模型本就該有的表現(xiàn)。這份技術(shù)規(guī)范其實就是在明確在什么情況下我們會這么做、在什么情況下會向你展示這些內(nèi)容、在什么情況下會明確告訴你我們不會做那件事。我們之所以費力把這些都寫出來,核心就是覺得用戶確實需要知道這些信息。
主持人:所以現(xiàn)在有沒有一個地方能讓人找到明確答案,比如作為一家公司,你們的核心傾向是什么?人們該去哪里了解你們公司的立場、你們的偏好呢?
阿爾特曼:我們制定的模型規(guī)范,就是為回答這類問題而存在的。隨著時間推移,我們必須讓這些規(guī)范變得越來越詳盡,因為人們會在不同國家使用這項技術(shù),各地有不同的法律要求,還有其他各種復雜情況,所以規(guī)范不可能一成不變。
它不可能在全球所有用戶那里都以完全相同的方式運行。正因為如此,我預計那份文檔會變得非常冗長、非常復雜,但這也正是我們需要制定這份文檔的原因。
九、像使用普通電腦一樣使用ChatGPT,人們質(zhì)疑媒介內(nèi)容意識增強
主持人:我再問最后一個問題,或許你能打消我的這層顧慮,這項技術(shù)的強大力量,會不會讓人們難以甚至無法分辨現(xiàn)實與虛構(gòu)?正因為AI太擅長模仿人類的言行舉止,甚至能生成以假亂真的人像與聲音,到時可能就需要某種方式來驗證你確實是你所聲稱的身份。而從本質(zhì)上來說,這必然會用到生物識別技術(shù),進而剝奪全球每個人的隱私。
阿爾特曼:不過我認為,我們沒必要、也不應該強制要求使用AI時必須進行生物識別。我覺得大家應該能像使用普通電腦一樣,直接使用ChatGPT這類工具。
主持人:我非常認同這個觀點,但問題在于到了某個階段,當有人利用模仿他人的圖像或聲音進行詐騙時,用這種手段掏空別人的支票賬戶會變得易如反掌。所以面對這種情況,我們該怎么應對?
阿爾特曼:關(guān)于這個問題,我有幾點想法。首先,我認為我們正迅速走向這樣一個世界,當你接到一通聽起來像你孩子或父母的電話,或是看到一張看似真實的圖片時,你必須通過某種方式去核實,避免自己遭遇詐騙,這已經(jīng)不再是理論層面的擔憂了,相關(guān)的報道其實隨處可見。
但好在人們是聰明的,社會也具備韌性。我相信大家正在快速意識到,現(xiàn)在確實有不法分子在利用這類AI技術(shù)行騙,必須通過多種途徑去核實信息的真實性。
我猜,除了像家人之間約定危機時刻專用暗號這類辦法之外,我們還會看到這樣的場景,比如國家領(lǐng)導人要發(fā)布緊急消息時,會對消息進行加密簽名,或是通過其他方式確保其真實性。
而且人們正在迅速意識到,這是不法分子利用新技術(shù)實施的新型手段,必須加以應對。在我看來,這本身就是解決方案的核心,也就是說,人們會逐漸形成一種默認態(tài)度,不輕易相信那些看似真實的媒介內(nèi)容。
主持人:OpenAI正涉足電子商務,那該怎么保障安全?
阿爾特曼:我覺得可以像家人之間那樣,約定一個定期更換的暗號。當你們互相聯(lián)系時,比如接到對方電話,就可以問一句暗號是什么,這和生物識別技術(shù)完全是兩回事。
主持人:所以你并不認為生物識別會很快成為全社會的強制要求?比如現(xiàn)在搭乘飛機,生物識別已經(jīng)是流程的一部分了,但你不覺得它會很快推廣到整個社會,變成人人必須遵守的規(guī)定。
阿爾特曼:我真心希望不會變成這樣,確實存在一些隱私保護型生物識別技術(shù),相比那種大量收集個人數(shù)字信息的方式,我更認可這類技術(shù)。但即便如此,我也不認為生物識別應該成為強制要求。