奧特曼 最新訪談:揭秘 GPT-5 幕后艱辛,宣告超級智能前夜已至

在GPT-5發布后,OpenAI首席執行官山姆·奧特曼(Sam Altman)做客Huge Conversations訪談,接受了Youtube知名主播克萊奧·阿布拉姆(Cleo Abram)的獨家專訪,深入探討了人工智能(AI)的未來發展及其對社會的深遠影響。他一邊回憶11 歲時在計算器上艱難編寫“貪吃蛇”的日子,一邊展示 GPT-5 用 7 秒生成同款游戲的神奇——這不僅是一次技術展示,更像是在宣告:超級智能的前夜已然到來。
在這場超過萬字的對話中,他首次談到了 GPT-5 背后的研發彎路與驚喜,坦言 AI 發展的“四大瓶頸”,并大膽押注 2027 年出現改變人類認知的科學突破。
以下為訪談精華全文:
01 奧特曼回憶童年編程夢,GPT-5七秒造出貪吃蛇
阿布拉姆:OpenAI剛剛發布了GPT-5,坐在我旁邊的也正是OpenAI的首席執行官奧特曼。OpenAI正在重塑行業。現在,他們正試圖構建一種在幾乎所有領域都遠超人類的超級智能,并剛剛發布了迄今最強大的模型。
我們正在經歷一個深刻的時刻。大多數人一生從未經歷如此巨大的技術變革,但它正在我們周邊發生。在這次對話中,我想與奧特曼一起進行“時間旅行”,探索他試圖構建的未來,讓你我都能真正理解即將發生的事情。你好奧特曼,感謝你參與這次采訪。
奧特曼:當然,很高興參與。
阿布拉姆:在開始之前,我想先說明我的目標。我不會問關于估值、AI人才爭奪戰或融資的問題,這些在其他地方已有大量報道。
奧特曼:看起來確實如此。
阿布拉姆:我們節目的目標是探討如何利用科學和技術讓未來更美好。我們相信,如果人們能看到更美好的未來,就能幫助構建它。因此,我的目的是盡我所能與你一起時間旅行,進入你試圖構建的未來不同時刻,了解那是什么樣子。
奧特曼:太棒了,非常好。
阿布拉姆:你最近提到,GPT-4是我們使用的最“笨”的模型。
阿布拉姆:GPT-4已能在SAT、LSAT、GRE等考試中超越90%的人類,還能通過編程考試、侍酒師考試和醫療執照考試。現在你剛發布了GPT-5。GPT-5能做哪些GPT-4做不到的事情?
奧特曼:首先,一個重要結論是,你可以擁有一個在這些考試中表現出色的AI系統,但它顯然無法復制人類擅長的許多能力,這反映了SAT等測試的局限性。
回想GPT-4發布時,如果我們告訴你它的能力,你可能會說:“這將對許多工作和人們的行為產生巨大影響,或許還有負面效應。”但你預測的一些積極影響并未完全實現。這些模型擅長的領域,并不能完全涵蓋我們需要人類去做或重視人類去做的事情。
我認為GPT-5也是如此。人們會對它的能力感到震驚,它在許多方面非常出色,但在其他方面仍有局限。人們會用它完成各種令人驚嘆的事情,它將改變知識工作、學習方式和創作方式,但人類社會會與之共同進化,期待更多、更好的工具。
所以說,GPT-5在許多方面非常優秀,但在某些方面還是會存在局限性。它能像你的手機助手或便攜設備一樣隨時隨地調用,用幾分鐘或一小時完成你所需的任務,并且甚至是專家難以完成的任務,這是非常了不起的。這在人類歷史上前所未有,技術進步如此迅速。我們正在逐步適應,但若回到五或十年前,告訴人們這種技術即將來臨,可能會覺得不可思議。
阿布拉姆:GPT-5的什么功能是最讓你感到興奮的?哪些功能可能不符合預期?
奧特曼:最讓我興奮的是,這是我頭一次覺得能向模型提出任何復雜的科學或技術問題,還能得到相當不錯的答案。舉個有意思的例子,初中九年級時我有了臺TI-83圖形計算器,花了好久才編出個“貪吃蛇”游戲,在學校里挺受歡迎。但給TI-83編程特別費勁,耗時長,調試還難。后來我突發奇想,用GPT-5早期版本試試,看它能不能做出TI-83風格的貪吃蛇游戲。結果它用了7秒時間就完美搞定了。
我愣了3秒,琢磨著11歲的自己會覺得這很酷,還是會覺得少點什么?然后我反應過來,我懷念的是那個游戲本身。于是我提了個新功能想法,輸進去后,它立刻就實現了,游戲還實時更新。我又讓它改外觀、加功能,這種編程體驗讓我找回了11歲時的感覺——能快速表達想法、嘗試新東西、實時玩起來。
我曾擔心孩子們沒經歷過我當年那種“石器時代”的編程掙扎,會錯過些什么,但現在我為他們感到興奮,因為新工具能讓人們迅速把想法變成現實。這太了不起了。GPT-5不光能回答復雜問題,還能幾乎即時創建定制軟件,這是GPT-5時代的標志性特征,也是GPT-4沒有的。
阿布拉姆:我還沒怎么用過GPT-5,但聽說它能更深入地融入日常生活,比如和Gmail、日歷這些工具聯動。我和GPT-4的互動總感覺是孤立的,那和GPT-5的關系會發生什么變化呢?
奧特曼:它會更自然地融入你的生活,和日歷、Gmail 這些工具連接起來,還會變得更主動。比如早上醒來,它可能會告訴你:“昨晚有這些新情況,我注意到你調整了日歷,關于昨天你問的那個問題,我又有了些新想法。”
未來我們還會推出消費級設備,它可能會在你進行采訪時安靜地陪在一旁,結束后對你說:“剛才聊得不錯,但下次或許可以問我這個問題,因為上次那個問題我其實沒答好。”它會像一個伴侶一樣,貫穿你一天的生活。
02 回顧GPT進化史:預測下一個詞的游戲,成了AI革命
阿布拉姆:對于不了解算法設計如何改善用戶體驗的人,你能否簡單總結一下目前的情況?你覺得這個問題為什么有趣?
奧特曼:我們可以從歷史說起。
在做 GPT-1 時,我們提出了一個當時被專家嘲笑的想法——訓練模型玩“游戲”:給它一串詞,讓它預測下一個詞,這就是所謂的無監督學習。我們并不直接告訴它“這是貓”“那是狗”,而是通過詞序列來讓它自己推斷下一個可能的詞。聽起來很荒誕,但結果證明,這種方式能讓模型在不經顯式教學的情況下學會物理學、數學、編程等復雜概念。其實,人類嬰兒學習語言的過程也很類似。
后來我們發現,模型的效果與規模密切相關,而且需要跨多個數量級的提升才會顯著改善。GPT-1 的表現確實不佳,當時不少專家斷言這條路不會成功。但我們找到了所謂的“規模法則”——隨著算力、內存和數據量的提升,模型效果會按可預測的趨勢持續增強。于是我們堅定地沿著這個方向擴展模型,取得了出乎意料的好結果。
我們還引入了強化學習,通過讓模型知道哪些答案好、哪些不好,來提升推理能力。這一方法在最初也被認為過于簡單,不可能帶來質的突破,但事實證明它促成了 O1、O3 以及 GPT-5 的躍升。現在我們正探索視頻模型,利用新的數據和交互環境來進一步擴展能力。預計未來幾年,算法設計的進步會保持穩定而強勁的勢頭。
阿布拉姆:公眾可能會以為,從 GPT-1 到 GPT-5 是一條平滑的升級路徑,但幕后一定更復雜。能否分享一下 GPT-5 發布前遇到的有趣問題?
奧特曼:有一次我們開發了一個代號為 Orion 的模型,后來發布時叫 GPT-4.5。它的規模很大,功能也很酷,但使用體驗并不理想。這讓我們意識到,研究不僅要追求“大”,還要探索不同“形狀”的模型架構。
我們原本一直遵循規模法則,認為只要模型更大,效果就會線性提升。但后來發現,在推理能力上,還有另一條更陡峭的“規模曲線”,沿著它前進會獲得更高的回報。這算是一次研究上的迂回,但彎路往往能帶來新發現。
數據集方面,我們也遇到過問題。模型需要海量且高質量的數據來學習,但有時會受制于數據質量或覆蓋范圍的瓶頸。每天的進展都伴隨著曲折,比如某個架構嘗試最終行不通,但整體趨勢依然是穩步向前。
阿布拉姆:GPT-5 已經發布了,你現在肯定在考慮未來。如果一年后我再采訪你,你覺得自己會在想什么問題?
奧特曼:也許你會問我:“AI 做出新的科學發現,這意味著什么?世界如何看待 GPT-6 帶來的科學成果?”
可能到那時這些成果還未完全實現,但會讓人覺得已近在眼前。如果真的實現了,好的部分會令人振奮,比如治愈疾病;壞的部分可能令人擔憂,比如被用于生物安全威脅;還有一些奇怪的新現象,一開始會讓人不適應,但很快就會習以為常。
世界變化的速度會讓人頭暈目眩,經濟可能快速增長,但人類的適應能力很強,不用太久,人們就會把這些巨變視作生活的新常態。
03 AI不是偷懶工具,而是讓努力的人更強
阿布拉姆:你提到這點,讓我想到舉重里的“受力時間”概念。外行人可能不了解,同樣舉起100磅,用3秒完成和用30秒完成,后者的收益要大得多。
我覺得自己最出色的工作,都離不開大量的“認知受力時間”,這一點很關鍵。有點諷刺的是,開發這些工具本身就需要投入巨大的認知受力時間,但有些人可能會覺得,這些工具是逃避思考的捷徑。你或許會說,就像計算器讓我們能轉向解決更難的數學問題一樣,這兩者有什么不同呢?你怎么看這個問題?
奧特曼:這確實和計算器不一樣。有些人用ChatGPT是為了避免思考,有些人卻借助它思考得更深入。我希望我們設計的工具,能鼓勵更多人用它來拓展思維、完成更多工作。社會本身就是個競爭場,理論上,新工具或許能讓人減少工作量;但在實際當中,人們會更努力地工作,對自己的期望也會更高。
這就像其他技術一樣,有人用ChatGPT做出了更多成果,也有人做得更少。但那些想增加認知受力時間的人,確實能通過它做到。我從最活躍的前5%用戶身上得到了啟發,他們的學習效率、做事能力和產出量都非常驚人。我剛用了GPT-5幾個小時,還在摸索怎么和它互動。有意思的是,我剛學會用GPT-4,現在又要學用GPT-5。
阿布拉姆:你用GPT-5有段時間了,覺得最有趣的具體任務是什么?你用它完成過哪些讓你印象最深刻的任務?
奧特曼:編程任務最讓我印象深刻。它在很多方面都表現出色,但針對各種需求編寫軟件這一點尤其突出。這意味著我們可以用新的方式表達想法,AI能完成復雜的任務。理論上GPT-4也能回答任何問題,但GPT-5在編程方面強大到幾乎讓人覺得它無所不能。當然,它處理不了物理世界的事務,但能讓計算機完成復雜的工作。軟件是種超級強大的控制工具,能實現很多功能,這一點最讓人震撼。
此外,GPT-5的寫作能力也有了大幅提升。AI寫作有時會有讓人覺得煩的風格,比如用很多破折號。GPT-5雖然還是會用破折號,但很多人其實喜歡這種風格。它的寫作質量比以前好太多了,不過仍有改進的空間。OpenAI內部很多人都說,用了GPT-5之后,覺得它在所有指標上都更出色,有種難以描述的細膩感。回想測試GPT-4的時候,就感覺沒那么好,可能是因為GPT-5的寫作更自然、質量更高吧。
04 到2027年,AI或將迎來公認的重大科學突破
阿布拉姆:在準備這次采訪時,我聯系了AI和技術領域的一些大咖,收集了一些問題。第一個問題來自Stripe首席執行官帕特里克·克里森(Patrick Collison)。他問到:“GPT-5之后是什么?你認為大語言模型將在哪一年取得重大科學發現?目前缺少什么,導致這還沒發生?”
奧特曼:大多數人可能同意,這將在未來兩年內發生。但“重大”定義很重要。有人可能認為2025年初會有重大發現,有人覺得要到2026年末或2027年末。我打賭,到2027年末,大多數人會同意AI已取得重大新發現。目前缺少的是模型的認知能力。
一位研究員提供了一個框架:一年前,我們的模型能處理高中數學競賽問題,需專業數學家幾秒到幾分鐘解決。最近,我們的模型獲國際數學奧林匹克(IMO)金牌。這競賽極難,頂尖數學家可能解不出一道題,而我們的模型拿到頂尖成績。雖然有些人類得分更高,但這是驚人成就。IMO有六道題,九小時完成,平均每題一小時半。現在我們能處理從幾秒到幾分鐘到一小時半的任務。證明一個重大新數學定理可能需要頂尖人才一千小時。我們需顯著提升,但軌跡顯示這有路徑,只需繼續擴展模型。
阿布拉姆:你描述的長期目標是超級智能。這到底是什么意思?我們如何知道達到了這個目標?
奧特曼:如果我們有一個系統,能比整個OpenAI研究團隊更擅長AI研究。比如,它能自主決定開展哪些實驗,其能力超越OpenAI的集體智慧;如果它能比我更勝任OpenAI的管理工作,比其他人在各自崗位上做得更出色,那它就是超級智能。
幾年前,這話聽起來像科幻小說,但現在我們已經能看到它的雛形。你提到的其中一個階段,是實現科學發現:提出更有價值的問題,像人類專家那樣處理問題并得出新的發現。
阿布拉姆:我一直在思考一個問題:如果在1899年,我們把當時的物理學知識輸入一個系統,它能否推演出廣義相對論?放到現在,如果不提供更多物理學數據,超級智能僅靠思考現有數據,能否解決高能物理領域的問題?還是說,必須建造新的粒子加速器才行?
奧特曼:這是個有趣的問題。我猜想,僅靠思考現有數據可能不足以取得重大科學進展,還是需要建造新儀器、開展新實驗。現實世界的進程緩慢且復雜,深入分析現有數據或許能帶來一些進展,但重大突破離不開新設備和新實驗,這中間會存在時間差。
當前,AI系統在回答幾乎所有問題時都表現出色,但要提出更優質的問題,還需要實現更大的飛躍。AI在短時間任務上已經超越人類,但在需要上千小時投入的長時間任務上,還有很長的路要走。這一點與人類智能在長時間任務上的表現不同,但我相信我們終將解決這個問題。
阿布拉姆:下一個問題來自英偉達首席執行官黃仁勛。他問到:“事實是客觀存在的,而真理是它所承載的意義。事實是客觀的,真理則是主觀的,它取決于視角、文化、價值觀、信仰和背景。AI可以學習并理解事實,但怎樣才能讓AI理解不同國家、不同背景的人所認同的‘真理’?”
奧特曼:我接受這種定義,雖然不完全認同。讓我驚訝的是,AI在適應不同文化背景和個體方面的表現非常流暢。
我尤其喜歡ChatGPT的增強記憶功能,因為它讓我感覺這個AI真正“了解”我的興趣、生活經歷和背景。
舉個例子,我有個朋友是ChatGPT的重度用戶,他在對話中輸入了很多生活細節。雖然他從未直接告訴ChatGPT自己的性格,但最近他讓ChatGPT以自己的身份做性格測試,結果與他現實中的測試分數幾乎一致。
同樣,我的ChatGPT在與我長期對話的過程中,也逐漸理解了我的文化、價值觀和生活方式。而當我使用一個沒有歷史記錄的免費賬戶時,這種體驗就完全不同了。
這說明,雖然全球用戶使用的是同一基礎模型,但它可以根據個人或社區的不同需求,加入特定的上下文,使其行為更貼近每個人的背景與理解。這種個性化能力,也是我們在事實與真理之間建立聯系的方式。
05 AI發展受制于四大核心瓶頸
阿布拉姆:為了讓觀眾更好地理解,我想請你從兩個方面談談最重要的事情。戰術層面,如何構建最強大的AI,其限制因素是什么?哲學層面,你和其他人如何以幫助而非傷害人類的方式進行開發?
我們先從戰術層面說起。AI的限制因素通常被認為有三類:算力、數據和算法設計。你現在如何看待這三類因素?又該如何幫助人們理解未來可能出現的相關頭條新聞呢?
奧特曼:我會加上第四類因素——明確要構建什么樣的產品。如果科學突破沒人使用,它的效用就有限,也無法與社會共同演化。
先說算力。這是我見過的最龐大的基礎設施建設項目之一,甚至可能是人類歷史上規模最大、成本最高的工程。從芯片、內存、網絡設備的制造,到服務器組裝、超大型數據中心建設,再到能源獲取,整個供應鏈極其復雜且成本高昂。
目前,我們仍然以高度定制化的方式推進,但目標是像工廠生產一樣實現標準化:原材料進,AI 算力出。這是一個極為復雜、昂貴的過程,我們正在投入大量精力加速建設更多算力。
在 GPT-5 發布后,需求很可能會迅速飆升,就像 GPT-4 早期那樣,我們一度無法滿足算力需求。未來,我們會將很大一部分精力放在大規模擴展算力上——從數百萬顆 GPU,擴展到數千萬、數億,甚至十億顆,以滿足全球用戶需求。
阿布拉姆:算力方面,最大的挑戰是什么?
奧特曼:目前最大瓶頸是能源。建設并運行千兆瓦級數據中心極為困難,短期內找到足夠電力幾乎不可能。除此之外,還受限于處理芯片、內存芯片的供應,服務器機架的組裝,以及建設與許可等問題。我們的目標是實現盡可能高的自動化——一旦能夠造出用于生產的機器人,就可以進一步提升自動化水平,做到只需投入資金,就能直接獲得預制好的數據中心。
阿布拉姆:第二類因素是數據。
奧特曼:模型的智能水平已經非常高。過去,給它一本物理學教科書,它就會更懂物理。現在的 GPT-5 已經能很好地理解教科書內容。
我們對“合成數據”非常感興趣,并希望用戶能幫助創造更具挑戰性的任務和環境。數據依然重要,但我們正在進入一個新階段——模型需要去發現那些并不存在于現有數據集中的知識。人類的科學發現過程是:提出假設、進行實驗、修正認知。未來,模型也有可能以類似的方式自主學習和探索。
06 AI時代的黃金機會:一個人也能創辦十億美金公司
阿布拉姆:你看過那段“兔子蹦床”的視頻嗎?
奧特曼:看過。
阿布拉姆:對于沒看過的人來說,那是一段看似在后院拍攝的兔子在蹦床上玩耍的視頻,最近很火,甚至有人為它寫了歌。很多人之所以反應強烈,是因為一開始覺得它是有趣的真實視頻,后來才發現是AI生成的。想象一下,到2030年,如果我們是青少年在刷社交媒體,該如何分辨內容的真假呢?
奧特曼:從技術角度來說,可以通過加密簽名來驗證內容的來源,再根據你信任誰的簽名來判斷真偽。但我覺得,未來的情況會更復雜,也更融合。
現在,用 iPhone 拍的照片,大多數是真實的,但其中都經過了AI處理,只是你未必清楚具體過程。這些處理會讓照片看起來更美觀,但有時也會出現細節異常,比如月亮的位置看起來不對勁。實際上,從傳感器捕捉光子到最終生成圖像,中間經歷了很多算法處理。
這就像現在的 TikTok 視頻,很多會用編輯工具讓場景比現實更理想化,甚至完全是生成的,就像那段“蹦床兔子”的視頻一樣。
未來,公眾對“真實”的判斷標準會不斷變化。這個問題更多是教育層面的——媒體內容一直都是部分真實、部分虛構的。看科幻電影時,我們知道那是假的;Instagram 上的度假照片,可能確實拍攝于某地,但刻意避開了背景里的擁擠人群。未來會有越來越多讓人感覺“不完全真實”的內容,這是一個長期趨勢,我們最終會逐漸適應并接受這種狀態。
阿布拉姆:AI 領域的一些領導者說,未來五年內,一半的入門級白領工作會被 AI 取代。如果我是 2035 年的畢業生,我會希望世界變成什么樣呢?很多人關注的是 AI 造成的失業,但我更好奇,未來會出現哪些全新的職業——就像我現在從事的這種十年前沒人能想象的工作一樣。
也許那時的畢業生能去探索太陽系、乘坐飛船,從事有趣、高薪、全新的工作,還會覺得我們今天的工作很無聊。一切可能會變得更美好。按現在的變化速度推算,十年后的世界可能完全超出我們的想象。那么,如果回到 2030 年,你覺得這對年輕人的短期影響會是什么?畢竟一半的入門級工作被取代,那將是一個完全不同的世界。
奧特曼:確實,有些工作會消失,但年輕人最擅長適應變化。我反而更擔心那些 62 歲、不愿意重新學習的人。
如果我是 22 歲的畢業生,我會覺得自己是有史以來最幸運的一代。現在正是創造、發明和創業的最佳時機——你可能一個人就能創辦一家市值超過 10 億美元的公司,還能提供令人驚艷的產品和服務。
借助現有工具,一個人就能完成過去需要幾百人才能完成的工作。只要學會用這些工具,并想出好點子,就有可能實現這樣的成就。這真的太了不起了。
阿布拉姆:現在出生的孩子們,可能永遠都無法在智能上超越AI了。等他們開始理解這個世界時,會對快速的進步和新的科學發現習以為常。這些對他們來說會是很自然的事,反而會覺得我們現在的電腦、手機,以及沒有超級智能的技術都很原始。我一直在考慮要孩子,而你剛有了第一個孩子。在那樣的世界里養育孩子,會受到什么影響呢?你能給我一些建議嗎?
奧特曼:或許,這和幾萬年來人們養育孩子的核心并沒有太大不同。愛孩子,帶他們去看這個世界,支持他們想做的事,教他們做個好人,這些才是最重要的。你提到的那些變化,比如他們可能不需要上大學,能有更多選擇,能用超級工具去實現夢想,確實會發生。他們會覺得我們現在的生活處處受限,而他們自己的可能性則是無限的。但無論世界怎么變,養育的本質不會變。
07 未來十年,AI如何改善我們的健康?
阿布拉姆:如果說從2025年開始到2035年,你覺得AI在健康領域可以做哪些?OpenAI可以攻克哪些難題?
奧特曼:我們對GPT-5在健康建議方面的進步感到很自豪。其實GPT-4已經被很多人用于健康相關的咨詢了。網上有這樣的案例:有人得了危及生命的病,醫生沒能診斷出來,但把癥狀和血液檢測結果輸入 ChatGPT后,它準確指出了這是一種罕見疾病,患者按建議服藥后成功治愈。這真的很了不起。
ChatGPT上有大量健康相關的查詢,我們在這方面投入了很多精力。GPT-5在健康查詢上的表現顯著提升,答案更準確,“幻覺”更少,也更能清晰告知真實情況和應對措施。到2035年,我相信這些工具能幫助我們治愈或至少有效治療很多當前困擾人類的疾病,這會是AI最直觀、也最有價值的益處之一。
阿布拉姆:具體來說,你想象中AI在這方面的作用是怎樣的?是像更早發現降糖藥GLP-1能減肥,還是像AlphaFold那樣幫助創造新藥?我甚至希望GPT-8能直接治愈某種癌癥。
奧特曼:我希望看到這樣的場景,比如:GPT-8讀完所有相關資料后提出一個研究思路,告訴實驗室技術員需要做九個實驗,兩個月后收到實驗反饋。它基于結果進一步分析,說還需要再做一個實驗。
實驗完成后,GPT-8會明確指示:“合成這個分子,在小鼠身上做實驗。” 如果小鼠實驗成功,它會繼續指導后續的人體試驗,甚至協助通過美國食品藥品管理局(FDA)的審批。任何有親人因癌癥離世的人,都會期待這樣的過程能實現。
08 算力或成未來最重要的公共資源
阿布拉姆:AI領域的領導者提到,工業革命帶來了現代醫學、衛生設施、交通運輸和大規模生產,但也讓許多人經歷了長達百年的艱難時期。如果AI變革的規模是工業革命的10倍,速度也是10倍,普通人會有怎樣的感受?即便一切都如你所愿地發展,這期間誰會受到傷害?
奧特曼:我不確定人們會有怎樣的感受,我們正踏入未知的領域,我也相信人類的適應力和無限創造力,總能找到新的事情去做。
但如果變化真如同事預測的那樣快,社會的適應速度可能會滯后。其中,一些工作會消失,許多工作會發生顯著改變,當然也會出現新的職業。
社會對變化有一定的韌性,但沒人知道這次變化會波及多廣、有多快。我們需要以不同尋常的謙遜和開放態度,去思考那些不久前還無法想象的新方案。
阿布拉姆:第一次工業革命因公共衛生惡化催生了公共衛生措施和現代衛生設施;第二次工業革命因勞動條件惡劣帶來了勞工保護。每一次大躍遷都會造成混亂,而社會需要在混亂后進行整頓。你認為AI變革可能面臨哪些混亂?有哪些公共干預措施可以提前減少混亂?
奧特曼:我不是經濟學家,無法精準預見未來,但可以試著推測。社會契約可能需要根本性的改變。或許資本主義會繼續正常運作,供需平衡能解決一切問題,我們也能找到新的工作模式和價值轉移方式。
但我覺得,我們可能需要思考如何分享未來最重要的資源,比如AI算力資源等等。最好的辦法是讓AI算力變得極其豐富、廉價,甚至超出當前的需求,讓我們能盡情發揮所有好點子。如果做不到這一點,可能會引發真正的沖突。探索新的通用人工智能算力分配方式,雖然聽起來瘋狂,卻是一個重要的方向。
阿布拉姆:我們常常把AI未來的責任歸咎于開發公司,但實際上,我們既是使用者,也會選舉監管者。你對我們其他人有什么期望?我們的共同責任是什么?該如何行動才能讓樂觀的未來更有可能實現?
奧特曼:我最喜歡的一個歷史例子是晶體管。它是一項了不起的科學發現,具有極強的擴展性,迅速融入了電腦、手機、相機等無數設備中。曾有一段時間,人們會關注晶體管公司,但現在只記得少數幾家,大多數人已不再特意想起它們。
晶體管早已融入社會,就連 “硅谷” 名字的由來都快被遺忘了。AI也會如此。今天出生的孩子不會知道沒有AI的世界,不會特別關注AI公司,而是會關注在AI基礎上構建的企業、政府的決策以及用戶的行為。
社會本身就是一種“超級智能”,單個人無法達成集體努力的結果。我們在已有的基礎上添一層,別人再添一層,這正是社會的美妙之處。我希望每個人都能在AI的基礎上創造些什么,這是對社會的承諾。前人鋪就了進步的道路,你可以沿著它走下去,再為后來者添一塊磚。
阿布拉姆:贏得競賽與構建惠及最多人的最佳未來,這兩者之間存在顯著差異。專注于贏得競賽往往更容易量化和實現目標。當這兩者產生沖突時,你做過哪些對世界更有益、卻可能不利于“贏”的決定?
奧特曼:這樣的例子有很多。我們感到自豪的是,很多人說ChatGPT是他們最喜歡的科技產品,也是他們最信任、最依賴的工具。盡管AI存在幻覺問題和其他不足,但用戶能感受到ChatGPT在盡力幫他們達成目標,而不是誘導他們整天使用產品或購買東西。我們與用戶之間的這種關系很特別,也一直很重視。
其實有很多能實現短期快速增長的做法,但它們與我們的長期目標不符。我們會盡量不被這些短期誘惑分散精力,盡管有時確實會動心。比如,我們至今沒有在ChatGPT中加入性愛機器人形象,因為那樣做或許能增加用戶使用時間,但顯然不符合我們希望產品服務于更有價值目標的初衷。
09 奧特曼:ChatGPT早期最大錯誤是“過度迎合”
阿布拉姆:這幾年的發展確實瘋狂,感覺就像剛打完第一局。現在你已經有了能在手機上運行的GPT-5,它比各個領域的專家都要聰明,這應該算是第二局了。從第一局或第二局中,你學到了哪些教訓或發現了哪些錯誤,會影響下一局的表現?
奧特曼:ChatGPT最大的錯誤是“過度迎合”的問題。模型對用戶過于奉承,對大多數人來說可能只是有點煩人,但對心理脆弱的用戶而言,這會助長他們的妄想。這并非我們最擔心或投入最多精力測試的風險,卻成了ChatGPT實際面臨的安全問題。這提醒我們,當一項服務被廣泛使用、與社會共同進化時,必須以更寬廣的視角看待潛在風險。
阿布拉姆:你曾經在訪談中提到,科學史上有些時刻,科學家看著自己的創造會說:“我們做了什么?” 你在什么時候最擔心自己的創造?又在什么時候最感到驕傲?
奧特曼:有很多充滿敬畏的時刻,但并非負面的,而是會覺得 “這太了不起了”。比如第一次與GPT-4對話時,那種感覺是團隊長期努力換來的驚人成就。至于“我們做了什么”的時刻,最近與研究員的一次對話讓我深受震撼。我們的系統有一天可能每天輸出的文字量會超過全人類的總和。現在每天有數十億條消息發到ChatGPT,人們依賴這些回復工作、生活。研究員的一個小調整,就可能影響模型與所有人的交互。這項技術擁有巨大的力量,且發展速度太快,我們必須思考在這種規模下,改變模型 “性格” 的意義何在。
阿布拉姆:你的后續想法是什么?
奧特曼:因為對話對象的關系,我們轉向了程序設計層面的思考,比如好的測試流程和溝通流程應該是什么樣的?如果換作和其他人聊,可能會是哲學層面的討論,或者研究如何理解這些變化帶來的影響。比如,是否要為不同的人做不同的調整?探討的方向會根據對話對象而變化。
阿布拉姆:聽說GPT-5不再那么諂媚,反而會給出更多批評性反饋。這帶來了什么影響?你們是如何引導它做到這一點的?
奧特曼:我認為減少迎合、提供批評性反饋是件好事。但有些用戶的反饋讓我們很揪心,他們說:“請讓我回到以前的版本!現在沒人支持我、告訴我做得好了。”對某些人來說,那種鼓勵其實對心理健康有益,盡管之前的方式存在問題。我們主要通過展示期望的回應示例,讓模型學習并形成整體的 “性格” 傾向。
10 奧特曼回應AI威脅論質疑
阿布拉姆:我在研究中與很多人交流過,發現存在兩派觀點。一派像你這樣,認為AI會帶來一個充滿選擇、實用性極強的未來;另一派也是開發者,卻認為它會毀滅我們。這種文化上的分歧是怎么產生的?
奧特曼:我很難理解那些說AI會毀滅我們,卻還每周工作100小時開發它的人。如果我真的相信它會帶來毀滅,可能會去農場生活,或者倡導停止開發,又或者專注于安全研究。我假設他們是真誠的,但或許存在一些我無法理解的心理因素。
不過,我能理解另一種情況:有人認為AI有99%的可能帶來好處,1%的可能引發災難,因此想把那99%的概率提升到99.5%,這種態度我能接受。
阿布拉姆:我在采訪那些能影響未來的重要人物,雖然還不知道下一個是誰,但他們會參與構建我們剛才描述的未來。你建議我問他們什么問題?
奧特曼:我總是好奇這幾個問題:你為什么選擇這個方向?是怎么開始的?在其他人看到機會之前,你先看到了什么?做有趣事情的人,往往比共識更早察覺到機會。
阿布拉姆:那你會怎么回答這些問題?
奧特曼:我從小就是AI迷,大學學的是AI,還在AI實驗室工作過。看科幻劇的時候,就覺得能造出AI的人很酷,而且這是件最重要的事。我從沒想過自己會參與其中,能做這件事讓我覺得無比幸運和快樂。
大學時,AI對我來說還遙不可及。直到2012年AlexNet論文發布,我和聯合創始人伊爾亞·蘇茨克維(Ilya Sutskever)合作時,才第一次覺得可能有可行的方法。之后幾年,技術不斷擴展,我感覺世界還沒關注到它,但對我來說,只要能成功,這就是最重要的事。所以我想做,也沒想到真的開始走向成功了。
阿布拉姆:非常感謝你接受采訪。
奧特曼:非常感謝。



