信任Sam Altman?這個問題本身就問錯了
媒體大亨Barry Diller在WSJ論壇上為OpenAI執行長Altman辯護,卻同時指出:AI真正的風險不在於開發者的人品,而在於連開發者自己都不知道會發生什麼。AGI時代的核心問題是什麼?
連造出它的人,都不知道接下來會發生什麼——這才是問題所在。
本週,媒體大亨Barry Diller在《華爾街日報》主辦的「Future of Everything」論壇上,替OpenAI執行長Sam Altman說了幾句好話。Diller是Fox Broadcasting的共同創辦人,現任IAC與Expedia Group董事長,與Altman私交甚篤。面對外界對Altman「操控性強、有時具欺騙性」的指控,Diller的回應是:他認為Altman是「真誠的、有良好價值觀的正派人」。
但這句話,只是他真正論點的開場白。
「他們也不知道」:開發者的驚奇感
Diller花了大量時間與AI領域的創建者接觸。他的觀察出人意料:「我與許多處於AI創造模式的人共事過,他們自己也有一種驚奇感。」
這不是謙虛的姿態,而是對技術現實的如實描述。大型語言模型在訓練過程中會湧現出開發者事先未預期的能力,這種「湧現現象」(emergence)在學術界已有大量記錄。換句話說,即便是最頂尖的AI工程師,也無法完全預測他們建造的系統將會發展出什麼能力。
Diller因此得出一個結論:「AI的一大問題是,它遠遠超越了信任的範疇。信任或許是無關緊要的,因為正在發生的事情,對那些讓這些事情發生的人來說,本身就是驚喜。我們不知道。他們也不知道。」
AGI:一扇打開就關不上的門
Diller特別點名了AGI(人工通用智慧)的風險。AGI是指在任何智識任務上都能超越人類的AI系統——目前尚未實現,但Diller認為「我們正越來越快地接近它」。
他的警告直接而清醒:「我們必須思考護欄(guardrails)的問題。」更關鍵的是他補充的下一句:「如果人類不去設想護欄,另一種力量——AGI的力量——將會自己來做這件事。一旦發生,一旦釋放出去,就再也回不去了。」
「再也回不去」這四個字,描述的是一種技術上的不可逆性。就像核武器的出現永久改變了國際安全格局,AGI一旦達到某個臨界點,人類社會的決策結構可能從根本上被重塑。
華人世界的視角:誰來設計護欄?
這個問題對華語世界而言,有著特殊的地緣政治維度。
目前,AI治理的主要框架正在美國與歐盟之間形成。中國大陸也在推進自己的AI監管體系,包括生成式AI管理規定與演算法推薦規範。然而,這些框架之間的協調機制幾乎不存在。在中美科技競爭持續激化的背景下,「護欄」的設計很可能不是全球共識的產物,而是各自為政的結果。
對台灣而言,作為全球半導體供應鏈的核心節點,AI晶片的生產與出口管制直接牽動著AGI競賽的速度。護欄建立的速度,能否跟上技術推進的速度?這個問題的答案,部分取決於台積電晶片流向哪裡、流向多快。
對東南亞的華人企業社群而言,AGI時代帶來的不只是效率提升的機遇,更是一個根本性的問題:當「最終決策者」從人類轉移到系統時,商業邏輯、法律責任、文化價值觀,將如何重新定位?
「好人領導」論的盲點
Diller發言中最值得深思的部分,恰恰是他對Altman的辯護與他的核心論點之間的張力。他說Altman是好人——然後立刻補充說,這根本不是重點。
這個邏輯結構揭示了一個深層問題:我們習慣用「誰在掌舵」來評估風險,卻忽略了「船本身的構造」。民主制度的設計邏輯恰恰相反——它假設任何人都可能犯錯或濫權,因此建立制度性制衡,而非依賴領導者的個人品德。
AI治理若要走向成熟,或許需要同樣的思維轉換:從「我們能信任誰」,轉向「我們需要什麼樣的結構,讓信任變得不那麼必要」。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
馬斯克與奧特曼的世紀訴訟揭露OpenAI被吸入特斯拉的秘密計畫。這場官司不只是富豪恩怨,更是AI治理與非營利組織本質的根本拷問。
希沃恩·齊利斯在馬斯克對奧特曼的訴訟中出庭作證,揭示了矽谷權力結構中個人關係與企業決策之間那條模糊的界線。
Peter Thiel等矽谷投資人押注1.4億美元,支持Panthalassa在海洋上建造波浪發電AI節點。這不只是能源技術的突破,更是AI基礎設施地緣政治的新變數。
前AMD Silo AI執行長Peter Sarlin創立的芬蘭AI實驗室QuTwo完成2500萬歐元天使輪,估值達3.25億歐元。拒絕VC、只收天使投資的策略,折射出歐洲主權科技的新路線。
观点
分享你对这篇文章的看法
登录加入讨论