Liabooks Home|PRISM News
信任Sam Altman?這個問題本身就問錯了
科技AI分析

信任Sam Altman?這個問題本身就問錯了

4分钟阅读Source

媒體大亨Barry Diller在WSJ論壇上為OpenAI執行長Altman辯護,卻同時指出:AI真正的風險不在於開發者的人品,而在於連開發者自己都不知道會發生什麼。AGI時代的核心問題是什麼?

連造出它的人,都不知道接下來會發生什麼——這才是問題所在。

本週,媒體大亨Barry Diller在《華爾街日報》主辦的「Future of Everything」論壇上,替OpenAI執行長Sam Altman說了幾句好話。Diller是Fox Broadcasting的共同創辦人,現任IAC與Expedia Group董事長,與Altman私交甚篤。面對外界對Altman「操控性強、有時具欺騙性」的指控,Diller的回應是:他認為Altman是「真誠的、有良好價值觀的正派人」。

但這句話,只是他真正論點的開場白。

「他們也不知道」:開發者的驚奇感

Diller花了大量時間與AI領域的創建者接觸。他的觀察出人意料:「我與許多處於AI創造模式的人共事過,他們自己也有一種驚奇感。」

這不是謙虛的姿態,而是對技術現實的如實描述。大型語言模型在訓練過程中會湧現出開發者事先未預期的能力,這種「湧現現象」(emergence)在學術界已有大量記錄。換句話說,即便是最頂尖的AI工程師,也無法完全預測他們建造的系統將會發展出什麼能力。

Diller因此得出一個結論:「AI的一大問題是,它遠遠超越了信任的範疇。信任或許是無關緊要的,因為正在發生的事情,對那些讓這些事情發生的人來說,本身就是驚喜。我們不知道。他們也不知道。」

AGI:一扇打開就關不上的門

Diller特別點名了AGI(人工通用智慧)的風險。AGI是指在任何智識任務上都能超越人類的AI系統——目前尚未實現,但Diller認為「我們正越來越快地接近它」。

PRISM

廣告合作

[email protected]

他的警告直接而清醒:「我們必須思考護欄(guardrails)的問題。」更關鍵的是他補充的下一句:「如果人類不去設想護欄,另一種力量——AGI的力量——將會自己來做這件事。一旦發生,一旦釋放出去,就再也回不去了。」

「再也回不去」這四個字,描述的是一種技術上的不可逆性。就像核武器的出現永久改變了國際安全格局,AGI一旦達到某個臨界點,人類社會的決策結構可能從根本上被重塑。

華人世界的視角:誰來設計護欄?

這個問題對華語世界而言,有著特殊的地緣政治維度。

目前,AI治理的主要框架正在美國與歐盟之間形成。中國大陸也在推進自己的AI監管體系,包括生成式AI管理規定與演算法推薦規範。然而,這些框架之間的協調機制幾乎不存在。在中美科技競爭持續激化的背景下,「護欄」的設計很可能不是全球共識的產物,而是各自為政的結果。

台灣而言,作為全球半導體供應鏈的核心節點,AI晶片的生產與出口管制直接牽動著AGI競賽的速度。護欄建立的速度,能否跟上技術推進的速度?這個問題的答案,部分取決於台積電晶片流向哪裡、流向多快。

對東南亞的華人企業社群而言,AGI時代帶來的不只是效率提升的機遇,更是一個根本性的問題:當「最終決策者」從人類轉移到系統時,商業邏輯、法律責任、文化價值觀,將如何重新定位?

「好人領導」論的盲點

Diller發言中最值得深思的部分,恰恰是他對Altman的辯護與他的核心論點之間的張力。他說Altman是好人——然後立刻補充說,這根本不是重點。

這個邏輯結構揭示了一個深層問題:我們習慣用「誰在掌舵」來評估風險,卻忽略了「船本身的構造」。民主制度的設計邏輯恰恰相反——它假設任何人都可能犯錯或濫權,因此建立制度性制衡,而非依賴領導者的個人品德。

AI治理若要走向成熟,或許需要同樣的思維轉換:從「我們能信任誰」,轉向「我們需要什麼樣的結構,讓信任變得不那麼必要」。


本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章

PRISM

廣告合作

[email protected]
PRISM

廣告合作

[email protected]