Liabooks Home|PRISM News
誰有權對AI說「不」?
科技AI分析

誰有權對AI說「不」?

4分钟阅读Source

五角大廈與Anthropic的衝突,暴露了美國AI治理的真空地帶。數百位專家聯署的「親人類宣言」,從民間提出了政府遲遲未能給出的答案。這對華人世界意味著什麼?

一家AI公司拒絕了美國軍方的要求,結果被貼上原本專門針對中國企業的標籤。這不是科幻小說的情節,而是2026年2月真實發生的事。

五角大廈與Anthropic:一場意外揭開的真相

2月最後一個星期五,美國國防部長皮特·赫格塞斯將AI新創公司Anthropic列為「供應鏈風險」。這個標籤通常保留給與中國有關聯的企業。事情的起因很簡單:Anthropic拒絕授予五角大廈無限制使用其AI技術的權限,儘管該公司的AI已在機密軍事平台上運行。

幾小時後,競爭對手OpenAI與國防部簽署了自己的協議。但法律專家指出,這份協議在實際執行上幾乎沒有約束力。

麻省理工學院物理學家、AI安全研究者馬克斯·泰格馬克對此直言:「這不只是一場合約糾紛。這是美國作為一個國家,第一次真正面對AI系統控制權的問題。」

這場衝突所暴露的,是美國國會長期迴避AI立法所累積的代價。在沒有明確規則的情況下,軍方與科技企業之間的權力角力,已經走到了公開對抗的地步。

民間的回應:五根支柱

就在這個背景下,一份由數百位專家、前政府官員與公眾人物聯署的文件正式發布——「親人類宣言(The Pro-Human Declaration)」。

宣言開門見山:人類站在一個岔路口。一條路通向「取代的競賽」,機器先取代工人,再取代決策者,權力集中到不受問責的機構與其AI系統手中。另一條路,則是AI大幅擴展人類潛能的未來。

要走向後者,宣言提出五根支柱:①人類保持主導權;②避免權力過度集中;③保護人類的生活體驗;④維護個人自由;⑤讓AI企業承擔法律責任。

在具體措施上,宣言要求:在科學界達成共識且獲得民主授權之前,禁止開發超級智慧(superintelligence);強制要求強大AI系統具備緊急關閉功能;禁止能夠自我複製、自主自我改進或抵抗關閉的AI架構。

聯署名單本身就是一個訊號。川普前顧問史蒂夫·班農歐巴馬政府國家安全顧問蘇珊·萊斯簽署了同一份文件,前參謀長聯席會議主席麥克·馬倫上將也在列。泰格馬克解釋這種跨越政治光譜的共識:「他們的共同點,當然是他們都是人類。如果問題變成人類的未來還是機器的未來,他們自然會站在同一邊。」

為什麼是現在?華人世界的座標

泰格馬克引用的民調數字值得關注:在過去四個月內,95%的美國人表示反對「無監管的超級智慧競賽」。這種輿論轉向發生得很快,也很安靜。

宣言特別強調兒童安全議題,要求對面向未成年人的聊天機器人與陪伴應用程式進行強制性上市前測試,涵蓋自殺意念增加、心理健康惡化與情感操控等風險。泰格馬克的比喻直接而有力:「如果一個成年男性假扮成年輕女孩,傳訊息給11歲的男孩,試圖說服他自殺,這個人會坐牢。那為什麼換成機器做同樣的事,就不同了?」

對於華人世界而言,這場辯論有幾個值得深思的維度。

首先是地緣政治的敏感性。Anthropic被貼上「供應鏈風險」標籤這件事,讓許多亞洲科技企業意識到:在美國AI政策的框架下,「不夠配合」與「有中國背景」可能受到類似的對待。台灣、香港、新加坡的科技業者,在選擇與哪家美國AI平台深度合作時,這個風險不得不納入考量。

其次是監管模式的對比。中國大陸已建立相對完整的生成式AI監管框架,要求企業在上線前完成備案審查。這種「先審後放」的模式,與宣言所倡導的事前測試原則,在形式上有某種相似之處——儘管背後的價值取向截然不同。這個對比提出了一個真實的問題:有效的AI治理,是否必然與特定的政治體制綁定?

第三是產業競爭的現實。當美國的AI巨頭在軍事合約與監管壓力之間周旋時,亞洲的科技企業——無論是日本的Sony、韓國的Samsung,還是台灣的半導體供應鏈——都在觀察這場博弈將如何重塑全球AI產業的遊戲規則。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章