Liabooks Home|PRISM News
AI沒有意識——這才是真正的問題所在
CultureAI分析

AI沒有意識——這才是真正的問題所在

6分钟阅读Source

神經科學家塞斯的論文說AI沒有意識,但這個結論掩蓋了更重要的問題:當人類判斷力被系統性地削弱,誰來承擔代價?BCG、史丹佛的數據揭示自動化神話的危險。

同樣一套AI系統,讓銷售業績上升16%,也能讓它跌破基準線20%。差別不在技術,在人。

這是一個關於「配置」的故事,而不是關於「意識」的故事。

神經科學家阿尼爾·塞斯(Anil Seth)憑藉論文〈有意識AI的神話〉獲得貝格魯恩獎。他的核心論點清晰有力:AI沒有意識。大腦不是肉做的圖靈機。矽晶片無法複製生物體的電磁場、自我組織與對抗熵增的持續生物性勞動。這個結論讓許多讀者感到安慰——人類仍在頂端,機器只是工具,意識安全地封存在生物膜之內。

但這篇論文沒有回答的問題是:那又怎樣?

兩個神話,一個更危險

塞斯拆解了第一個神話:過度擬人化AI,幻想聊天機器人有內心世界、大型語言模型即將覺醒。這個批評是正確的。然而,論文在拆解一個神話的同時,無意間強化了另一個更普遍、危害更深的神話。

這個神話叫做「自動化神話」。它的邏輯是:把人從迴圈中移除,永遠是效率提升。判斷力是需要消除的成本。AI的目的是取代人類當前執行的工作,只是更快、更便宜。

這個神話不會自我宣告。它穿著投資報酬率計算、人力精簡目標與生產力儀表板的體面外衣出現在會議室。它甚至用「擴增」(augmentation)這個詞來包裝自己——幾乎所有主要AI公司都宣稱自家產品在「擴增人類能力」,同時建構的基礎設施卻朝反方向移動。

數據說的很清楚。

史丹佛大學、貝斯以色列女執事醫療中心與維吉尼亞大學聯合進行的隨機對照試驗顯示:獲得GPT-4輔助的醫師,診斷準確率與沒有AI的醫師相比,沒有顯著差異。然而GPT-4單獨作業的表現,比兩組醫師都高出15%以上。同樣的AI,同樣的臨床任務,人機「配置」不同,結果天差地遠。

當研究者重新設計協作方式——要求醫師與AI分別獨立評估,再透過結構化對話浮現分歧、保留醫師推理過程——診斷準確率從無AI的75%提升至協作模式的82至85%。差異不在資料,在配置的品質。

哈佛、MIT、華頓與華威大學的研究者針對*波士頓諮詢集團(BCG)758位顧問進行研究,結果呈現同樣的雙面性。AI擅長的任務上,使用AI的顧問完成率高出12%、速度快25%、品質高40%。但在需要真正判斷力的任務上,AI輔助的顧問表現明顯不如獨立作業的同事。技術沒有失敗,配置失敗了。

華人世界的特殊處境

PRISM

廣告合作

[email protected]

這個問題在華人世界有其獨特的張力。

中國大陸正以國家戰略的力度推進AI自動化,從製造業到金融、醫療、法律,「以AI替代人力」被視為產業升級的核心路徑。這個方向有其現實邏輯:人力成本上升、人口結構改變,自動化確實能在特定情境下提升效率。

然而,斯德哥爾摩經濟學院與日內瓦大學的研究提供了一個警示。同一套AI系統部署給製藥業務員:當系統根據專家認知風格量身設計、保留專業判斷時,客戶會面次數平均增加40%以上,業績提升16%;當系統在不考慮人類思維方式的情況下強行導入,業績跌破無AI基準線約20%。沒有AI反而更好。

台灣與香港的情況則呈現不同面向。台灣的半導體與科技產業,長期在高度複雜的人機協作環境中運作,工程師的判斷力本身就是核心競爭力。台積電的製程良率管理,從來不是單純的自動化問題,而是人類專業知識與機器精度的持續對話。這種「配置文化」,可能正是論文作者所說的「讓人類判斷力保持活躍、有方向性、能夠在系統偏移時介入」的實際體現。

問題是:當AI工具越來越強大,這種對話會被深化,還是被取代?

「配置」是可以設計的

認知科學的「4E框架」——具身、嵌入、實踐、延伸認知——早已指出,認知不在大腦裡,而在人、工具與環境的配置之中。塞斯引用了這個文獻來論證意識無法脫離生物基底,但他沒有走進這扇門打開的空間:如果認知是分散的、實踐的、延伸的,那麼分析單位就不應該是個別大腦,而是整個配置。

人類學家露西·薩奇曼(Lucy Suchman)研究人機互動,她認為自主性不是人類或機器的屬性,而是它們運作所在的配置的屬性。軍事戰略家區分「半人馬型」(人類指揮、機器執行)與「牛頭人型」(AI指揮、人類執行)系統,但這個二分法在認真對待配置概念的那一刻就崩潰了。問題不是誰掌控,而是配置是否保留了人類判斷力保持活躍的條件。

Anthropic在2025年2月發布的首份經濟指數,分析了超過100萬次人與AI助手Claude的對話,發現57%的情況下,人們是在與AI共同思考,而非將工作委託給它。然而組織層面卻持續朝相反方向傾斜——不是因為自動化帶來更好的回報,而是因為組織擁有削減成本的肌肉,卻缺乏培育能力的肌肉,而他們購買的平台恰好強化了這個預設。

經濟史學家卡爾·貝內迪克特·弗雷(Carl Benedikt Frey)在《科技陷阱》中的歷史分析揭示了一個反覆出現的模式:第一次工業革命帶來「恩格斯停滯期」,工人生產力提升46%,薪資卻只增加12%。社會建立擴增框架時,財富分配;預設自動化時,財富集中。這不是技術問題,是制度設計問題。

EU AI法第14條要求高風險AI系統必須設計成讓自然人能夠有效監督,但執行期限已從2026年8月推遲至2027年12月,而且沒有任何組織被要求示範如何落實。「以人為本的AI」這個短語充斥政策文件,但實現它的架構幾乎還不存在。

真正的問題不是AI有沒有意識

塞斯的論文命名了一個神話:對機器過度歸因意識。這個批評有其必要。但原文作者指出,還有一個同樣危險、在決策室裡更為普遍的神話:低估人類在人機配置中的存在本身就是價值所在。

兩個神話服務同一個利益:把注意力固定在「AI是什麼」,而非「AI讓什麼成為可能」,以及「當我們搞錯時,我們失去了什麼」。

以客體為中心的問題——AI是什麼?——令人舒適、可以框定、哲學上令人滿足。以關係為中心的問題——人機配置產生了什麼?在什麼條件下產生得好?——令人不安、難以框定,且要求我們重組指標、制度與對價值本身的理解。

意識問題已經接近解決,或正在解決中。真正懸而未決的問題——那個將決定AI成為機構智能引擎還是機構衰退加速器的問題——是我們是否能學會看見、衡量並保護人類能力複利增長的條件。不是AI是什麼,而是它讓什麼成為可能。以及當我們辯論錯誤的問題時,我們在不知不覺中、無可挽回地失去了什麼。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章

PRISM

廣告合作

[email protected]
PRISM

廣告合作

[email protected]