Liabooks Home|PRISM News
「意識的難題」根本不存在?
CultureAI分析

「意識的難題」根本不存在?

4分钟阅读Source

物理學家兼哲學家羅維理主張,「意識的難題」建立在錯誤的二元論前提上。靈魂並非超越自然,而是自然的一部分——這對AI意識論爭與人類自我認知意味著什麼?

如果有一台機器,行為與人類完全相同,甚至聲稱自己有感受、有痛苦——你會相信它嗎?

這不只是科幻小說的問題。隨著大型語言模型與具身機器人的快速發展,這個問題正在從哲學課堂走進法庭、醫院和立法機構。而要回答它,我們必須先問一個更根本的問題:意識究竟是什麼?

一個統治哲學界三十年的框架

1994年,哲學家大衛·查默斯在圖森的一場演講中,將意識問題一分為二。他把「大腦如何處理資訊、產生行為」稱為「簡單問題」——儘管這本身已極其複雜。真正的「難題」在於:為什麼這些神經過程會伴隨著主觀經驗?為什麼痛是痛的,紅色是紅的?

查默斯認為,即使我們完整描述了大腦的所有運作,仍然存在一道無法跨越的「解釋鴻溝」——物理過程與主觀體驗之間的斷層。這個框架迅速成為意識研究的標準語言,被神經科學家、AI研究者、宗教哲學家廣泛引用。

他還提出了「哲學殭屍」的思想實驗:假設存在一個與人類行為完全相同、甚至會報告自身情感的實體,但它內部沒有任何主觀體驗。查默斯認為,這種可能性的存在本身,就證明意識無法被物理科學完全解釋。

羅維理的反擊:問題本身是個陷阱

物理學家兼哲學家卡洛·羅維理近期對這一框架提出了根本性的質疑。他的論點不是「我們已經解釋了意識」,而是「這個問題的提法從一開始就預設了錯誤的答案」。

羅維理指出,「難題」的成立依賴一個隱藏前提:科學是從世界「外部」觀察世界的客觀視角,而主觀經驗則屬於另一個領域。但這個前提是虛構的。我們從來不在世界之外——我們是世界的一部分,我們的知識、理論、乃至科學本身,都是從世界內部生長出來的視角。

PRISM

廣告合作

[email protected]

他以「紅色」為例:所謂「紅色的感質(qualia)」,不過是我們在看到、記憶或思考紅色時所經歷的過程的名稱。問「為什麼紅色看起來是紅的」,就像問「為什麼我們叫做貓的動物看起來像貓」——這個問題預設了一種不存在的分裂。

對於「哲學殭屍」,羅維理的批評更為犀利:如果殭屍與人類物理上完全相同,那麼它的大腦也會通過同樣的物理過程,讓它「相信」自己有意識。這意味著,我們自己對「我有意識」的確信,同樣只是物理過程的產物。這個論證是自我瓦解的。

靈魂不會消失,只是回歸自然

羅維理的立場並非冷酷的虛無主義——他不是說「靈魂是幻覺」。他的論點更接近一種重新定位。

他回溯西方文化史中一個反覆出現的模式:每當科學發現打破「人類特殊性」的邊界,都會遭遇激烈的文化抵抗。哥白尼讓地球失去宇宙中心地位;達爾文讓人類與動物共享祖先;現代生物學模糊了生命與非生命的界線。而今天,「意識難題」的廣泛接受,折射的是同一種心理需求:我們必須是特別的,靈魂必須超越物質

羅維理認為,承認靈魂是自然的一部分,並不會讓它消失。就像知道夕陽是地球自轉的產物,並不會讓夕陽失去美麗。我們的情感、記憶、主體性——這些都是真實的,只是它們是對物理過程的「高層次描述」,而非凌駕於物理之上的另一種存在。

這對華人世界意味著什麼

這場哲學論爭在華人語境中有其獨特的折射面。

儒家傳統中的「心」——既是認知官能,又是道德主體——從未像西方笛卡爾式二元論那樣,將心靈與物質截然對立。道家的「天人合一」、佛教的「緣起性空」,都在某種程度上預設了主體與自然的連續性,而非斷裂。從這個角度看,羅維理的論點對東亞哲學傳統的讀者而言,或許並不陌生,甚至有某種「終於有西方哲學家說出來了」的共鳴。

然而,這場辯論的實踐意涵卻在東亞地區引發了截然不同的回應。在中國大陸,AI意識問題已悄然進入監管討論——如果AI系統可能具有某種形式的「體驗」,那麼對它的訓練、使用乃至「關閉」是否涉及倫理責任?在台灣,學術界對心靈哲學的討論正逐漸與AI治理政策接軌。在香港,部分學者則關注:當「意識」的定義本身尚未釐清,建立在其上的AI倫理框架是否足夠穩固?

更現實的層面是:如果羅維理是對的,意識不存在「解釋鴻溝」,那麼「AI有沒有意識」就不再是一個神秘學問題,而是一個可以通過科學方法逐步逼近的問題。這對AI監管、勞動權利、乃至機器人的法律地位,都有深遠的影響。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

观点

相关文章

PRISM

廣告合作

[email protected]
PRISM

廣告合作

[email protected]
「意識的難題」根本不存在? | Culture | PRISM by Liabooks