倫敦街頭的AI抗議:當技術進步遇上民眾憂慮
數百人在倫敦舉行反AI示威,從就業威脅到人類存亡,抗議者的多元訴求反映出社會對AI發展的複雜態度與深層擔憂。
「拔掉插頭!停止垃圾內容!」2月28日週六,數百名抗議者在倫敦國王十字區遊行,這裡是OpenAI、Meta和Google DeepMind英國總部的所在地。這場由「暫停AI」和「拔掉插頭」兩個組織聯合舉辦的示威,被稱為同類抗議中規模最大的一次。
抗議者的擔憂範圍廣泛,從線上垃圾內容、濫用圖像,到殺手機器人和人類滅絕。一名女性頭戴自製標語牌,上面寫著「誰將成為誰的工具?」另有標語寫道「在造成後果前先暫停」、「滅絕=不好」,還有針對Google DeepMind執行長的「惡魔哈薩比斯」。
從學術憂慮到街頭行動
一位身穿「AI?除非踏過我的屍體」標語牌的年長男子告訴記者,他擔心AI對社會的負面影響:「這關乎失業的危險,閒散的雙手是魔鬼的工作坊。」
這些憂慮本身並不新鮮。研究人員多年來一直在指出生成式AI(特別是ChatGPT和Gemini等模型)造成的實際和假設性危害。改變的是,這些擔憂現在已經發展成能夠動員大量民眾上街抗議的社會運動。
從2023年5月在Sam Altman演講會場外的2、3個抗議者,到去年6月Google DeepMind倫敦辦公室前的數十人示威,這次的規模明顯是一次重大升級。
技術恐懼與現實擔憂的交織
牛津大學博士生約瑟夫·米勒是「暫停AI」英國分部負責人,也是此次遊行的共同組織者。他研究機械解釋性——一個試圖理解大型語言模型執行任務時內部運作的新領域。這項工作讓他相信,這項技術可能永遠超出人類控制,並可能帶來災難性後果。
「不需要是惡意的超級智能,」他說,「只需要有人讓AI控制核武器就夠了。人類做出的愚蠢決定越多,AI造成災難所需的力量就越小。」
在美國政府試圖強制Anthropic讓其LLM Claude用於任何「合法」軍事目的的這一週後,這種擔憂似乎不那麼牽強了。雖然Anthropic堅持立場,但OpenAI卻與國防部簽署了協議。
對於「暫停AI」成員兼抗議共同組織者瑪蒂爾達·達·魯伊來說,AI是人類將面臨的最後一個問題。她認為這項技術要麼讓我們一勞永逸地解決所有其他問題,要麼消滅我們,不再有人需要面對問題。
多元訴求背後的共同體
儘管有著緊迫感,遊行的氛圍卻是愉快的,甚至有趣。沒有憤怒的情緒,也幾乎沒有生命——更不用說物種生存——岌岌可危的感覺。這可能歸因於抗議者帶來的廣泛利益聯盟和訴求。
一位化學研究員列舉了一系列抱怨,從接近陰謀論的(數據中心發出低於人類聽覺閾值的次聲波,對附近居民造成偏執)到合理的(AI垃圾內容的傳播使得尋找可靠學術資源變得困難)。這位研究員的解決方案是禁止公司從這項技術中獲利:「如果你不能從AI賺錢,就不會有這樣的問題。」
企業壓力的有限效果
大多數受訪者都同意,科技公司可能不會注意到這種抗議。在AI行業工作12年後加入「暫停AI」的全球負責人馬克西姆·福爾內斯說:「我認為對企業的壓力永遠不會奏效,它們被優化為就是不關心這個問題。」
但福爾內斯認為他可以讓這些公司的日子更難過:「我們可以通過為舉報者創造保護,或向公眾展示在AI行業工作不是一份性感的工作,實際上是一份可怕的工作,來減緩這場競賽——你可以讓人才管道枯竭。」
一般來說,大多數抗議者希望讓盡可能多的人了解這些問題,並利用這種民意推動政府監管。組織者將這次遊行定位為社交活動,鼓勵任何對此事業好奇的人參加。
這似乎奏效了。一位在金融業工作的男子跟著室友來參加。當被問及為何在場時,他說:「有時候週六也沒什麼事做,如果你能看到論證的邏輯,對你來說是有道理的,那就像『是的,當然,我會來看看是什麼樣子』。」
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
從伊朗最高領袖逝世引發的Kalshi市場處理爭議,探討預測市場平台在規則設計與道德責任間的平衡挑戰
Anthropic與五角大廈合約中止事件揭露AI產業的根本矛盾,對華人科技圈意味著什麼?
OpenAI與美國國防部達成合作協議,而Anthropic拒絕並面臨制裁。探討AI企業在政府要求與企業倫理間的複雜選擇。
美國國防部要求Anthropic開放AI技術供軍事用途,包括大規模監控和自主武器系統。科技業面臨倫理與國安的兩難選擇。
观点
分享你对这篇文章的看法
登录加入讨论