AI造假淹沒戰場:伊朗衝突揭示資訊戰的新危機
美以攻伊以來,X平台充斥AI生成假影片與假圖片,Grok散布錯誤資訊,Meta監督委員會提出警告。一場資訊戰正在改寫我們對「眼見為憑」的信任。
一張從未發生過的場景,被觀看了500萬次。
那是一張AI生成的圖片,描繪伊朗當局逮捕美國三角洲部隊士兵的畫面。它是假的。但在被刪除之前,已有500萬人看過它——其中有多少人相信了它,沒有人知道。
當AI成為宣傳機器
今年2月28日,美國與以色列對伊朗發動攻擊,一場真實的軍事衝突隨即在X(前Twitter)平台上衍生出另一場戰爭——資訊戰。
假訊息研究員塔爾·哈金(Tal Hagin)嘗試用Grok(X平台內建的AI聊天機器人)驗證一則關於伊朗飛彈擊中特拉維夫的貼文。結果令人瞠目:Grok不僅一再誤判影片的地點與日期,最後甚至提供了一張AI生成圖片作為「佐證」。哈金在X上寫道:「現在Grok開始用AI垃圾圖回覆了。徹底完了。」
Grok由伊隆·馬斯克旗下的xAI開發,深度整合於X平台,標榜能即時存取平台上的最新資訊。然而,這個設計在此次衝突中產生了反效果:它以即時速度放大了即時湧入的假訊息。
數字背後的資訊污染規模
此次衝突中AI生成內容的擴散規模,已超越過去所有案例。
3月2日,伊朗官員與官方媒體散布了巴林一棟高層建築起火的AI生成影片。一張描繪美軍B-2轟炸機遭伊朗擊落、美軍被俘的圖片,在被刪除前獲得超過100萬次瀏覽。前述三角洲部隊被捕圖片達到500萬次。一段年輕女性身著內衣走過川普總統面前的假影片,在被刪除前更累積了680萬次播放,據研究機構ISD(戰略對話研究所)統計,目前仍有其他帳號持續轉發。
值得注意的是,部分AI內容帶有明顯的反猶太主義色彩。ISD研究人員發現,一個親伊朗政權的宣傳網絡在X上散布AI生成貼文,描繪東正教猶太人帶領美國士兵走向戰爭,或慶祝美軍陣亡。
非AI假訊息同樣猖獗。2月28日,伊朗南部米納布(Minab)一所小學遭到攻擊,168人罹難,其中110名為兒童。親川普帳號挪用其他影片,散布「伊朗政府發射飛彈擊中學校」的說法。然而,伊朗通訊社公開、並經紐約時報核實的影片顯示,是一枚戰斧巡弋飛彈擊中學校旁的海軍基地——而戰斧飛彈在此次衝突中,只有美國使用。
平台的應對:慢半拍的結構性困境
面對假訊息洪流,X上週宣布,若藍勾勾(付費認證)帳號發布未標示的AI生成武裝衝突影片,將暫停其收益資格。然而,X拒絕透露實際執行了多少件,也未回應媒體詢問。
更具諷刺意味的是:部分散布假訊息的伊朗官員,原本正是X付費服務的訂閱者,藉此獲得藍勾認證、提升曝光率,甚至從貼文中獲利。平台的商業模式,在某種程度上成為資訊操作的基礎設施。
Meta的情況同樣不容樂觀。Meta監督委員會(Oversight Board)於本週批評,Meta對AI生成內容的標示做法「在危機與衝突期間,既不夠強健,也不夠全面,無法應對AI生成假訊息的規模與速度」。Meta表示「歡迎」這份報告,但未提出具體改善時程。
媒體監督機構NewsGuard分析師伊西絲·布拉謝(Isis Blachez)指出:「隨著AI生成的圖片和影片越來越逼真,用戶可能不會質疑那些被當作『證據』推送的視覺內容。而AI偵測工具在識別AI內容方面,也並非始終可靠。」
對華語世界的意義:不只是遠方的戰爭
這場資訊戰對華語世界而言並非隔岸觀火。台灣長期面臨來自境外的認知作戰,此次伊朗衝突中所展示的AI假訊息手法——逼真的影像、情緒化的敘事、快速的跨平台擴散——與過去針對台灣選舉的操作手法高度相似,只是技術更加成熟。
對於正在制定AI治理框架的各地政府而言,此案例提供了一個緊迫的參照:當AI生成工具已普及到任何人都能在幾分鐘內製作出以假亂真的戰場影像時,現有的平台自律與事後刪除機制,是否仍然足夠?
哈金研究員的話值得深思:「AI濫用若持續缺乏監管,危害將不斷擴大。AI假新聞的增殖,正在將我們推向一個以事實為基礎的世界的懸崖邊緣。」
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
從伊朗衝突到五角大廈封殺Anthropic,AI在戰時扮演的角色已超越武器決策,延伸至資訊仲介。這對亞洲、對華人世界意味著什麼?
2025年以色列與伊朗戰爭期間,Meta放任AI生成假影片在Facebook上流傳。監督委員會的裁決,揭示了平台治理的根本困境。
Meta監督委員會要求全面改革AI生成內容的標籤機制,起因是一段以色列建築受損的假影片在旗下平台大規模擴散。武裝衝突下的深偽技術,正在考驗全球社群媒體的底線。
美國防部將AI公司Anthropic列為供應鏈風險,導致其數億美元合約岌岌可危。這場科技倫理與國家安全的正面衝突,對全球AI產業意味著什麼?
观点
分享你对这篇文章的看法
登录加入讨论