當「知情」成為罪證:Meta敗訴的深層警示
Meta一週內兩度敗訴,自家內部研究成為呈堂證供。AI時代,科技企業「知道得越多、風險越大」的困境,對華人科技產業意味著什麼?
一家公司最危險的文件,往往不是競爭對手的商業機密,而是自己員工寫下的內部報告。
2026年3月,Meta在一週之內連輸兩場官司——一場在新墨西哥州,一場在洛杉磯。兩起案件的核心指控高度一致:這家公司早已知道旗下產品對青少年造成的傷害,卻選擇對外隱瞞。讓陪審團做出裁決的關鍵證據,正是Meta自家研究人員多年來留下的內部文件。
「透明度」如何反噬自身
十多年前,當Facebook(即今日的Meta)大規模招募社會科學研究人員時,外界普遍視之為負責任企業的表率。讓研究人員分析平台對用戶的影響,既能發現問題,也能向公眾展示「我們認真看待這件事」。
然而這週,這個決策的代價浮現了。曾在兩場審判中出庭作證的前Facebook高管Brian Boland表示:「內部研究的發現,似乎與公司對外的自我表述形成了矛盾。」
陪審員審閱了數以百萬計的企業文件,包括高層電郵、簡報與內部研究報告。其中一份內部調查顯示,相當比例的青少年用戶在Instagram上收到不受歡迎的性騷擾訊息;另一份研究則指出,減少使用Facebook的用戶,其抑鬱與焦慮症狀有所改善——而這項研究後來被Meta叫停。
「陪審員聽取了雙方陳述,得到了公平的事實呈現,然後做出了裁決,」Boland說。「兩個陪審團,面對兩個不同的案件,都給出了清晰的結論。」Meta與共同被告Google(YouTube)均表示將提出上訴。
為什麼是現在?
這場審判的時機,與AI產業的快速擴張高度重疊,這並非偶然。
2021年是一個轉折點。前Facebook產品經理Frances Haugen洩露了大量內部文件,在全球引發軒然大波。此後,Meta及多家科技企業開始縮減內部研究團隊,並陸續關閉供第三方研究人員使用的數據工具——換言之,企業開始把「知道得太多」本身視為一種風險加以管控。
與此同時,OpenAI、Anthropic等新一代AI公司卻反其道而行,大力投資安全研究,並主動公開研究成果。但本週的判決讓整個產業不得不重新思考:當這些研究有朝一日出現在法庭上,企業該如何應對?
非營利機構Children and Screens研究總監Kate Blocker直言:「AI公司似乎主要在研究模型本身——模型行為、可解釋性與對齊問題——但關於聊天機器人和數位助理對兒童發展影響的研究,存在嚴重空白。」她警告,科技業正在重蹈社群媒體時代的覆轍。
華人世界的視角
這場判決對華人科技產業的啟示,值得深思。
在中國大陸,科技平台受到政府主導的監管框架約束,騰訊、字節跳動、快手等企業的內部研究數據,在法律框架上與美國截然不同。中國的《個人信息保護法》和《未成年人網路保護條例》雖設有保護機制,但執法路徑是行政監管,而非民事訴訟——企業不太可能因內部研究文件在民事法庭被起訴。
然而,在台灣、香港及東南亞市場運營的科技企業,情況則更接近西方法律環境。台灣的《兒童及少年福利與權益保障法》近年持續修訂,監管力度逐步加強;新加坡的《網路安全法》也在擴大平台責任範圍。一旦訴訟文化在亞洲市場成熟,今日Meta的困境,可能成為明日亞洲企業的參照。
更值得關注的是,許多在台灣、東南亞活躍的華人科技新創,正積極進軍AI應用領域——教育科技、心理健康App、兒童學習平台。這些產品的用戶群體與Meta被起訴的案例高度重疊。如果它們同樣進行了內部研究,卻沒有建立相應的透明度機制,未來的法律風險不可小覷。
研究的兩難:知道,還是假裝不知道?
本次判決揭示了一個令人不安的企業邏輯:如果內部研究會成為呈堂證供,那麼停止研究是否反而更「安全」?
心理學家兼新墨西哥州案件專家顧問Lisa Strohman一針見血:「我認為他們沒有意識到,研究人員也是父母,也是家庭的一份子。他們以為這些人可以被收買,但事實並非如此。」
Tech Oversight Project執行總監Sacha Haworth補充說,本次審判真正新增的,是「那些電郵、那些話語、那些截圖、那些內部行銷簡報」——它們提供了必要的脈絡,讓已知的事實有了更具說服力的呈現方式。
這意味著,問題不在於研究本身,而在於企業是否選擇對研究結果誠實。一個選擇「知道但不說」的企業,在法律上的風險,遠高於一個「知道並公開」的企業。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
納斯達克本週下跌3.23%,創2025年4月以來最大單週跌幅。Meta因兩場敗訴重挫逾11%,Micron暴跌逾15%。伊朗局勢推升油價,科技股全面承壓。
愛潑斯坦性剝削案受害者對Google與川普政府提起集體訴訟,指控AI搜尋功能公開個人資料,導致騷擾與威脅。此案正面挑戰保護科技平台的Section 230,或將重塑AI時代的法律責任框架。
阿姆斯特丹地方法院裁定禁止馬斯克旗下AI聊天機器人Grok生成非自願性裸露圖像,每日罰款最高逾百萬元台幣。從歐洲到亞洲,AI生成內容的法律戰正全面開打。
聯邦法院批准Anthropic的臨時禁令,暫停五角大廈將其列入黑名單的決定。這場AI公司與政府的法律對決,揭示了誰有權決定AI的使用邊界。
观点
分享你对这篇文章的看法
登录加入讨论