Liabooks Home|PRISM News
藍色光芒的數位安全盾牌,象徵 OpenAI 對 AI 風險的防禦機制
TechAI分析

OpenAI Preparedness Framework 2025:安全主管難覓,AI 巨頭如何平衡創新與風險?

2分钟阅读Source

OpenAI 正在招募新任安全主管(Head of Preparedness)以應對 AI 對網絡安全及心理健康的威脅。本文分析 OpenAI Preparedness Framework 2025 的核心變化、人才流失現狀,以及在激烈競爭下,安全框架可能面臨的權衡與調整。

一手推動技術飛躍,一手防範潛在災難。隨著生成式 AI 的能力突飛猛進,OpenAI 執行長阿特曼(Sam Altman)近日公開坦承,AI 模型正帶來「真實的挑戰」,並宣布緊急招募新任安全負責人,以應對日益嚴峻的系統性風險。

OpenAI Preparedness Framework 2025 與新任安全主管招募

根據科技媒體報導,OpenAI 目前正在尋找一名負責「準備工作(Preparedness)」的高階主管。這位主管的核心職責是執行公司的「準備框架」(Preparedness Framework),追蹤並應對可能導致嚴重傷害的邊緣能力(Frontier Capabilities)。阿特曼在 X 平台上提到,AI 模型在計算機安全方面的能力已強大到足以發現關鍵漏洞,同時對用戶心理健康的影響也不容忽視。近期更有訴訟指稱 ChatGPT 強化了用戶的妄想,甚至導致悲劇發生,這使得安全管控變得舉足輕重。

人才流失與競爭激烈的安全政策轉向

事實上,OpenAI 早在 2023年 就成立了準備團隊,旨在研究從網絡釣魚到核威脅等「災難性風險」。然而,安全團隊的領導層近期動盪不安。原負責人 Aleksander Madry 被調往 AI 推理部門,多位安全高層也相繼離職。此外,公司最近修訂了其安全框架,新增了一項關鍵條款:若競爭對手發布了缺乏保護的高風險模型,OpenAI 可能會「調整」自身的安全要求。這反映出在市場競爭壓力下,安全門檻可能不再是鐵律,而是靈活變動的指標。

本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。

相关文章