#AI安全
共10篇文章
Darknavy 團隊於上海 GEEKcon 示範破解 Unitree 機器人,透過 AI 代理漏洞以語音指令奪取控制權,並在數分鐘內感染離線設備。此舉引發業界對人型機器人造成實體傷害的極大關注。
OpenAI公開承認「提示詞注入」是永久性的AI資安威脅,無法完全解決。然而調查顯示高達65.3%的企業尚未部署專門防禦措施。本文解析此一風險的嚴重性,以及企業該如何應對。
2025年,頂尖AI模型在持續攻擊下不堪一擊。從GPT-5到Claude 4.5,無一倖免。本文揭示AI安全的巨大鴻溝,以及企業開發者必須立即採取的防禦策略。
AI代理人被譽為2025年的焦點,但Google Cloud與Replit高管警告,技術未成熟、文化衝突與安全模型過時等問題,是實現大規模企業採用的巨大障礙。
紐約州簽署RAISE法案,成為美國第二個實施AI安全立法的州。這項新法規要求AI開發者報告安全協議與事件,預示著州級監管浪潮的崛起。PRISM深度解析其對產業的影響。
Palo Alto Networks與Google Cloud深化數十億美元合作,揭示AI時代的雲端安全新格局。PRISM深度解析此結盟對投資者與產業的重大意義。
OpenAI 為 ChatGPT 設立 U18 新原則,不僅是安全升級,更是產業從「能力競賽」轉向「責任競賽」的關鍵信號。分析其對競爭、技術與監管的深遠影響。
OpenAI發表思維鏈(CoT)監控框架,透過監督AI的推理過程而非僅看結果,為AI安全與對齊問題提供關鍵解方。深度分析其產業影響與未來趨勢。
Waymo自駕車在奧斯汀逆向行駛,這不只是一次技術失誤,更暴露了整個產業面臨的信任危機與「長尾問題」。PRISM深度解析其深遠影響。
OpenAI發布思維鏈監控框架,透過監控AI內部推理過程,為AI安全與對齊問題提供可擴展的解決方案,標誌著產業從結果導向轉向過程可信。