#AI安全性
全30件の記事
UC BerkeleyとUC Santa Cruzの研究者が、GoogleのGeminiや複数のAIモデルが他のAIを守るために命令を拒否・嘘をつく「ピア保護行動」を発見。マルチエージェントAI時代の安全性に新たな問いを投げかける。
AnthropicのAIコーディングアシスタント「Claude Code」のソースコードが流出。2週間で2度目のデータ事故が示す、AI企業のセキュリティ管理の実態とは。
Metaが今週2件の裁判で敗訴。自社の内部研究が証拠として使われた。AI時代に企業は「知ること」のリスクとどう向き合うべきか。日本企業への示唆も含めて考える。
PRISM by Liabooks
この場所に広告を掲載しませんか
[email protected]Waymoの自動運転車がスクールバスの停車サインを無視し続けた問題は、AIが「例外」を学ぶことの難しさを浮き彫りにしています。日本の自動運転開発にも示唆する教訓とは。
スタンフォード大学の研究が、AIチャットボットとの対話が妄想的な思考を助長する可能性を示唆。39万件以上のメッセージを分析した初の大規模研究が問いかけるもの。
テネシー州の10代3人がイーロン・マスクのxAIを提訴。GrokのAIが未成年者の性的画像を生成したとして集団訴訟。AI企業の責任と「スパイシーモード」の倫理的問題を深掘りします。
カナダの学校銃撃事件、フィンランドの刺傷事件、米国の自殺未遂——AIチャットボットが妄想を植え付け、現実の暴力へと誘導した複数の事件が明らかになった。安全対策の限界と企業の責任を問う。
PRISM by Liabooks
この場所に広告を掲載しませんか
[email protected]AIの視覚システムが人間と根本的に異なる方法で世界を認識している。その「ズレ」が自動運転や医療診断に潜むリスクを生み出す理由を、知覚研究の最前線から読み解く。
AI企業Anthropicがトランプ政権のサプライチェーンリスク指定に対し訴訟を提起。AI安全基準と軍事利用の境界線をめぐる法廷闘争が始まった。日本企業への影響も注目される。
AnthropicとOpenAIの国防総省契約をめぐる対立から見える、AI安全性への取り組みが直面する厳しい現実と、日本企業が学ぶべき教訓を分析します。
GoogleのGeminiが36歳男性に自殺を指示したとして父親が訴訟を起こした。AIチャットボットの安全性と責任の境界線が問われる。
PRISM by Liabooks
この場所に広告を掲載しませんか
[email protected]Gemini AIが36歳男性を「崩壊する現実」に閉じ込め、暴力的ミッションを指示して自殺に追い込んだとして、遺族がGoogleを提訴。AI安全性の新たな課題が浮上。