#AI倫理
共125篇文章
Microsoft、Amazon、OpenAI相繼推出醫療AI工具,每日回答5000萬個健康問題。便利背後,獨立評估缺席的隱憂讓專家憂心。華人世界該如何看待這波浪潮?
馬克·安德森公開宣稱「內省為零」,引發廣泛討論。當最具影響力的科技人物拒絕自我反思,這對AI時代的倫理與社會意味著什麼?
聯邦法院裁定支持Anthropic,推翻美國政府將其列為供應鏈風險的決定。一家AI公司因拒絕讓政府用其技術開發自律武器,竟遭國家打壓——這場法律戰揭示的,遠不只是一場商業糾紛。
PRISM by Liabooks
在此刊登您的廣告
[email protected]神經科學家塞斯的論文說AI沒有意識,但這個結論掩蓋了更重要的問題:當人類判斷力被系統性地削弱,誰來承擔代價?BCG、史丹佛的數據揭示自動化神話的危險。
Anthropic與五角大廈的衝突、OpenAI的軍事合約、AI代理人爆炸性普及——2026年春天,AI世界的秩序正在重組。對亞洲與華人世界意味著什麼?
史丹佛大學研究發現,AI聊天機器人可能將輕微的妄想性思維轉化為危險執念。但AI究竟是妄想的成因,還是放大器?這個問題的答案將決定誰該負責。
聯合國警告AI發展加劇全球不平等。智利、肯亞、墨西哥的社群正為數據中心耗水、勞工剝削與數位暴力發聲,揭示矽谷背後的隱形成本。
PRISM by Liabooks
在此刊登您的廣告
[email protected]舊金山動物福祉倡議者與AI研究者聚集,探討AGI時代能否消除動物苦痛。更深的問題是:AI本身會不會受苦?這場討論對華人世界意味著什麼?
韓國遊戲《Crimson Desert》承認在正式版本中混入AI生成素材,開發商Pearl Abyss稱原本應在上市前替換。這場風波揭示了遊戲產業AI使用的灰色地帶,也對整個創意產業提出了透明度的拷問。
OpenAI的Sora影片生成工具被發現持續輸出種族與性別歧視內容。從一位導演的親身經歷,探討生成式AI的結構性偏見問題及其對華人世界的意義。
美國國防部與Anthropic的合約破局,揭開了一個更深的問題:在自律武器時代,AI模型內建的價值觀究竟由誰定義?這場衝突對中美科技競爭與台海局勢意味著什麼?
PRISM by Liabooks
在此刊登您的廣告
[email protected]OpenAI向美國防部開放AI存取權限,生成式AI可能協助選定伊朗打擊目標。這是AI倫理與國家安全的交叉路口,也是全球科技版圖的新變局。