當AI決定你的未來:預測演算法如何重塑人類選擇
從古代神諭到現代AI,預測技術如何成為權力工具?三本新書揭示演算法預測背後的真相,以及人類如何重奪選擇權。
每天早上醒來,演算法已經為你準備好最可能點擊的廣告。從通勤路線建議到午餐外送時間預測——我們的日常生活被無形的演算法預測所包圍。但在這份便利背後,究竟發生了什麼?我們真的理解這個系統嗎?
掌握預測工具者掌握世界
牛津大學經濟學家馬克西米利安·卡西的新書《預測的手段》深刻分析了現代AI預測系統的運作方式以及誰從中獲益。
當前大多數預測系統基於大型標記數據集的模式分析——這在AI界被稱為「監督學習」。一旦在這些數據集上完成「訓練」,演算法就能接收各種新資訊,並對特定未來結果給出最佳猜測。你是否會違反保釋條件、是否會還清房貸、被錄用後是否會獲得升職——越來越多時候,我們的生活被機器的答案所塑造。
問題的核心在於,這個系統正「按預期」運行。 社交媒體演算法推廣憤怒內容,因為這能最大化參與度和廣告點擊收益。篩選掉「可能承擔家庭照護責任」的求職者的演算法,同樣是企業底線考量的結果。對公司盈利有利的,未必對你的求職前景或預期壽命有益。
卡西認為,試圖創建更公平、更平等的演算法並不能解決根本問題。預測演算法依賴的歷史數據往往帶有種族主義、性別歧視和其他缺陷。而且,利潤激勵總會壓倒消除傷害的努力。
數學理性的迷思
加州大學柏克萊分校的班傑明·雷希特教授在《非理性決定》一書中,歷史性地分析了我們為何將選擇權交給電腦。
第二次世界大戰末期,戰爭中證明有效的數學模型讓一些科學家和統計學家相信,電腦可以成為理想的理性代理人——通過量化不確定性和最大化效用來做出最優決策的機器。
直覺、經驗和判斷讓位給了最佳化、博弈論和統計預測。「每個人生決定都被當作虛擬賭場中的一輪遊戲,每個論點都可以簡化為成本效益、手段目的。」
值得注意的是,人類在自動化之前就能做出基於證據的決策。從1850年代不到40歲的平均壽命,到1950年的70歲——這歸功於清潔用水、抗生素和公共衛生的進步。熱力學、量子力學、相對論等改變世界的科學突破,都是在沒有正式理性系統的情況下實現的。
預測是願望,也是扭曲現實的磁鐵
牛津大學哲學家卡里薩·維利茲在《預言》一書中提出了關於預測本質的根本洞察。她認為,預測是「將現實向自身彎曲的磁鐵」。
以戈登·摩爾著名的「摩爾定律」為例。1965年,英特爾共同創辦人預測積體電路中的電晶體密度每兩年翻一倍。這個預測至今仍然成立,但這不僅僅因為摩爾有先見之明,而是整個產業都有集體利益讓它成真。業界可能花費數十億美元維持摩爾定律,但從中獲利更多。
預測不僅有自我實現的習慣,還會讓我們忽視當下的挑戰。 當AI推動者承諾人工通用智慧將是人類需要解決的最後一個問題時,這不僅塑造了我們對AI角色的思考,也將注意力從AI正在造成的非常現實且緊迫的當前問題上轉移開來。
華人世界的思考角度
對華人社會而言,這種預測系統的權力結構具有特殊意義。中華文化強調「天人合一」和「中庸之道」,這與純粹的數學理性形成對比。台灣的科技產業在全球供應鏈中扮演關鍵角色,但如何在效率與人文關懷之間取得平衡,是值得深思的課題。
在香港和新加坡等國際金融中心,AI預測系統已深入金融服務業。但東方智慧中的「變通」和「權衡」概念,或許能為過度依賴演算法的西方模式提供另一種思路。
本内容由AI根据原文进行摘要和分析。我们力求准确,但可能存在错误,建议核实原文。
相关文章
五角大廈與Anthropic的衝突,暴露了美國AI治理的真空地帶。數百位專家聯署的「親人類宣言」,從民間提出了政府遲遲未能給出的答案。這對華人世界意味著什麼?
Google發布Workspace CLI工具,整合雲端API與AI功能。探討這項「非官方支援」產品對企業自動化與華人科技生態的影響。
Anthropic的Claude AI在兩週內從Firefox發現22個漏洞,其中14個為高風險。探討AI在資安領域的潛力與限制。
Meta Ray-Ban智慧眼鏡影像被外包員工觀看的爭議,揭示了AI時代數據勞動與隱私保護的複雜現實
观点
分享你对这篇文章的看法
登录加入讨论