「テクノフォビア」という烙印——AI拒絶は本当に非合理なのか
中世の修道士からLudditesまで、技術への抵抗は常に存在した。AIへの反発を「進歩への恐怖」と片付ける前に、私たちが問うべきことがある。サウサンプトン大学の研究者が語る技術拒絶の深層。
「AIを使わない人間は二流市民だ」——そう言われたとき、あなたはどう感じるだろうか。
ChatGPTのアカウントを意図的に削除する人が増えている。Waymoの自動運転タクシーが破壊され、5Gタワーが放火される。表面だけ見れば、これらは技術への無知や恐怖から生まれた行動に映るかもしれない。しかし、イギリス・サウサンプトン大学の人文地理学者、Thomas Dekeyser氏は新著『Techno-Negative: A Long History of Refusing the Machine』の中で、まったく異なる解釈を提示している。技術への抵抗は、進歩の否定ではない。それは「どんな進歩を望むか」という問いの表明だ、と。
700年前から続く「機械への抵抗」
技術への反発は、AIの時代に始まったわけではない。中世ヨーロッパでは修道士たちが特定の道具の使用を禁じ、17世紀のイングランドでは織物職人たちが自分たちの仕事を奪う機械織機を打ち壊した。いわゆる「ラッダイト運動」である。彼らは技術そのものを憎んでいたのではなく、技術が特定の人々の利益のために自分たちの生活を破壊することに抵抗した。
Dekeyser氏が指摘するのは、こうした歴史的な抵抗運動が常に「テクノフォビア(技術恐怖症)」という言葉で矮小化されてきたという事実だ。この烙印を押すことで、批判する側を「非合理的な恐怖を抱く人々」として扱い、その懸念を真剣に受け止めなくて済むようになる。しかし実際には、技術を拒絶する動機の多くは極めて合理的だ。雇用の喪失、監視社会の強化、環境への負荷——これらはデータに裏付けられた具体的な懸念である。
ビッグテックの「善意の仮面」が剥がれるまで
かつてGoogleは「Don't be evil(邪悪になるな)」を社是としていた。Facebookは「世界をつなぐ」と謳い、シリコンバレーは社会を良くする場所として若い才能を引き寄せた。この「進歩的なイメージ」が長年にわたってビッグテックへの信頼を支えてきた。
しかし2018年、Googleはその有名なスローガンを静かに削除した。代わりに置かれたのは「Do the right thing(正しいことをせよ)」という、より曖昧な言葉だった。Dekeyser氏はこの変化を単なる言葉遊びとは見ない。倫理が「背景に消えていった」象徴だと言う。そして現在、ビッグテック企業とトランプ政権との急接近は、これまで隠されていた権威主義的・国家主義的な傾向の「公然たる抱擁」だと彼は表現する。
テック企業の軍事契約や警察との連携に反対してきた従業員たちの運動が、ことごとく失敗に終わってきた背景にも、この右傾化がある。
「植民地の論理」としてのAI展開
技術への抵抗は、欧米だけの現象ではない。アフリカのデータ労働者や、ラテンアメリカの地域コミュニティからも、AIへの根強い反発が起きている。Dekeyser氏はこれを「植民地主義の残影」として読み解く。
西洋のAI産業にとって、非西洋圏の人々は今も「安価な労働力」か「価値あるデータ」として扱われることが多い。AIモデルの訓練に使われるデータのラベリング作業は、ケニアやフィリピンなどで低賃金で行われている。データセンターの建設に必要な資源は、これらの地域の自然環境から採掘される。この構造は、かつての植民地支配が資源と労働力を搾取した論理と、どこか重なって見える。
日本にとってこの視点は遠い話ではない。トヨタやソニー、NTTといった日本企業もAIインフラへの投資を加速させる中、そのサプライチェーンの末端で何が起きているかを問う視点は、企業の持続可能性とも直結する。
「効率的であること」が人間の理想になる日
Dekeyser氏が最も深く掘り下げるのは、AIが「人間であることの意味」を再定義しつつあるという問題だ。AIが描く理想的な人間像は、「効率的で、速く、知的」である。しかし、それは多くの人が大切にしているものとは異なる。コミュニティとのつながり、ケア、ゆっくりとした成長——これらはAIの語彙では「最適化」の対象になりがちだ。
ドイツの技術哲学者ギュンター・アンダースが「プロメテウスの恥」と呼んだ感覚がある。完璧で効率的な機械の前に立つとき、人間は自分の不完全さと脆弱さに恥を感じる——そういう心理だ。AIの推進者たちが「AIを使わない者は時代遅れだ」と言うとき、この恥の感覚を意図的に、あるいは無意識に利用している。
日本社会においてこの問いは特別な重みを持つ。少子高齢化と労働力不足を背景に、AIやロボットの導入は「避けられない解決策」として語られることが多い。しかし、介護や教育、地域コミュニティの維持といった領域で「効率化」が優先されるとき、私たちは何を失うのか。その問いに、テクノロジー政策は十分に向き合えているだろうか。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
OpenAIがChatGPTに「アダルトモード」を導入しようとしている。社内の倫理顧問団が一致して警告を発する中、AIと人間の感情的依存という問題が浮き彫りになっている。
カンボジアを拠点とする詐欺組織が「AIモデル」を募集。ディープフェイク技術で被害者を騙す新手口の実態と、日本社会への影響を多角的に分析します。
米国防総省とAI企業Anthropicの対立が激化。クロードは軍事作戦でどう使われているのか。自律型兵器とAI倫理の境界線を巡る攻防を読み解く。
文章校正ツールGrammarlyが実在するジャーナリストの名前・肖像をAI機能に無断使用。集団訴訟に発展したこの問題は、AI時代における「同一性権」の新たな戦場を示している。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加