Liabooks Home|PRISM News
AIは意識を持たない——だから、人間の判断が価値を生む
CultureAI分析

AIは意識を持たない——だから、人間の判断が価値を生む

7分で読めるSource

AIに意識はないという議論が見落とすもの——人間とAIの「配置」こそが価値を生み出す。BCGやスタンフォードの研究が示す、自動化神話の危険性と日本企業への示唆。

ある月曜日の朝、あなたの同僚がAIに仕事を「任せた」とする。その日の成果物は速く、きれいで、それなりに正確だった。では、その人の判断力は成長したのだろうか。それとも、少しずつ萎縮していったのだろうか。

神経科学者アニル・セス氏は、権威あるベルグルーエン賞受賞論文「意識あるAIという神話」の中で、力強い主張を展開しています。AIに意識はない。脳は肉でできたチューリングマシンではなく、シリコンで再現できるものでもない。電磁場、自己組織化、生物学的な秩序の維持——これらはすべて、計算では代替できない、と。この結論は多くの読者を安堵させます。AIは感じない。人間は依然として頂点にいる。

しかし、セス氏の論文が答えていない問いがあります。「では、月曜日の朝、私たちは何をすべきか?」

「意識があるか」より「何を生み出すか」

セス氏の論文が解体するのは一つの神話です——AIを擬人化し、感情や内面を持つ存在として過大評価する誤りです。この批判は正当です。しかし、その議論に集中するあまり、もう一つの、より実害の大きな神話が見過ごされています。

それは「自動化神話」です。人間をループから外すことは常に効率化である、という信念。判断力はコストであり、削減すべき対象である、という前提。AIの目的は、人間が今やっている仕事を、より速く、より安く代替することだ、という思い込みです。

この神話は、投資対効果の計算や人員削減目標という、いかにも合理的な装いをまとって組織に浸透します。そして、「オーグメンテーション(人間能力の拡張)」という言葉を使いながら、実際には逆の方向へ動いています。

データはこの分裂を鮮明に示しています。スタンフォード大学、ベス・イスラエル・ディーコネス医療センター、バージニア大学が共同で実施した無作為化比較試験では、GPT-4を従来の診断ツールと併用した医師グループは、AIなしのグループと比べて診断精度に有意な差がありませんでした。一方、GPT-4単独では両グループを15%以上上回りました。同じAI、同じ臨床課題なのに、人間との「配置」が変わるだけで結果が劇的に異なったのです。

その後、医師とAIがそれぞれ独立して評価を行い、意見の相違を構造化された対話で浮かび上がらせる設計に変更したところ、診断精度はAIなしの75%から、協働モデルで82〜85%に向上しました。差異はデータではなく、「配置の質」にありました。

ハーバード、MIT、ウォートン、ウォーリックの研究者たちがボストン・コンサルティング・グループ(BCG)のコンサルタント758人を対象に行った研究も、同様の構図を示しています。AIが得意なタスクでは、AI使用者はタスク完了率が12%高く、25%速く、品質は40%高い結果を出しました。しかし、人間の判断が本質的に必要なタスクでは、AI支援を受けたコンサルタントは、AIなしで作業した同僚より有意に劣る結果を出しました。技術が失敗したのではありません。「配置」が失敗したのです。

PRISM

広告掲載について

[email protected]

日本企業への問い——「省人化」か「人材強化」か

この問いは、日本にとって特別な重みを持ちます。

少子高齢化と深刻な労働力不足を抱える日本では、AIによる自動化は「必然」として語られることが多い。確かに、人手が足りない現場にAIを導入することは緊急の課題です。しかし、ここで問われるのは、その導入が「省人化」なのか「人材強化」なのか、という設計思想の違いです。

トヨタの「人間とロボットの協働」モデルや、製造現場における「からくり改善」の哲学は、機械に判断を委ねるのではなく、人間の技能と機械の能力を組み合わせることで、両者が単独では到達できない水準を目指す思想です。これは、今回の研究が示す「配置の質」と本質的に一致しています。

しかし、多くの日本企業が今直面しているのは、「AIツールを導入すること」と「AIと人間の協働を設計すること」を混同するリスクです。ツールを導入するだけでは、スタンフォードの研究が示したように、効果はほぼゼロ——あるいはマイナスになりえます。

ストックホルム経済大学とジュネーブ大学の研究では、製薬会社の営業担当者にAIシステムを導入した際、専門家の認知スタイルに合わせて設計した場合、顧客との商談件数が平均40%以上増加し、売上が16%向上しました。一方、人間の思考様式を無視して同じシステムを導入した場合、売上はAIなしの基準値を約20%下回りました。AIがなかった方が良かった、という結果です。

「配置」を設計する、という新しい仕事

認知科学者が「4E認知」と呼ぶ枠組み——身体化、埋め込み、実践、拡張された認知——は、知性が脳の中だけにあるのではなく、人間と道具と環境の配置の中に分散していることを示しています。セス氏もこの文献を引用していますが、そこから引き出すべき結論を引き出していない、と原文の著者は指摘します。

認知が分散しているなら、分析の単位は個々の脳(人間のものであれ機械のものであれ)ではなく、知性が機能する「配置」全体でなければなりません。問うべきは「機械に意識があるか」ではなく、「その配置は何を生み出すか」「人間の判断力を保ち、増幅しているか、それとも迂回し、萎縮させているか」です。

EU AI法第14条は、高リスクAIシステムは自然人が効果的に監督できるよう設計されなければならないと定めています。しかし、その施行期限はすでに2026年8月から2027年12月に延期されました。「人間中心のAI」という言葉は政策文書に溢れていますが、それを実現するアーキテクチャはまだほとんど存在しません。

軍事戦略家が使う「ケンタウロス型」(人間が指揮し機械が実行)と「ミノタウロス型」(AIが指揮し人間が実行)という区分は、問いを単純化しすぎています。研究者のイーサン・モーリック氏が指摘するように、最悪の結果をもたらしたのは、判断が最も必要な場面で「ハンドルを離した」人々でした。問われるのは誰が主導権を持つかではなく、配置が人間の判断力を活性化したままにしているかどうかです。

アンソロピックが2025年2月に発表した調査では、AIとの100万件以上の会話を分析した結果、57%のケースで人々はAIに仕事を委ねるのではなく、AIと共に考えていることが分かりました。しかし組織は逆の方向に流れがちです。なぜなら、コスト削減の筋肉は発達していても、能力を育てる筋肉はまだ弱いからです。

経済史家カール・ベネディクト・フレイ氏は著書「テクノロジーの罠」の中で、第一次産業革命が「エンゲルスの停滞」——労働生産性が46%向上したにもかかわらず賃金上昇はわずか12%にとどまった時期——をもたらしたことを示しています。社会が拡張のための枠組みを構築した時代には富が分配され、自動化に流れた時代には富が集中した。これは技術の問題ではなく、制度設計の問題です。

本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。

意見

関連記事

PRISM

広告掲載について

[email protected]
PRISM

広告掲載について

[email protected]