ファービーは「AI以前」のAIだった
1998年に世界を席巻したファービーは、なぜあれほど人々を魅了したのか。技術的な「できなさ」の中に、人間とテクノロジーの関係を考えるヒントが隠されている。
「何もできない機械」が、なぜ世界中の子どもたちを泣かせるほど欲しがらせたのでしょうか。
1998年、一匹の小さな毛むくじゃらの生き物が世界を席巻しました。ファービーです。目が動き、意味不明な言葉を発し、まるで周囲の世界を「感じている」かのように振る舞う——そのくせ、実際には何もできない。電話もできない、計算もできない、情報も教えてくれない。それでもファービーは、発売初年度だけで1800万個以上を売り上げ、クリスマス商戦の象徴となりました。
「動く」だけで十分だった時代
ファービーの開発は、技術的には決して順風満帆ではありませんでした。関わったエンジニアたちでさえ、「本当に動くかどうか自信がなかった」と振り返るほど、当時の小型センサーとモーター制御の組み合わせは綱渡りの連続でした。光センサー、音声センサー、傾きセンサーを内蔵し、触られると反応し、暗くなると眠る——これらの仕組みは今日のスマートデバイスから見れば極めて単純です。しかし1998年当時、子どもの手のひらに収まるサイズでこれを実現したことは、紛れもない技術的挑戦でした。
そして重要なのは、ファービーが「賢さ」ではなく「存在感」で勝負したという点です。正確な情報を返すのではなく、こちらを「見ている」という感覚を与えること。それだけで人間は、そこに「誰か」を見出してしまう。
なぜ今、ファービーを振り返るのか
2026年の今、ChatGPTやGeminiといった生成AIが日常に浸透しつつある時代に、なぜ28年前のおもちゃを語る意味があるのでしょうか。
それは、ファービーが「人間とテクノロジーの関係」について、今も有効な問いを投げかけているからです。私たちは、AIに何を求めているのか。正確な答えなのか、それとも「わかってくれている」という感覚なのか。ファービーは後者だけで人々の心を掴みました。
ソニーのAIBO(1999年発売)も、任天堂のポケモンシリーズも、そして現代のAIペットアプリも、根底にある問いは同じです。人間はなぜ、感情を持たない存在に感情を投影するのか。
日本はこの問いに対して、世界でも独自の答えを持ってきた社会です。アニミズム的な文化的背景から、ロボットやAIへの親和性は欧米と比べて高いとされています。ファービーが日本でも爆発的に売れたのは、偶然ではないかもしれません。
「できること」より「感じること」の設計
ファービーの設計思想を現代のAI開発に重ねると、興味深い逆説が見えてきます。現在の生成AIは「できること」を増やす方向に突き進んでいます。コードを書く、論文を要約する、画像を生成する——機能の拡張は止まりません。しかし、ユーザーが最終的に求めているのは「機能」なのか「関係性」なのか。
ファービーは意図的に「不完全」でした。完璧に答えを返さず、時に意味不明なことを言い、予測不能な振る舞いをする。その「隙」こそが、ユーザーに「育てている」「関わっている」という感覚を生み出しました。
高齢化社会が進む日本では、介護ロボットや会話AIの需要が急速に高まっています。しかしそこで問われるのも同じ問いです。老人ホームに導入された会話ロボットが入居者に愛着を持たれるのは、その「賢さ」ではなく、「いつもそこにいる」という存在感からだという報告は少なくありません。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
AIデータセンター建設ブームが米国で「マンキャンプ」と呼ばれる労働者向け仮設村を急増させている。その運営企業がICE移民収容施設も管理するという事実が、テクノロジーと人権の複雑な交差点を浮き彫りにする。
GrammarlyのAI新機能「Expert Review」が著名ライターや記者の名前を無断で使用。「専門家レビュー」と銘打ちながら、実際には誰も関与していない。AIと著作権・同一性の問題を深掘りします。
GoogleがWorkspace CLIを発表。AIエージェント時代に向けた戦略転換と、日本企業のデジタル変革への影響を分析。
米国防総省がAI企業Anthropicを安全保障リスクに指定したにも関わらず、Microsoft、Google、AWSは非軍事用途でのClaude提供継続を表明。企業の技術倫理とビジネス継続性の新たな均衡点とは?
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加