Liabooks Home|PRISM News
AIが書いたコードを、AIが審査する時代へ
テックAI分析

AIが書いたコードを、AIが審査する時代へ

5分で読めるSource

AnthropicがAIコードレビューツール「Code Review」をClaude Codeに追加。年率25億ドル超の収益を背景に、企業開発現場の「レビュー渋滞」解消を狙う。開発速度と品質の両立は実現するか。

AIが書いたコードを、今度はAIが審査する。この一文に違和感を覚えるエンジニアは少なくないだろう。しかし現実は、すでにその方向へ動き始めている。

「速く書けるようになった」の代償

Anthropicが2026年3月9日、コーディングAIツール「Claude Code」に新機能「Code Review」を追加した。対象はClaude for TeamsClaude for Enterpriseの利用者で、現在はリサーチプレビュー段階だ。

この機能が生まれた背景には、「vibe coding(バイブコーディング)」と呼ばれる開発手法の急速な普及がある。自然言語で指示を出すだけでAIが大量のコードを自動生成するこのスタイルは、開発スピードを劇的に引き上げた。しかしその反面、バグ、セキュリティリスク、そして「誰も中身をよく理解していないコード」が増加するという問題を生んでいる。

Anthropicのプロダクト責任者、Cat Wu氏はこう語る。「Claude Codeが大量のプルリクエストを生成するようになった今、企業のリーダーたちから繰り返し聞かれるのは『それを効率よくレビューするにはどうすればいいか』という問いです」。プルリクエストとは、コード変更を本番環境に取り込む前にレビューへ回す仕組みのことだ。AIが生産するコードの量が増えれば、当然レビューの件数も増える。その結果、レビューがボトルネックとなり、リリースが滞るという皮肉な状況が生まれていた。

「色分け」で優先度を可視化する仕組み

Code ReviewはGitHubと連携し、プルリクエストを自動的に解析してコードに直接コメントを残す。特徴的なのは、スタイルの統一や命名規則といった表面的な指摘ではなく、ロジックエラーに絞った指摘に特化している点だ。

"開発者はAIによる自動フィードバックに慣れてきていますが、すぐに対処できない指摘には苛立ちを感じます。だからこそ、最優先で修正すべきロジックエラーだけに集中することにしました"とWu氏は説明する。

問題の深刻度は色で分類される。赤は最優先で対処すべき重大な問題、黄色は確認が望ましい潜在的問題、紫は既存コードや過去のバグに起因する問題だ。内部では複数のAIエージェントが並列で動作し、それぞれ異なる視点からコードベースを分析。最終的に別のエージェントが結果を集約し、重複を排除した上で優先順位を付ける。

PRISM

広告掲載について

[email protected]

価格はトークン課金方式で、コードの複雑さによって変動するが、1回のレビューあたり平均15〜25ドル(約2,200〜3,700円)とWu氏は見積もっている。

年率25億ドル超、急成長するエンタープライズ事業

この新機能のリリースは、Anthropicにとって単なる製品アップデート以上の意味を持つ。同社は同日、国防総省から「サプライチェーンリスク」に指定されたことを受け、国防総省を相手取った訴訟を2件提起している。地政学的な逆風が強まる中、エンタープライズ事業の成長がより重要な収益の柱となっている。

実際、Claude Codeの年間換算収益はリリース以来25億ドルを超え、今年に入ってからサブスクリプション数は4倍に増加したという。UberSalesforceAccentureといった大企業がすでに利用しており、Code Reviewはそうした大規模エンタープライズ向けに設計されている。

日本市場への影響という観点では、トヨタソニー、大手SIerなど、慎重なコード品質管理を求める日本企業にとって、AIによるレビュー支援は潜在的な関心事になり得る。一方で、コードレビューを通じたベテランエンジニアから若手への技術継承という日本独自の文化的慣行が、AIの介入によってどう変化するかという問いも浮かぶ。労働力不足が深刻化する中で開発効率を上げる手段として歓迎する声がある反面、「AIが審査したコードを誰が最終的に責任を持つのか」という懸念も現場から出てくるだろう。

AIレビュアーは「品質の番人」になれるか

Code Reviewに対する見方は、立場によって大きく異なる。

エンタープライズの経営層から見れば、レビューのボトルネック解消と品質担保を同時に実現できる可能性があり、投資対効果は明確だ。1回25ドルのレビューコストも、人間のシニアエンジニアが数時間かけてレビューする工数と比べれば安価に映る。

一方、開発者の視点は複雑だ。AIが生成したコードをAIがレビューするループの中で、人間のエンジニアの役割はどこにあるのか。ロジックエラーの発見は効率化されても、コードの「意図」や「設計思想」を理解しているのは依然として人間でなければならないはずだ、という声は根強い。

セキュリティの専門家からは、「軽いセキュリティ分析」にとどまる点への懸念もある。Anthropicは別途「Claude Code Security」という深いセキュリティ分析ツールを提供しているが、二段階のツールを使い分ける運用が現場に定着するかどうかは未知数だ。

より大きな視点で見れば、このツールはソフトウェア開発における「人間のゲートキーパー」の役割が問い直される転換点を示している。コードを書くのもAI、審査するのもAI、そして最終的な判断だけを人間が行う——そんな未来の開発現場は、エンジニアにとって解放なのか、それとも空洞化なのか。

本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。

意見

関連記事

PRISM

広告掲載について

[email protected]
PRISM

広告掲載について

[email protected]