【ClaudeCode】/ultrareview とは?マルチエージェントによる次世代コードレビューを徹底解説

テックジム東京本校では、情報科目の受験対策指導やAI駆動開発コースもご用意しております。
目次
この記事でわかること
- Claude Code の
/ultrareviewコマンドの概要と仕組み- 通常のコードレビューとの違い
- 実際の使い方・コスト・対象プラン
- エンジニアチームにとってのメリット
/ultrareview とは
/ultrareview は、Claude Code に追加されたクラウドベースの高精度コードレビューコマンドです。ターミナルから一行実行するだけで、複数のAIエージェントが並列でコードを分析し、人間のレビュアーが見落としやすいバグやセキュリティ上の問題を自動で検出します。
Anthropic が公式にリリースした「Code Review」機能の上位機能として位置づけられており、2026年3月末に npm パッケージ(@anthropic-ai/claude-code v2.1.88)のソースマップファイルが誤って公開された際に存在が明らかになりました。その後、GitHub リリースノートにも正式に追記されています。
通常の /review との違い
Claude Code にはもともと /review コマンドが存在していましたが、/ultrareview はそれとは根本的に設計が異なります。
| 比較項目 | /review(通常) |
/ultrareview |
|---|---|---|
| 処理方式 | シングルエージェント | 並列マルチエージェント |
| 実行場所 | ローカル | Anthropic クラウドインフラ |
| 検証ステップ | なし | 独立したVerifyエージェントが二重検証 |
| 偽陽性フィルタ | 弱い | 強い(検証済み問題のみ報告) |
| 対応規模 | 小〜中規模PR | 大規模PR(1万行以上)も対応 |
| 平均所要時間 | 即時〜数分 | 約17〜20分 |
/ultrareview の仕組み:3フェーズの解析プロセス
フェーズ1:セットアップ(約90秒)
コマンドを実行すると、Claude Code はクラウド上でエージェントフリートの起動準備を行います。PRのタイトル・説明・差分コード・関連コンテキストが収集され、各エージェントに配布されます。
フェーズ2:並列バグハンティング
複数のFindエージェントが、それぞれ異なる実行パスや視点でコードを独立して探索します。
- 認証フロー・WebRTCハンドラ・エラーハンドリングなど、異なる切り口で分析
- コードを読む「順序」を変えることで、特定の順番でしか現れないバグも検出
- ロジックエラー・セキュリティ脆弱性・レースコンディション・型の不一致など広範をカバー
エージェントのモデルは用途によって使い分けられており、バグ・ロジック問題には Opusクラスのモデル、CLAUDE.mdコンプライアンスやスタイル違反には Sonnetクラスのモデル が割り当てられます。
フェーズ3:Verifyエージェントによる二重検証
Findエージェントとは独立した別のVerifyエージェント群が、各バグ候補を再検証します。
- バグ候補の説明・PRタイトル・コードコンテキストを受け取り、本物か偽陽性かを判定
- Findエージェントは感度重視(見逃しゼロを目標)、Verifyエージェントは精度重視(確実なものだけ残す) という対立的な設計
- 検証をパスした問題のみが重要度でランク付けされ、インラインコメントとして報告される
基本的な使い方
# 現在のブランチをレビュー(引数なし)
/ultrareview
# 特定のGitHub PRをレビュー(PR番号を指定)
/ultrareview 123
引数なしで実行すると現在のブランチの差分をレビュー対象とし、PR番号を渡すと GitHub から該当 PR を取得して分析します。
Anthropic 社内での実績データ
Anthropic は自社のほぼすべての PR にこの Code Review システムを導入しており、以下の実績を公表しています。
- 導入前:PRの16%しか実質的なレビューコメントが付いていなかった
- 1,000行以上の大規模PR:84%でバグが検出され、平均7.5件の問題が報告される
- 50行未満の小規模PR:31%で検出(平均0.5件)——不要な指摘をしない静粛性も評価されている
- 誤検知率:エンジニアが「不正確」と評価した指摘は1%未満
ある事例では、本番サービスへの1行の変更が「認証を破壊する」という重大な問題をレビュー前に検出・修正できたと報告されています。
コストと対応プラン
| 項目 | 内容 |
|---|---|
| 対応プラン | Team・Enterprise プランのみ |
| 課金方式 | トークン使用量に基づく従量制 |
| 平均コスト | 1PRあたり約$15〜$25(規模により変動) |
| ZDR(ゼロデータリテンション)組織 | 利用不可 |
| 管理者機能 | 月額上限の設定・アナリティクスダッシュボードで使用状況を確認可能 |
Team・Enterprise プラン未加入のチーム向けには、オープンソースの Claude Code GitHub Action が無料で利用でき、より軽量な分析を提供しています。
/ultrareview が特に有効なケース
- 大規模PR(1,000行以上の差分) — 人間のレビュアーの集中力が途切れやすいケース
- AIが生成したコードのレビュー — AIが書いたコードをAIがレビューする相補的ワークフロー
- マルチエージェント開発パイプラインの品質ゲート — Claude Code がコードを生成し、/ultrareview が最終チェックとして機能
- セキュリティが重要なサービスへの変更 — 認証・暗号化・データ処理を伴うPR
既存ワークフローとの統合
/ultrareview はPRをブロックせず、既存のCI/CDや人間のレビューフローを置き換えるものでもありません。
- レビュー結果はGitHub のインラインコメントとして付与される
- 重大度(severity)でランク付けされた問題の一覧サマリーも別途確認可能
@claude reviewをPRコメントに投稿することで手動実行も可能CLAUDE.mdまたはREVIEW.mdをリポジトリに置くことで、レビューの観点をカスタマイズできる
まとめ
/ultrareview は、Claude Code に追加されたクラウドネイティブの高精度コードレビューコマンドです。複数のAIエージェントが並列でコードを探索し、独立した検証エージェントが偽陽性を除去することで、従来の自動レビューツールを大幅に上回る精度を実現しています。
AI によるコード生成が急増する現在のエンジニアリング環境において、「AIが書いたコードをAIがレビューする」という仕組みは、品質保証の新しい標準となりつつあります。Team・Enterprise プランを利用しているチームは、まずテストPRで試してみることをおすすめします。
よくある質問(FAQ)
Q. /ultrareview と /review はどちらを使うべきですか?
A. 大規模・複雑なPRや重要なサービスへの変更には /ultrareview が適しています。小規模な変更や素早い確認には通常の /review や GitHub Action で十分です。
Q. ZDR(ゼロデータリテンション)組織では使えますか?
A. 現時点では利用できません。ZDR組織はAnthropicインフラ上での処理対象外となっています。
Q. 結果が出るまでどのくらいかかりますか?
A. セットアップが約90秒、その後エージェントが並列で動作し、平均約17〜20分で完了します。
Q. 既存のGitHub レビューフローに影響しますか?
A. ありません。PRの承認・マージをブロックせず、既存のCIチェックと並列で動作します。
■ゼロから始めるClaudeCode講座のご案内
テックジム東京本校では「ClaudeCode」の体験講座を開催。
「その日のうちに動かす」 をゴールに、環境構築から実践まで。
毎週土曜日15時。参加は無料です。対面・ハンズオンだから初心者でも安心。
■らくらくPython塾 – 読むだけでマスター
共通テスト「情報I」対策解説講座
実践で学ぶPython速習講座
■テックジム東京本校
格安のプログラミングスクールといえば「テックジム」。
講義動画なし、教科書なし。「進捗管理とコーチング」で効率学習。
対面型でより早くスキル獲得、月額2万円のプログラミングスクールです。
情報科目の受験対策指導やAI駆動開発コースもご用意しております。