トランプのAI禁止令は矛盾だらけ、Anthropicが2億ドルを捨てた理由
イチオシスト

「使うな」と言ったAIが、同じ日に戦場で動いていた
「あのAI、もう使うなって大統領が言ったはずでは……?」――そんな違和感を覚えた方も多いのではないでしょうか。
2026年2月27日(米東部時間)、トランプ大統領はTruth Socialで「すべての連邦政府機関はAnthropicの技術を直ちに使用停止せよ」と投稿しました。ところがその数時間後、米中央軍(CENTCOM)はイスラエルと共同でイランへの大規模攻撃「Operation Epic Fury」を開始。Wall Street Journalの報道によると、この作戦でまさにAnthropicのAIモデル「Claude」が情報分析・標的特定・戦闘シミュレーションに使われていたのです。
なぜこんな矛盾が起きたのか。その背景には、AI企業と国家権力が正面からぶつかった「ガードレール論争」があります。
そもそも何が起きていたのか、2億ドル契約と「レッドライン」
Anthropicと国防総省の蜜月時代
話は2025年7月にさかのぼります。国防総省はAIの軍事活用を加速するため、Anthropic・OpenAI・Google・xAIなどと総額2億ドル規模の契約を締結しました。中でもAnthropicは特別なポジションにいました。データ分析大手Palantirとの提携を通じ、Claudeは米軍の機密ネットワークに展開された唯一のAIモデルだったのです。
2026年1月にはベネズエラのマドゥロ大統領拘束作戦でもClaudeが活用されたと報じられており、すでに実戦レベルで深く組み込まれていました。
「2つの条件」を巡る決裂
問題が表面化したのは、国防総省がAnthropicに対して「あらゆる合法的な目的にClaudeを制限なく使わせろ」と要求したことでした。
これに対し、Anthropic側が譲れないとした条件はシンプルに2つです。
・米国市民に対する大規模監視にClaudeを使わないこと
・人間の関与なしに、完全自律型兵器の最終的な攻撃判断にClaudeを使わないこと
Anthropicの関係者は「Claudeはハルシネーション(幻覚)から完全に自由ではなく、人間の判断なしでは意図しないエスカレーションや致命的ミスを起こすリスクがある」と説明しています。つまり、AIの技術的限界を知っているからこそのレッドラインでした。
国防総省側も「連邦法で軍の国内監視は制限されていることを書面で認める」「自律型兵器に関する既存の国防総省方針を明記する」などの譲歩案を提示しました。しかしAnthropicは「妥協案に見える新たな契約文言の裏に、いつでもガードレールを無効にできる法的抜け穴が仕込まれていた」と反論。交渉は完全に決裂しました。
トランプの制裁とヘグセス国防長官の「サプライチェーンリスク」指定
前例のない強硬措置
2月27日午後5時1分の最終期限をAnthropicが拒否すると、事態は一気に動きました。
まずトランプ大統領がTruth Socialで、Anthropicを「現実の世界を全く理解していない急進左派のAI企業」と攻撃し、全連邦政府機関への即時使用停止を命令。ただし国防総省など一部機関には6ヶ月の移行期間を認めました。
約1時間半後、ヘグセス国防長官がさらに踏み込みます。Anthropicを「国家安全保障上のサプライチェーンリスク」に指定。この指定は通常、中国やロシアの企業に対して適用されるもので、米軍と取引するすべての請負業者がAnthropicとの商取引を禁じられるという極めて厳しい措置です。
AnthropicのCEO、ダリオ・アモデイ氏はCBS Newsの独占インタビューで、政府の行動を「報復的で懲罰的だ」と批判。法廷でサプライチェーンリスク指定に異議を申し立てる方針を示しつつも、「最初から合意を望んでいた。レッドラインに沿う限り、今も協力する用意がある」と述べています。
OpenAIの「漁夫の利」、数時間で成立した機密ネットワーク契約
同じ条件のはずが、なぜOpenAIだけ合意できたのか
Anthropicが排除されたその日の夜、OpenAIのサム・アルトマンCEOが国防総省との機密ネットワーク契約締結を発表しました。
興味深いのは、アルトマン氏が掲げた「レッドライン」がAnthropicとほぼ同じだった点です。大規模国内監視の禁止、自律型兵器への使用禁止、さらにソーシャルクレジットのような高リスク自動判断の禁止という3原則を挙げています。
アルトマン氏自身も「確かに急いだ。見た目は良くない」と認めていますが、「状況を沈静化させたかった。これが業界と政府の関係改善につながれば天才と呼ばれるし、そうならなければ批判を受け続けるだろう」とも述べています。
ただし、テックメディアTechdirtは契約文言の中に大統領令12333号(NSAが海外通信傍受を通じて米国市民の情報を収集する根拠とされるもの)への準拠条項があることを指摘し、「実質的には国内監視を許容しているのでは」という疑問を投げかけています。
「禁止されたAI」が戦場で使われた矛盾のカラクリ
話を冒頭の矛盾に戻しましょう。なぜ「使うな」と言われたClaudeがイラン攻撃で使われたのか。
答えはシンプルです。トランプ大統領の命令自体が、国防総省に対しては即時停止ではなく6ヶ月の移行期間を設けていたからです。つまり2月28日未明のイラン攻撃時点では、軍がClaudeを使用すること自体は大統領令の範囲内だったのです。
しかし、AIの安全性に懸念を示して排除された企業の技術が、排除発表のわずか数時間後に実際の軍事作戦で使われていたという事実は、この問題の本質を浮き彫りにしています。AIはすでに現代戦の中核インフラになっている、ということです。
私たちの生活にどう関係するのか
「軍事AIの話なんて自分には関係ない」と思うかもしれません。しかし、今回の騒動が示しているのは、AIの安全基準を誰が、どのように決めるのかという根本的な問いです。
Anthropicが主張した「大規模監視に使うな」「人間なしに殺傷判断をさせるな」という条件は、軍事に限った話ではありません。私たちが日常的に使うAIサービスにも、どこかで同じ線引きの問題が出てきます。顔認識、信用スコアリング、採用選考――AIが判断するすべての領域で「ここから先はダメ」という基準が必要です。
一方で、テック企業が政治的圧力に屈しない姿勢を貫くことのコストも見えました。AnthropicのApp StoreランキングはOpenAIのChatGPTを一時上回り、GoogleとOpenAIの従業員430人超がAnthropicの立場を支持する連名書簡に署名するなど、業界内での支持は広がっています。しかし、2億ドル規模の政府契約を失い、サプライチェーンリスクに指定されるという代償は決して軽くありません。
この先、注目すべき3つのポイント
1. 法廷闘争の行方: Anthropicはサプライチェーンリスク指定を法的に争う方針です。この判決は、政府がテック企業に対してどこまで圧力をかけられるかの前例となります。
2. OpenAI契約の実態: 同じレッドラインを掲げて合意できたOpenAIの契約内容が、Anthropicが拒否した条件と本当にどう違うのか。詳細が明らかになるにつれ、議論は深まるでしょう。
3. AI軍事利用の国際ルール: イラン攻撃でAIが情報分析や標的特定に使われた事実は、軍事AIの国際的な規範作りを加速させる可能性があります。日本を含む同盟国の対応にも影響が及ぶはずです。
記事提供元:スマホライフPLUS
※記事内容は執筆時点のものです。最新の内容をご確認ください。
