ハクソク

世界を動かす技術を、日本語で。

Googleとペンタゴン、AIの「合法的な」利用に関する合意に達したと報道される

概要

  • Googleが米国防総省とAI活用に関する極秘契約を締結
  • 契約内容は「合法的な政府目的」でのAI利用を許可
  • 社内からはAIの軍事利用に対する懸念と反対の声
  • OpenAIやxAIも同様の契約、Anthropicはリストから除外
  • 契約内容には監視や自律兵器利用に関する曖昧な制限

Googleと米国防総省のAI契約の詳細

  • Googleが米国防総省(DoD)とAIモデル提供に関する極秘契約を締結
  • 利用目的は「合法的な政府活動全般」に及ぶ
  • この契約はThe Informationが匿名筋から報道
  • 契約締結直前、Google社員がCEO Sundar Pichaiに対しAIの軍事利用阻止を要請
  • 社員側はAIが「非人道的または極めて有害な用途」に使われる懸念を表明

業界全体の動向とGoogleの立場

  • OpenAIxAIも米政府と同様のAI提供契約を締結
  • Anthropicは、武器や監視関連のAI制限解除要求を拒否したため国防総省から除外
  • 契約には「国内大規模監視」や「自律兵器」での利用禁止(適切な人間の監督が条件)を明記
  • ただし、Googleには「合法的な政府運用決定を制御・拒否する権利なし」と明記され、制限の法的拘束力は弱い
  • 政府の要請に応じてAI安全設定やフィルターの調整を支援する義務も含む

Google公式コメントと契約の位置づけ

  • Google広報は「国家安全保障支援のためのAIサービス提供に誇り」と声明
  • 今回の契約は既存の政府契約への追加改訂と説明
  • 国内大規模監視や自律兵器へのAI利用は適切な人間の監督なしに行うべきでない」との原則を再確認
  • 契約内容の詳細や制限の実効性には不透明さが残る状況

Hackerたちの意見

Googleとペンタゴンが意見が合わない場合、「合法」を誰が定義するの? > この機密契約では、政府がAIモデルをどう使うかに対してGoogleが拒否権を持たないらしい。ちょっと心配だよね?
彼らの声明には大きな「空気引用」のエネルギーを感じる。
特に、行政が法律の意味をどう解釈するかに関してはクリエイティブになれるのが心配。監視がほとんどないと、違法な活動に使われるのは確実な気がする(どんなに弁護士が苦し紛れの論理をメモに書いても)。
合法は、通常の常識的な意味で定義されてると思う。つまり、裁判所が物理的に私たちにやめさせるまで、好きなことができるってことだよね。
それが多分、トリックなんだろうね。しかも微妙じゃない。だから記事の見出しに引用符が使われてる。Googleは、政府に法律を守るように強く主張したことで原則を守ったと主張できるし、政府は自分たちの決定が合法だと主張する。OpenAIがやったことと同じだけど、こっちはバカみたいに扱われてない。
機密性が一番気になるよね。何に反対しているのか、あるいは反対すべきかも分からないのに、どうやって代表者に手紙を書けるの?(そして6週間後に定型文の返事が来るのを期待するの?)
いや、全然違うよ。民間企業が政府に何をすべきか決めるべきじゃない。それは国民の仕事だよ。民間企業に自分の投票を覆されたいの?
Googleが何が合法かを決めるべきじゃないよね。
「監視者を誰が監視するのか」っていう質問は、昔からあるよね。
一つ確かなのは、彼らは国際法なんて考えてないってことだね…。
定義上、「法律」って政府が通す法律のことだから、政府がほぼ好きなことをできるって言ってるようなもんだよね。あと、業界と政府の契約に関しては、これが唯一受け入れられる形だと思う。政府は常に一般市民より多くの情報を持ってるから。
子供の頃、姉とモノポリーを遊んでた時、マニュアルをなくしちゃって、結果が気に入らないときは勝手にルールを作ってたんだ。だから、技術的にはルールを変えられるから、 compliance(遵守)を保ちながらも上手くやるのは簡単だったよ。しかも、私が年上だったから、そのルールの再定義をもっとやりやすかった気がする…
テクノロジーの巨大企業がやると「明らか」なのは、彼らがゲームに新しく参加したばかりで、医療や土木工学、エネルギー、農業、化学などの既存の規制捕獲システムがないからだよね。もしこれが3Mがノースロップに悪いものを作って爆弾に詰めて茶色い人々に落とすとか、エクソンがアラスカで悪いことを企んでるとか、国立公園をソーラーパネルのためにブルドーザーで潰すとか、他のレガシー企業が政府と自分たちの利益のためにズルいことをしてたら、彼らには40年分の既存の業界団体の出版物や、金を払って買った学術やメディアの雑談があって、「ほら、これは大丈夫だよ、事前に合法化するために払ったものがこう言ってるから」って言えるんだろうけど、もちろん言葉は全然違うだろうね。
権力者が特にひどいルールを作るときに「合法」って言葉がよく使われるよね。たった一つの企業が国内監視や完全自動化されたキルチェーンに線を引こうとすることに対して、ヒステリックに反応するのがその例だよ。
私は、選ばれた公職者がマニュアルを持っていてほしいな。嫌いな人が権力を握ってルールを書き換える可能性も受け入れた上で、民間の億ドル企業よりはね。特に防衛に関しては。
アメリカにまだ「法律」があるのかについて投稿しようと思ってたけど、この投稿の方がずっと要点を伝えてるね。
以前の行動から、ペンタゴンがこの「合法的使用のみ」という茶番を受け入れなかった場合にGoogleに報復する可能性があることを考えると、法的な精査にどれだけ耐えられるのか? Googleは、強制されたと主張してこの契約から抜け出せるのかな? Googleが悪いことをするのに反対だとは言ってないけど、この契約が実際にどれだけ堅実なのか気になる。
これらの契約における「合法」の定義が機密である理由はゼロだよね。
理由はあるけど、君はそれが気に入らないだろうね。
これが来るとは誰が予想できた?昨日の記事から: https://www.cbsnews.com/news/google-ai-pentagon-classified-u... (「何百人ものGoogle社員がCEOにペンタゴンとの機密AI業務を拒否するよう求める」)。ここで働き続けるAI研究者は、道徳的に問題があると思うよ。
それが7桁の給料の理由だね。
自分が住んでいる国の軍と関わることが、どうして道徳的に問題なの?
アメリカ市民が自分の政府と関わることが、どうして道徳的に間違っているの?
ありがたいことに、ロシアや中国なんかもアメリカと同じように心配してるみたいで、優秀なエンジニアを武器開発に送るのは拒否してるんだよね。道徳的に妥協したくないってさ!
一部の法律に従うのが不道徳だっていうのには同意するよ。どの法律が不道徳だと思ってるの?
道徳って相対的で柔軟なもので、結局、自分の目的に合うことを道徳だって主張するのが人間の得意技だよね。
なんでこの記事が出るたびにこの決まり文句が出てくるんだろう?「ここで働き続けるAI研究者は道徳的に妥協している」って、すごく絶対的だよね。まるでずっと続いているキャンペーンみたいで、投稿者たちがすごく自己満足的で、考えなしに見える。
アメリカの納税者はみんな道徳的に妥協してるの?
昨日、ブリンがこの政権と親密になっている件について: https://www.nytimes.com/2026/04/27/us/politics/sergey-brin-g...
なんで彼らが道徳的に問題を抱えることになるの?オープンソースのモデルを作ってる人たちも、テロリストがそのモデルを使って悪いことするから道徳的に問題があるってこと?
これは、政府の行動が「合法」であるべきだと仮定した場合に成り立つ話。ペンタゴンが法律を守っていて、違法な使用は通常の報告や違反のチャンネルを通るという前提だね。ペンタゴンは、Googleや他の誰かに自分たちのAIを何に使うかを決められたくないんだ。「法律を破らないから、それで十分だろう」と言ってるわけ。ピンキー・スウェア! それでGoogleは満足してるみたいだけど、彼らの言葉をそのまま信じるんじゃなくて、監査の能力を求めるかもしれない。次のステップは、Googleはこれに対してFEDRAMPの認証を受けてるの?それともPalantirのAIを通るの?
これは「戦いを選ぶ」ってことだと思う。戦争では、一般市民が軍の動きをすべて監査するのは無理だよね。(タイムリーに反応するのも、敵に秘密を守るのも実際的じゃないし。)軍がGoogleと協力しなければ、他の誰かと協力することになるかもしれない。その相手が軍にAIの実用的な限界について同じくらい圧力をかけないかもしれないし、さらに悪いことに、敵が私たちよりもずっと優れたAIを使うかもしれない。私の希望は、「戦争」がAI対AI、機械対機械にシフトすること。戦争目的でAIに取り組む人たちを非道徳的だと呼ぶのは、AIが人間の犠牲を必要としなくなるときに根本的に非道徳的だと思う。
手段がなければ権利もない。違反の結果はどうなるの?そうでなければ、アメリカ人はこれを尻拭きにしか使わないし、紙のバージョンが見つかればの話だけど。
この政権はすでに法律なんて気にしてないって証明してるし、自分たちのやることは全部合法だと思ってるよね。
この件、ちょっと文脈から外れてる気がするけど、爆発的なジャーナリズムにはなるし、広告収入も稼げるし、Anthropicにはたくさんの宣伝になるよね(彼らはここではただ道徳的じゃないと思うけど)。要するに、過去にアメリカ政府は「Xの目的には使わない」って条件で武器や技術を手に入れてきたんだ。でも、私の調査によると、自己監視機能がある武器や技術の取引は受け入れたことがないみたい。例えば、アメリカの土壌の上では爆発しない爆弾とかね。そんな取引を拒否する理由も分かるよ、セキュリティリスクになるし、敵に利用される可能性もあるから。もちろん、そんなことじゃニュースにならないし、今の政権や最近のニュースの書き方を考えると、こういう展開になるのも納得だよね。
こういうのはどう?ペンタゴンは、一回でも成功した監査が終わったら「AI」を持てるようにすればいい。