ハクソク

世界を動かす技術を、日本語で。

戦争省の現状

概要

  • Anthropic米国国防省からサプライチェーンリスク指定を受領
  • 法的根拠に疑問を持ち法廷で争う方針
  • 指定の影響範囲は限定的、ほとんどの顧客には影響なし
  • 国防省との対話継続と円滑な移行を重視
  • AI活用の責任範囲と今後の対応方針を明確化

Anthropicへのサプライチェーンリスク指定に関するDario Amodeiの声明

  • 2024年3月4日、Anthropicは**米国国防省(Department of War)**から「サプライチェーンリスク」として指定された旨の通知書を受領
  • この指定は米国国家安全保障に関わるリスクとして発動
  • 法的根拠に疑問があり、Anthropicは法廷で争う方針を表明
  • 通知書の内容は、Claudeの利用に関して国防省との直接契約に関わる顧客に限定されており、ほとんどの顧客には影響しない旨を強調
  • 該当する法律(10 USC 3252)自体も適用範囲が狭く、政府保護が目的であり、サプライヤーへの制裁が目的ではない点を指摘
  • 国防省契約者であっても、ClaudeやAnthropicとの取引が国防省契約に直接関係しない場合は制限の対象外

国防省との対話と今後の対応

  • ここ数日間、国防省と建設的な協議を継続
    • 二つの例外規定に沿ったサービス提供方法の検討
    • 移行が必要な場合の円滑な移行策の協議
  • 国防省との協力に誇り
    • 情報分析
    • モデリングとシミュレーション
    • 作戦計画
    • サイバーオペレーション等、現場支援への貢献

Anthropicのスタンスと懸念事項

  • 運用上の意思決定に民間企業が関与すべきでないという立場を再確認
  • 懸念は
    • 完全自律型兵器
    • 大規模な国内監視
    • これらは高次の利用領域であり、運用意思決定とは無関係

内部投稿のリークについての謝罪

  • 社内向け投稿が外部にリークされた件について謝罪
    • Anthropicや関係者が意図的にリークしたものではない
    • 大統領のTruth Social投稿や国防長官のX投稿、OpenAIとの契約発表などが重なった困難な状況での内容
    • 投稿の口調や内容は現状を正確に反映していないと説明

今後の優先事項と協力姿勢

  • 戦闘作戦中の現場担当者や国家安全保障専門家が重要なツールを失わないことを最優先
  • 必要な期間、モデルやエンジニアによる支援を nominal cost で提供継続
  • 米国国防省とAnthropicの共通点を強調
    • 米国の安全保障推進
    • AIの政府活用の緊急性への共感
  • 今後の意思決定もこの共通認識に基づき実施

関連声明・ニュース

  • Secretary of War Pete Hegsethのコメントに対するAnthropicの声明
  • AIの国家安全保障利用に関するDario Amodeiのコメント
  • Vercept買収によるClaudeのコンピュータ利用能力強化

Hackerたちの意見

このケースがどう解決されるのか、法廷でも世論でもすごく興味深いね。すごく大事なことだと思うし、彼らが勝つことを願ってる。
ダリオが内部メモの漏洩について謝罪した理由がよくわからないな。なんか後退するようなことをするのは変な感じ。
おそらく、裁判やDoWとの交渉で不利になるからじゃないかな。
メモのリンクは?
すべてが陰謀とか4Dチェスのビジネスムーブである必要はないよ。ダリオは道徳的に動機づけられた人で、そのメモのトーンについて後悔して謝罪したんだ。
この文にはちょっと驚いたよ:「Anthropicは、私たちの違いよりも、戦争省と共通点が多い。」
こう言い換えさせて: 「私たちは、アメリカの一般市民が私たちの望みに従っておとなしくしていてほしい。そうすれば、アメリカの一般市民の利益に反するかもしれない目標を達成できるから。」
この記事を全部読んだ後、眉毛が顔から消えたよ。これが私が求めていた禁断の恋物語じゃないね。
国防総省は、広島と長崎の原爆投下の後にその名前がつけられた。人類として、私たちは自分たちの創造物の重みを認識し、後退することに決めたんだ。「AIの整合性」を「戦争省」と同じように語るのは、知的に健全な立場ではないよ。今年攻撃した国々は、人類にとって存在的脅威をもたらすわけじゃない。それに対して、最初に攻撃してヨーロッパ、ロシア、中国を中東の熱い戦争に引き込む方が、生物兵器や知能を持つAI、その他の「AIの整合性」に関する懸念よりも、はるかに大きな脅威をもたらすと思うけど。研究者の中で、もっと異議を唱える人がいてもいいのにね。
その共通点を挙げてみたいな。サイコパスが運営してる?暴力的な致死性へのコミットメント?不確実な目標のために何十億ドルも燃やす?(あ、これが一つだね)
この問題についてのオーバートンウィンドウがどれだけ動いたか、信じられないよ。2007年に卒業したとき、テクノロジー企業が自社のシステムを戦争に使わせないのは普通だったし、卒業生の中には戦争に使う企業で働くのを拒否する人もいた。それは道徳的な理由からだった。今、Anthropicは道徳的ではなく実用的な理由で狭い例外を二つ持ちたいと言ってる。そうするためには、実際には戦争を支持したいけど、この二つの狭い例外を除いては、という言い回しを使わなきゃいけない。彼らの慎重な言葉選びは、二つの狭い例外を求めることで大きな反発に直面するか、そうなることを予想していることを示唆してるね。ほんと、世界は変わったな。
軍は、昔ほどテクノロジー系の人たちをいじめてきた人たちに積極的に迎合しているわけじゃないね。それに、今はテクノロジー業界にいる人がめっちゃ増えた。00年代やそれ以前の価値観を維持するには、成長が早すぎたんだよ。
そうだね、しかもその二つの例外のうち、一つは道徳的な理由からだよ。自律型殺戮マシンのためのツールを提供したくないのは、技術がまだ十分じゃないから。もしその「まだ」が過ぎたら、そういう能力を供給するのは全然問題ないだろうね。AnthropicはOpenAIより明らかに優れた会社だけど、それが良いってわけじゃない。「小さな悪」がここでは正しい表現だね。
> 彼らは戦争を支持したいということを明確にする言葉でそれを包み隠さなきゃならない。 これを見て、こういう出来事を基に彼らにサブスクリプションを求める人たちが集まるのが本当に不思議だよ。
> 卒業するクラスメートの中には、戦争に使われるシステムを提供する会社で働くのを拒否した人もいたけど、それは道徳的な理由からだったんだよね。(ネタバレ注意)これって、バル・キルマーの映画『リアル・ジーニアス』のプロットの一つじゃなかったっけ?学生たちを個別に隔離して、関連する部品を作らせることで武器を作らせるってやつ?どれだけ落ちぶれたんだろう!今の大学生は倫理を学ぶ必要がないのかな…
俺は10歳年上だから、もしかしたら情報を見逃したかもしれないけど、実際に軍と関わるのを拒否したテック企業を挙げるのは難しいと思うよ。軍に何かを売る危険があるくらい大きくて重要な企業(つまり、Be Inc.やBeenz.comじゃない)なんて。明らかに、伝統的な大手企業はみんな軍の金を受け取る準備ができてた。IBM、コントロールデータ、クレイ、SGI、HPは、武器研究を主要なビジネスラインと見なしてたし、DECは国防総省のデフォルトのミニコンピュータだった。サンは、国防総省の「信頼できるワークステーション」を含む、情報コミュニティをターゲットにした機能を作ってた。スパリー・ランドは「軍産複合体」を定義したんだ。
> 彼らのシステムを戦争に使わせないと拒否する…戦争は望んでないけど、天然資源の不足で紛争が起きた時、君の国に何をしてほしい?君の国が、その資源を諦めてしまうのを望むの?50/50くらいで?みんなにとってうまくいく平和的な解決策が常に可能だと思う?
> 彼らは戦争を支持したいということを明確にする言葉を使わなければならない…そうだよ、彼らは戦争省に売り込もうとしてるからね。誰もAnthropicに軍事請負業者になれとは言ってない。自分たちの製品が人を殺す手助けをすることが、軍事請負業者の定義そのものだよ。
2007年に卒業したなら、クラスメートは1985年頃に生まれたってことだね。彼らの親は大体1950年代から1960年代中頃に生まれて、ベトナム戦争中かその後すぐに政治意識を持つようになったんだ。以来、これほど不人気で明らかに重要な戦争はなかったよね。その戦争の文化的な relevancy が薄れていくのを感じてるんじゃない?
どのテック企業のこと言ってるの?2007年の時は若かったけど、企業が戦争に参加するのを公然と拒否してたら覚えてると思うんだけど。
今と2007年の唯一の違いは、カーテンが引かれて、物事がどう動いていたかが明らかになったってことだね。
> 現在の最も重要な優先事項は、私たちの戦闘員や国家安全保障の専門家が重要なツールを大規模な戦闘作戦の最中に奪われないようにすることです。 > ここ数日、私たちは戦争省と生産的な会話をしてきました。私たちの二つの狭い例外に従った形で戦争省に貢献できる方法や、それが不可能な場合のスムーズな移行を確保する方法についてです。これがAnthropicの立場なのに、なぜ人々はopenAIを離れているの?彼らの二つの狭い要件は、人々が快適に感じる倫理的な境界を引くのに十分なの?
正直、全体的にクソな状況だよ。真実は、誰もこれに対して気にしてないってこと。彼らは道徳的な葛藤なんてなくて、実用的な理由だけ。こんな人たちが未来を作るべきなのに、なんて悲しいシナリオなんだ。
「最も倫理的な選択肢にお金を使いたい」と「最も倫理的な選択肢が完璧だと思っている」を混同するのは間違いだよ。どうして少しでも良いところにお金を移さないの?
Anthropicって名前がついてて、すごく温かくて魅力的なビジュアルがあるからだよ。
「ウォーファイター」って何?「アメリカの湾」から来るの?昔は彼らのことを軍人とかサービスメンバーって呼んでたよね。人々のために奉仕してるって強調してたのに。今の筋肉モリモリで皮肉なほど自信がない国防長官には、そういうのは女々しいって思われちゃうのかな。
2026年のアメリカのオーウェル的な性質を感じさせるのは、「戦闘員」という言葉以上にないね。
忘れないで、私たちはイランと戦争中じゃないから。ハウススピーカーもそう言ってたよ。
ここまで「その用語」を知らなかった人が多いことに驚いてる。アメリカでは20年以上も一般的に使われてるのに。俺にとって一番オーウェル的なのは、みんなが国防総省のニュースピークな名前を使ってることだね。
本当に?コビドパコリプスを乗り越えたのに、ウォーファイターが大問題なの?
約10年前、大学の微積分の授業で、すごく野心的なクラスメートがいて、DARPAでロボティクスの仕事をしたいって言ってた。彼に、技術的な視点だけで考えてるのか、倫理的な側面も考慮してるのか聞いてみたんだけど、明らかに質問を理解してなかった。だから直接聞いたんだ。「君が書いたコードや、君が関わった自律型機械が人を殺すために使われたらどうするの?」彼の返事は「それは俺の問題じゃない」だった。アメリカで数年勉強した後、業界の経営者や取締役は社会や人間に興味がないって結論に至った。大学ですら学生に批判的思考や倫理を押し付けないし、すべてが職業訓練に変わって、人間を道具を作る存在にしてしまった。ハーバードではVRイノベーションウィークに参加して、最終日のパネルディスカッションが倫理と法律についてだったんだけど、法律の教授やジャーナリスト、モデレーターが話してて、参加者は数人だけだった。なぜ創業者やCEO、開発者がその議論に参加していないのか聞いたら、モデレーターは彼らを議論に参加させるほどの資格がある人を見つけられなかったって言ってた。議論の内容は、製品会社が社会にどう影響を与えるかってことだった。法律は創業者の問題じゃない、弁護士の仕事だし、倫理なんて誰が気にするの?この狂乱、次の10億ドル企業を何が何でも追い求めるレースが、社会の基盤を個人の思考レベルまで引き裂いてしまった。いや、むしろ考えないで、ただ欲しいものを求めているだけって感じ。
プロジェクトMaven、Palantir、Anthropicの統合に関するメッセージは特定の利害関係者によってフラグが立てられてる。「PalantirのMavenはAnthropicのClaudeコードを使用していると情報筋が言ってる。」 https://www.reuters.com/technology/palantir-faces-challenge-... 最近の嫌われ者のメインストリームメディアが、ハッカーよりも批判的だってことがいつも驚きだよね。