OpenAIのサム・アルトマンCEOは3月2日、先週発表した米国防総省との契約内容を修正していることを明らかにしました。「性急だった」と発表を振り返り、国内監視の禁止や情報機関への提供除外などの安全策を契約に追加する方針です。
目次
何が問題だったのか
OpenAIは先週金曜日(2月28日)、米国防総省の機密ネットワークにAI技術を導入する契約を発表しました。しかしこの発表は「機会主義的で粗末に見えた」とアルトマン氏自身が認めるほど、説明不足のまま公表されたものでした。AIの軍事利用に対する懸念がOpenAI社内外から噴出し、急きょ契約内容の見直しが行われることになりました。
追加される3つの安全策
契約に追加される主な条項は以下の3点です。第一に、米国市民に対する国内監視にAI技術を使用しないことの明文化です。第二に、国防総省傘下の情報機関(NSAなど)がOpenAIのサービスを使用しないことの確認です。第三に、自律型兵器システムの直接制御や、個人の権利に大きく影響する自動意思決定への使用禁止です。
アルトマン氏は「国防部はこれらの条件に同意した」と述べています。
AIの軍事利用をめぐる議論
今回の件は、AI技術の軍事利用をめぐる根本的な問いを改めて浮き彫りにしました。AIは医療・教育・科学研究など多くの分野で人類に貢献できる一方、軍事・監視への応用は深刻なリスクをはらんでいます。
OpenAIはもともと「人類全体の利益のためにAIを開発する」という理念を掲げて設立された組織です。国防総省との契約は、その理念と現実のビジネスの間の緊張関係を象徴する出来事といえます。
参考: ロイター、GIGAZINE(2026年3月2〜3日)

コメント