AI倫理の分岐点 — Anthropicは「Don't Be Evil」を継承する存在なのか
![]()
2026年2月、AI業界の倫理を巡る対立が、これまでで最も明確な形で表面化しました。
AI企業Anthropicは、AIが自律兵器や大規模監視に使用される可能性があるとして、米国防総省からの安全制限緩和要求を拒否したと報じられています(CNBC, Bloomberg, 2026)。この問題は単なる契約交渉ではなく、「AIはどこまで軍事利用されるべきか」という根本的な倫理の問いです。
さらに、このAnthropicの立場を支持する形で、GoogleとOpenAIの200人以上の従業員がAIの軍事利用制限を求める公開書簡に署名しました(Axios, 2026)。Google内部では、Chief ScientistのJeff Deanを含む経営陣に対して倫理的制限を求める内部書簡も送られており、企業内部でも深刻な意見の分裂が存在しています。
この対立は突然生まれたものではありません。その起点は、10年以上前に遡ります。
DeepMind買収:倫理を守るための条件(2014年)
2014年、Googleは英国のAI企業DeepMindを買収しました。このとき、創業者のDemis Hassabisらは買収条件として、AI倫理・安全委員会の設置を求めたと報じられています(WIRED, 2015)。この委員会は、AIが軍事や監視用途に使用されることを防ぐための倫理的ガードレールとして設計されたものでした。
当時のGoogleは「Don’t Be Evil」という理念を掲げ、技術企業として倫理的責任を重視する姿勢で知られていました。DeepMindの創業者らは、AIは利益のためだけでなく人類全体の利益のために使われるべきだという信念を持っていました。この姿勢が、世界中の研究者がGoogleとDeepMindを信頼する理由の一つでした。
Project Maven:理想と現実の衝突(2018年)
しかし2018年、その均衡は崩れます。
Googleが米国防総省のProject MavenにAI技術を提供していたことが明らかになりました(The Guardian, 2018)。このプロジェクトは、ドローン映像をAIで解析する軍事用途のものでした。
社内では激しい反発が起こり、4,000人以上の社員が抗議署名を行い、少なくとも12名が辞職しました。Googleは最終的に契約更新を見送り、AI Principlesを制定しました。
しかし同時期に、Googleの行動規範から「Don’t Be Evil」という言葉は象徴的な位置から姿を消しました(Business Insider, 2018)。理念が完全に消えたわけではありませんが、企業の最優先事項でなくなったことは明らかでした。
Project Nimbus:現実主義への移行(2021年〜)
2021年以降、Googleはイスラエル政府とのProject Nimbusを含む政府契約を推進しています。
これに対し、DeepMindを含む研究者の間で反発が起こりました。2024年には約200名の従業員が軍事関連契約の停止を求める書簡に署名しています(TIME, 2024)。さらに、抗議活動に参加した社員が解雇されるケースも報じられています(Reuters, 2024)。
かつてのGoogleでは、倫理が企業行動を制約する力を持っていました。現在のGoogleは、倫理と利益のバランスを取る企業へと変化しています。
これは非難ではありません。巨大企業としての現実です。国家、安全保障、政治——これらと無関係にグローバル企業は存在できません。
Anthropic:原則に基づく経営
その中でAnthropicは異なる立場を取っています。軍事利用に関する制限を維持し、倫理的ガードレールを優先する姿勢を示しています。
この姿勢は単なる理想主義ではなく、原則(Principle)に基づく経営判断です。
私はこの姿勢を深く尊重しています。
自他共栄と三方よし:持続的成功の条件
私は過去に会社経営を行ってきた経験があります。その中で最も重視していたのは、日本の武道と近江商人に由来する哲学でした。
自他共栄 — 自分だけでなく、顧客、社員、社会すべてが利益を得ること。
三方よし — 売り手よし、買い手よし、世間よし。
短期的な利益ではなく、長期的な信頼を優先する。この原則に基づいた経営は、結果として持続的な成功をもたらしました。
Anthropicの姿勢は、この哲学と深く共通しています。
しかし倫理だけでは世界は動かない
同時に、現実の難しさも理解しています。企業が巨大化すればするほど、政治と無関係ではいられません。完全な理想主義だけでは、世界規模の影響力を持つことはできません。
日本には「清濁併せ呑む」という言葉があります。理想を守りながら、現実の中で前進する知恵です。
Anthropicもまた、今後この困難なバランスを試される場面が訪れるでしょう。
結論:AIの未来は原則を守る企業にかかっている
Googleは理想から現実へと移行しました。Anthropicは原則を守ろうとしています。
私はAnthropicの倫理を重視する姿勢を支持します。それは理想主義ではなく、持続的発展のための合理的な選択だからです。
しかし同時に、巨大な影響力を持つ企業が完全な純粋性を維持し続けることの難しさも理解しています。
Anthropicがこの原則をどこまで守り続けることができるのか。そして現実とのバランスをどう取るのか。それは、AIの未来を決定する重要な試金石になるでしょう。
いま、AI業界はその歴史的な転換点にあります。
この記事についてのLinkedIn投稿でコメントや意見を共有できます。
LinkedInで議論する