現在、米政権とAI企業の「倫理」を巡る対立が、かつてない局面を迎えています。

事の発端は、米国防省がAnthropic社との契約を突如解消し、同社を国家安全保障上のリスクに指定したこと。AIの軍事利用に制限をかけようとした同社のダリオ・アモデイCEOに対し、実戦でのフル活用を求める国防省が猛反発した形です。
この決裂の直後、軍事分野での活用にも柔軟な姿勢を見せていたOpenAIが国防省と電撃的に契約。「Claude」が排除され、入れ替わりで「ChatGPT」が米軍の中枢に組み込まれるという、テック業界の勢力図を塗り替える歴史的な事態となっています。
これを受けて、ClaudeはAIの「メモリ機能(記憶機能)」を無料版ユーザーにも完全開放。これにより、ユーザーの好みや過去の会話の文脈をAIが記憶し、よりパーソナライズされた実用的な対話が可能になりました。さらに、ChatGPTといったほかの生成AIに保存されているチャットの履歴をClaudeにインポートする機能まで提供されています。
一方、ChatGPTはAIの軍事利用への倫理的な反発に直面。ChatGPTのアンインストール数が295%急増し、App Storeでは星1の低評価レビューが殺到しました。多くのユーザーが「軍事に関わる企業に自分のデータを委ねたくない」と反発しているようです。
現在、ChatGPTユーザーの大規模な乗り換えにより、ClaudeがApp Storeの無料アプリランキングでトップに躍り出ています。
これからはAIを選ぶ基準として、単なる処理性能だけでなく、「そのAIがどんな倫理観を宿しているのか?」という視点が欠かせなくなりそうです。自分の選んだツールが、知らぬ間に国家権力や軍事力の強化に加担していないか? 今回の騒動はAIの「選び方」や「付き合い方」を根本から問い直す契機としたいところです。
Source: TechCrunch, Digital Trends