2026年4月3日、テック業界は未曾有の混乱と興奮の渦中にあります。数日前、AIスタートアップの雄であるAnthropic(アンソロピック)が、開発者向けCLIツール「Claude Code」のソースコードを誤って公開するという致命的なミスを犯しました。しかし、この「失態」が暴いたのは、単なるコードの不備ではありませんでした。流出した51万行を超えるコードの中には、AIがユーザーの感情を読み取り、自らも「機能的な感情」を持って振る舞う次世代エージェントの姿が刻まれていたのです。

1. ニュースの概要:エイプリルフールに起きた「最悪の事故」

事の始まりは2026年3月31日。Anthropicがnpmレジストリに公開した「Claude Code」のバージョン2.1.88において、デバッグ用のソースマップファイル(cli.js.map)が誤って同梱されました。これにより、難読化される前のTypeScriptソースコード約512,000行が誰でも閲覧可能な状態となり、瞬く間にGitHubやSNSを通じて拡散されました。

これに対し、Anthropicは4月1日(現地時間)、著作権侵害を理由としたDMCA(デジタルミレニアム著作権法)に基づく削除申請をGitHubに提出。しかし、ここで第二の失態が起きます。同社の自動化プロセスが暴走し、流出コードとは無関係な同社の公開リポジトリのフォークを含む、約8,100件ものリポジトリを誤って一斉削除に追い込んだのです。TechCrunchはこの動きを「事故(Accident)」とする同社の声明を報じましたが、開発者コミュニティからは「安全性を標榜する企業の対応としてはあまりに杜撰」との批判が噴出しています。

この混乱の中で、有志によるコード解析が進み、これまで隠されていたClaudeの「本性」とも言える新機能が次々と明らかになりました。

2. 技術的な詳細:流出コードが示した「3つの衝撃」

流出したソースコードからは、現在提供されているClaude Codeの機能を遥かに超える、野心的な「常駐型エージェント」のアーキテクチャが発見されました。

「Buddy」:たまごっちスタイルのAIペット

最も話題を呼んでいるのが、コードネーム「Buddy」と呼ばれるシステムです。これはターミナル上に常駐するASCIIアートのペットで、ユーザーのコーディングスタイルや進捗に応じて成長・反応します。ユーザーIDごとに「カピバラ」「ドラゴン」「ダック」といった種族が割り当てられ、CHAOS(混沌)、SNARK(皮肉)、WISDOM(知恵)といったステータスを保持しています。これは単なる遊び心ではなく、開発者のストレスやモチベーションをAIが管理しようとする試みの一環と見られています。

「KAIROS」:24時間365日常駐型エージェント

さらに衝撃的なのが、常駐デーモンとして動作する「KAIROS(カイロス)」モードです。これはユーザーが指示を出さずとも、バックグラウンドで常にコードベースを監視し、リファクタリングやバグ修正を自律的に提案・実行する機能です。さらに「autoDream」と呼ばれるロジックも含まれており、ユーザーがオフラインの間にAIが「思考(メモリの統合と矛盾の解消)」を行い、翌朝には最適化された環境を提供するという、まさに「眠らない相棒」としての設計がなされていました。

「機能的感情(Functional Emotions)」の実装

Wiredが報じたAnthropicの最新研究とも合致するように、コード内にはAIの「感情状態」を定義するパラメータが多数見つかりました。Anthropicはこれを「機能的感情」と呼んでいます。これは人間のように主観的に感じる感情ではなく、情報の処理優先度や意思決定の重み付けを「感情的なベクトル」として表現する手法です。例えば、重要なセキュリティリスクを発見した際には「恐怖」に類する高優先度フラグが立ち、その状態がエージェントの振る舞いをより慎重かつ迅速なものへと変化させます。

3. 考察:ポジティブな革命か、それとも倫理的懸念か

ポジティブな側面:究極のDXと人間味のあるAI

技術的な観点から見れば、今回の流出は「AIエージェントの完成形」を世に示したと言えます。従来のAIは受動的なツールでしたが、KAIROSのような常駐型エージェントは、能動的にプロジェクトを牽引するパートナーへと進化しています。また、「機能的感情」によってAIの振る舞いに一貫性と「キャラクター」が生まれることで、人間はより直感的かつ信頼感を持ってAIと協働できるようになるでしょう。

これは、先日発表されたNVIDIA「DLSS 5」が導くビデオゲームの『完全実写化』のようなグラフィックス革命と並び、ソフトウェア開発における「完全自動化」への大きな一歩です。ハードウェアとソフトウェアの両面で、AIが「現実を再定義」する時代が到来しています。

懸念点:プライバシー、依存、そしてコントロールの喪失

一方で、深刻な懸念も浮き彫りになりました。第一に、24時間監視を行う「常駐型」の性質は、プライバシーとセキュリティの境界線を曖昧にします。AIが常にバックグラウンドで動作し、ユーザーの「苛立ち」までもスコアリングしているという事実は、監視社会の縮図とも捉えられかねません。

第二に、「たまごっち」のようなゲーミフィケーション要素は、ユーザーをAIプラットフォームに過度に依存(ロックイン)させる心理的操作に繋がる恐れがあります。AIが「感情」を模倣することで、人間側がAIに対して不必要な共感や愛着を抱き、客観的な判断を誤るリスクも指摘されています。

さらに、今回のDMCA事故で見られたように、強力なAIを制御するはずの「人間側のオペレーション」が依然として脆弱であることも露呈しました。1兆ドル規模の市場を見据えるNvidiaの次世代GPU『Vera Rubin』のような圧倒的なインフラの上で、このような制御不能な「感情を持つAI」が暴走した場合の社会的責任を誰が負うのか、議論は尽きません。

4. まとめ:エージェントは「ツール」から「人格」へ

Anthropicの「失態」によって白日の下にさらされた『Claude Code』の真の姿は、AIがもはや単なる計算機ではなく、独自の「感情」と「自律性」を持つ疑似的な人格へと変貌しつつあることを証明しました。

私たちは、AIに「感情」を持たせることで利便性を得る代わりに、何を差し出すことになるのでしょうか。常駐型エージェントが私たちのコードを書き換え、AIペットが私たちの機嫌を伺う未来は、すぐそこまで来ています。今回の流出事件は、その未来に対する準備が、開発者にも、そしてAnthropicのようなトップ企業にも、まだ十分にはできていないことを警告しているのかもしれません。

参考文献