2026年4月2日、AI業界はかつてない混乱と興奮の渦中にあります。数日前、Anthropicが開発する革新的なAIコーディングツール『Claude Code』の全ソースコードが、不慮の事故によりインターネット上に流出しました。この事態を収拾しようとしたAnthropic側の強硬な対応が、無関係な数千のGitHubリポジトリを一時的に削除するという二次被害を招き、開発者コミュニティには激震が走っています。
しかし、流出した50万行を超えるコードの中から見つかったのは、単なるバグやアルゴリズムだけではありませんでした。そこには、ユーザーの端末で常時稼働し続ける自律型エージェントや、ターミナル内で育成する「タマゴッチ」スタイルのデジタルペットなど、AIの未来を塗り替える驚くべき機能が隠されていたのです。本記事では、テックブログ「AI Watch」として、この歴史的事件の全貌と技術的背景を深掘りします。
1. ニュースの概要:世紀の流出劇と「GitHub誤爆削除」の惨劇
事件の発端は2026年3月31日(現地時間)、Anthropicがnpmレジストリに公開した『Claude Code』のアップデート(バージョン2.1.88)に、本来含めるべきではないデバッグ用のソースマップファイル(.map)が混入していたことでした。これにより、難読化されていないTypeScriptソースコード約1,900ファイル、計512,000行が誰でも閲覧可能な状態となりました。
このミスは数時間以内にセキュリティ研究者によって発見され、X(旧Twitter)やGitHub上で爆発的に拡散されました。事態を重く見たAnthropicは、著作権侵害(DMCA)に基づく削除申請をGitHubに対して即座に実行。しかし、このプロセスで致命的な誤操作が発生しました。TechCrunchの報道(2026年4月1日公開)によれば、流出したコードの「ネットワーク」全体を削除しようとした際、アルゴリズムの誤判定により、無関係な数千の一般リポジトリまでが巻き添えで削除されるという事態に発展したのです。Anthropicは後に「事故であった」と謝罪し、削除されたリポジトリの復旧を進めていますが、中央集権的なAI企業が持つ「コードを一括削除できる権限」の危うさが浮き彫りとなりました。
2. 技術的な詳細:暴かれた「KAIROS」と「Buddy」の正体
流出したソースコードからは、これまでAnthropicが公式には発表していなかった、次世代AIエージェントの設計思想が明らかになりました。特に注目すべきは以下の3点です。
常時稼働型デーモン「KAIROS」と「autoDream」
コード内に150箇所以上登場するコードネーム「KAIROS」は、ユーザーがターミナルを閉じた後もバックグラウンドで動作し続ける「常時稼働型エージェント」を指しています。特筆すべきは「autoDream」と呼ばれる機能です。これは、ユーザーが寝ている間にAIがその日の作業ログを分析し、メモリ(記憶)を整理・統合して、翌朝には最適化されたコンテキストを準備しておくという、まさに人間の「睡眠」に似たプロセスをAIに実装しようとする試みです。
タマゴッチ型コンパニオン「Buddy」
開発者たちを最も驚かせたのは、「Buddy」と呼ばれる隠し機能です。これはターミナル内に住み着くデジタルペットで、ユーザーのコーディングスタイルや進捗に応じて成長し、性格(CHAOS、SNARK、PATIENCEなどのステータス)が変化します。アホロートルやドラゴンといった18種類の希少種が存在し、ガチャ要素まで含まれていることが判明しました。これは、孤独になりがちな開発作業に「ゲーミフィケーション」と「愛着」を持ち込む、Anthropic流のユーザー保持(リテンション)戦略と言えます。
次世代モデル「Mythos」と「Capybara」への言及
コード内には、開発中の新モデルに関する記述も多数見つかりました。内部コードネーム「Capybara(カピバラ)」は、次期Claude 4.6系のバリアントと目されており、特にサイバーセキュリティや複雑な論理推論に特化したエンジンであることが示唆されています。これは、先日Nvidiaが発表した次世代GPU『Vera Rubin』が提供する圧倒的な計算資源を前提とした設計である可能性が高いでしょう。
3. 考察:革新的なユーザー体験か、プライバシーの終焉か
この流出事件は、AIエージェントの進化における「光と影」を鮮明に描き出しました。
ポジティブな側面:開発効率の極致
「KAIROS」が実現しようとしている世界は、開発者が指示を出す前に、AIがテストの失敗を予見して修正し、ドキュメントを更新し、依存関係を整理しておくというものです。これは「AIをツールとして使う」段階から「AIをチームメンバーとして迎える」段階へのパラダイムシフトです。また、「Buddy」のような遊び心は、AIを単なる無機質な計算機ではなく、共生するパートナーとして定義し直す試みとして高く評価できます。
懸念点:セキュリティと独占の恐怖
一方で、重大な懸念も残ります。まず、常時稼働型エージェントがOSの深い階層で動作し続けることは、万が一悪用された場合の被害が計り知れないことを意味します。Googleが320億ドルでWizを買収した背景にもある通り、AIエージェントの普及には「セキュリティ」が最大のボトルネックとなります。今回の流出により、Anthropicの権限管理モデルやセキュリティバリデーターの脆弱性をハッカーが分析できる状態になったことは、同社にとって致命的な痛手です。
また、DMCA申請によるリポジトリの「誤爆削除」は、AI企業がインフラ(GitHub)と密接に連携しすぎることで、個人の資産がいとも簡単に消し去られるリスクを証明してしまいました。これは分散型開発の重要性を再認識させる事件でもあります。
4. まとめ(展望):AIは「人格」を持つフェーズへ
今回の流出事件は、Anthropicにとって2026年で最悪の1ヶ月を象徴するものとなりました。しかし、皮肉にも流出したコードが証明したのは、彼らが競合他社の一歩先を行く「高機能なエージェント・アーキテクチャ」を既に構築しているという事実です。
「タマゴッチ」のように愛着を抱かせ、主人が寝ている間に「夢」を見て記憶を整理するAI。これはもはや、単なるテキスト生成器ではありません。私たちは今、AIが「道具」から「自律的な人格」へと変貌を遂げる歴史的な分岐点に立ち会っています。Anthropicがこの信頼失墜をどう挽回し、正式にこれらの機能をリリースするのか。2026年のAI戦線からは、一瞬たりとも目が離せません。