51.2万行のコード、1906個のファイル、59.8MBのsource map。3月31日未明、Solayer LabsのChaofan Shouが、Anthropicのフラッグシップ製品であるClaude Codeが完全なソースコードを公共のnpmリポジトリに露出させていることを発見した。数時間のうちに、コードはGitHubにミラーされ、fork数が4.1万を突破した。
これはAnthropicが初めて犯したミスではない。2025年2月にClaude Codeを初めてリリースした際も、同様のsource map漏えいが一度発生していた。今回のバージョンはv2.1.88で、漏えいの原因も同じだった。Bunのビルドツールはデフォルトでsource mapを生成し、.npmignoreにはこのファイルが漏れていた。
大部分の報道では、漏えいの「イースターエッグ」が列挙されている。たとえばバーチャルペットシステムや、「潜入モード」によってClaudeが匿名でオープンソースプロジェクトにコードを提出できる仕組みなどだ。しかし本当に掘り下げる価値があるのは、なぜ同じClaudeモデルが、ウェブ版とClaude Codeではこれほどまでに挙動が違うのか? 51.2万行のコードは結局何をしているのか、という点だ。
答えはコード構造の中にある。GitHubコミュニティによる漏えいソースの逆向き分析によれば、51.2万行のTypeScriptのうち、AIモデルを直接呼び出すインターフェースコードは約8000行で、全体の1.6%に過ぎない。
残りの98.4%は何をしている?最大の2つのモジュールは、クエリエンジン(4.6万行)とツールシステム(2.9万行)。クエリエンジンはLLM API呼び出し、ストリーミング出力、キャッシュのオーケストレーション、多ラウンド対話の管理を扱う。ツールシステムは、約40個の内蔵ツールと50個のスラッシュコマンドを定義し、一連のプラグインのようなアーキテクチャを形成している。各ツールには独立した権限制御がある。
さらに2.5万行のターミナルUIレンダリングコードがあり(そのうちprint.tsという名前のファイルは5594行もあり、単一関数が3167行を超える)、2万行のセキュリティと権限制御(23項目の番号付きBashセキュリティチェックと、18個の無効化されたZsh組み込みコマンドを含む)、そして1.8万行のマルチエージェントオーケストレーションシステムがある。
機械学習研究者のSebastian Raschkaは、漏えいコードを分析した後で、Claude Codeが同じモデルのウェブ版より強いのは、コアとなるモデルそのものではなく、モデルの周りに構築されたソフトウェアの足場(ソフトウェアスキャフォールド)にあると指摘した。これにはリポジトリのコンテキスト読み込み、専用ツールのディスパッチ、キャッシュ戦略、サブエージェントの協調が含まれる。彼は、同じエンジニアリングアーキテクチャをDeepSeekやKimiなど他のモデルにも適用すれば、同様にプログラミング性能の向上を得られる可能性があるとも考えている。
直感的な比較が、このギャップを理解するのに役立つ。あなたがChatGPTやClaudeのウェブ版で質問を入力すると、モデルは処理して答えを返し、対話が終わる時点で何も残らない。しかしClaude Codeのやり方はまったく違う。起動時にまずプロジェクトのファイルを読み、コードベースの構造を理解し、あなたが前に「テストでデータベースをmockしないで」などと述べた好みを覚える。さらに、あなたのターミナルで直接コマンドを実行し、ファイルを編集し、テストを走らせる。複雑なタスクに出会うと、複数のサブタスクに分割して異なるサブエージェントに並列処理させる。言い換えれば、ウェブ版AIは「質問と回答のウィンドウ」であり、Claude Codeは「あなたのPCに住む協働者」だ。
ある人は、このアーキテクチャをオペレーティングシステムに例えた。42個の内蔵ツールはシステムコールに相当し、権限システムはユーザー管理に相当し、MCPプロトコルはデバイスドライバに相当し、サブエージェントのオーケストレーションはプロセスのスケジューリングに相当する。各ツールは出荷時点でデフォルトで「安全でなく、書き込み可能」とフラグ付けされており、開発者が自ら「安全」と明言しない限りそうなる。ファイル編集ツールは、あなたがまずそのファイルを読んだかどうかを強制的にチェックし、読んでいなければ変更を許可しない。これは「チャットボットにいくつかのツールを付け足しただけ」ではなく、LLMを核に、完全なセキュリティメカニズムを備えた実行環境なのだ。
つまり、こういうことになる。AIプロダクトの競争上の壁は、モデルの層にあるのではなく、エンジニアリングの層にあるのかもしれない。
漏えいコードの中に、promptCacheBreakDetection.tsというファイルがあり、prompt cacheが無効になる可能性のある14種類のベクトルを追跡している。なぜAnthropicのエンジニアは、キャッシュのブレイクを防ぐためにこれほどの労力をかけているのか?
Anthropicの公式価格を見れば分かる。たとえばClaude Opus 4.6では、標準入力価格は100万tokenあたり5ドルだが、キャッシュヒット時の読み取り価格は0.5ドルで済む。つまり90%安い。逆に言えば、キャッシュがブレイクするたびに、推論コストは10倍になる。
これは、漏えいコードに大量に見られる「過剰な設計」とも言えるアーキテクチャ上の意思決定を説明している。Claude Codeは起動時に、現在のgitブランチ、最近のcommit記録、CLAUDE.mdファイルをコンテキストとして読み込む。こうした静的コンテンツはグローバルキャッシュされ、境界マークで動的コンテンツと分離されることで、毎回の対話で既存コンテキストを重複処理しないようにする。コードにはsticky latchesという仕組みもあり、モード切り替えが既に確立されたキャッシュを壊さないよう防いでいる。サブエージェントは、自分だけで新たにコンテキストウィンドウを作り直すのではなく、親プロセスのキャッシュを再利用するよう設計されている。
掘り下げる価値のある細部がもうひとつある。AIプログラミングツールを使ったことがある人なら知っているが、対話が長くなるほどAIの返信は遅くなる。なぜなら、会話の各ラウンドで、これまでの履歴を前段のままモデルへ再送する必要があるからだ。一般的な対処は古いメッセージを削除してスペースを空けることだが、問題は、メッセージを削除するだけでキャッシュの連続性が壊れ、対話履歴全体を再処理することになり、遅延と費用が同時に跳ね上がる点だ。
漏えいコードにはcache_editsという仕組みがあり、やり方は「本当にメッセージを削除しない」。APIレイヤーで古いメッセージに「スキップ」マークを付けるのだ。モデルはそれらのメッセージを見えなくなるが、キャッシュの連続性は壊れない。つまり数時間に及ぶ長い対話で数百件の古いメッセージを片付けても、次のラウンドの応答速度は、最初のラウンドとほぼ同じままだ。一般のユーザーにとっては、これが「なぜClaude Codeは無限に近い長さの対話をサポートしても遅くならないのか」の、土台となる答えになる。
漏えいされた内部監視データによると(autoCompact.tsのコードコメント、日付は2026年3月10日)、自動圧縮の失敗上限を導入する前、Claude Codeは毎日約25万回のAPI呼び出しを無駄にしていた。1279人のユーザーsessionで、50回以上の連続する圧縮失敗が発生しており、最も深刻だった1つのsessionでは3272回連続で失敗していた。修正方法は、制限を1行追加するだけだった:MAX_CONSECUTIVE_AUTOCOMPACT_FAILURES = 3。
したがって、AIプロダクトにとっては、モデルの推論コストが最も高い層とは限らず、キャッシュ管理の失敗が本当の高コストになり得る。
漏えいコードには、44個のfeature flagsが隠されている――すでにコンパイル済みの機能スイッチだが、外部には公開されていない。コミュニティの分析によれば、これらのflagsは機能領域ごとに5種類に分かれており、その中で最も密集しているのが「自律エージェント」系(12個)で、KAIROSという名のシステムを指している。
KAIROSはソース内で150回以上参照されており、常駐のバックグラウンドデーモンとしてのモードだ。Claude Codeは、あなたが自発的に呼び出したときだけ応答するツールではなく、常にバックグラウンドで動作するエージェントで、継続的に監視・記録し、適切なタイミングで能動的に行動する。前提はユーザーを妨げないこと。ユーザーの操作を15秒以上ブロックしうる処理はすべて遅延実行される。
KAIROSには、ターミナルのフォーカスを感知する機能も組み込まれている。コード内にterminalFocusというフィールドがあり、ユーザーがターミナルウィンドウを見ているかをリアルタイムで検出する。あなたがブラウザや別のアプリに切り替えると、代理はあなたを「いない」と判定し、自律モードへ切り替えてタスクを能動的に実行し、確認を待たずに直接コードを提出する。あなたがターミナルに戻すと、エージェントは直ちに協働モードへ戻る。まず直前に何をしたかを報告し、そのうえであなたの意見を求める。自律の度合いは固定ではなく、あなたの注意に合わせてリアルタイムに揺れ動く。これは、AIツールが長年抱えてきた厄介な問題を解決する。完全に自律的なAIは信用できない。一方で完全に受け身のAIは効率が低すぎる。KAIROSの選択は、AIの能動性をユーザーの注意に応じて動的に調整することだ。あなたが見ている間はおとなしく、あなたが離れるとAIが自分で仕事をする。
KAIROSのもう一つのサブシステムはautoDreamで、5つのセッションを積み上げるか、24時間の間隔が空くと、エージェントがバックグラウンドで「反省」プロセスを起動する。4ステップで進む。まず、既存の記憶をスキャンして、自分が現在何を持っているのかを把握する。次に、対話ログから新しい知識を抽出する。そして、新旧の知識を統合し、矛盾を修正し、重複を取り除く。最後に、索引を圧縮して、古くなった項目を削除する。この設計は、認知科学における記憶の固定化(メモリのコンソリデーション)理論を取り入れている。人は睡眠中に昼間の記憶を整理し、KAIROSはユーザーが離れたときにプロジェクトのコンテキストを整理する。一般のユーザーにとっては、Claude Codeを使うほどあなたのプロジェクト理解がより正確になり、「あなたが言ったことを覚える」だけではない、という意味になる。
2番目に大きいカテゴリは「蒸留の逆(反蒸留)と安全」(8つのflags)だ。その中で特に注目に値するのがfake_toolsメカニズムで、4つの条件が同時に満たされたとき(コンパイル時flagが有効、CLIエントリが起動、第一者APIの利用、GrowthBookのリモートスイッチがtrue)、Claude CodeはAPIリクエストに偽のツール定義を注入する。目的は、APIトラフィックの記録を通じて、競合するモデルの学習に用いられ得るデータセットを汚染することだ。これはAIの軍備競争における新しい防御形態で、「あなたが真似してコピーすることを止める」のではなく、「間違ったものをコピーできてしまうようにする」ものだ。
さらに、コードにはCapybaraのコードネーム(標準版、fast版、百万規模のコンテキストウィンドウ版の3つのレベルに分かれている)が登場し、コミュニティではClaude 5シリーズの内部コードネームだと広く推測されている。
真面目なエンジニアリングアーキテクチャとセキュリティメカニズムの間に、Anthropicのエンジニアはこっそりと、完全なバーチャルペットシステム――内部コード名BUDDY――も作っていた。
漏えいコードとコミュニティ分析によれば、BUDDYは擬物化されたターミナルのペットで、ASCIIの吹き出し枠という形でユーザーの入力欄の横に表示される。物種は18種類(ウォンバット、イモリ、きのこ、ゴースト、ドラゴン、そしてPebblecrab、Dustbunny、Mossfrogのような一連のオリジナル生物を含む)で、希少度により5段階に分かれている。普通(60%)、レア(25%)、エピック(10%)、レジェンド(4%)、伝説(1%)。各物種には「シャイニー変種」もあり、最もレアなShiny Legendary Nebulynxの出現確率は1万分の1だ。
それぞれのBUDDYには5つの属性がある:DEBUGGING(デバッグ)、PATIENCE(忍耐)、CHAOS(混乱)、WISDOM(智慧)、そしてSNARK(辛辣)。さらに帽子もかぶれる。選択肢にはクラウン、シルクハット、プロペラの帽子、ハロー、ウィザード帽があり、さらにはミニチュアのアヒルもいる。ユーザーIDのハッシュ値によって、どのペットを孵化させるかが決まり、Claudeはそのペットの名前と性格を生成する。
公開計画によると、BUDDYは当初4月1日から7日にかけてベータテストを開始し、5月に正式ローンチする予定で、まずはAnthropicの社内社員から始まる。
51.2万行のコード、98.4%はハードコアなエンジニアリングに使われているのに、最後に誰かが時間をかけて、プロペラの帽子をかぶる電子イモリを作った。おそらくこれが、漏えいの中でもっとも人間味のある1行コードだ。
335.52K 人気度
61.84K 人気度
19.89K 人気度
340.09K 人気度
810K 人気度
AIエージェントは一体何をしているのか?Claude Code 50万行コード漏洩の全解説
51.2万行のコード、1906個のファイル、59.8MBのsource map。3月31日未明、Solayer LabsのChaofan Shouが、Anthropicのフラッグシップ製品であるClaude Codeが完全なソースコードを公共のnpmリポジトリに露出させていることを発見した。数時間のうちに、コードはGitHubにミラーされ、fork数が4.1万を突破した。
これはAnthropicが初めて犯したミスではない。2025年2月にClaude Codeを初めてリリースした際も、同様のsource map漏えいが一度発生していた。今回のバージョンはv2.1.88で、漏えいの原因も同じだった。Bunのビルドツールはデフォルトでsource mapを生成し、.npmignoreにはこのファイルが漏れていた。
大部分の報道では、漏えいの「イースターエッグ」が列挙されている。たとえばバーチャルペットシステムや、「潜入モード」によってClaudeが匿名でオープンソースプロジェクトにコードを提出できる仕組みなどだ。しかし本当に掘り下げる価値があるのは、なぜ同じClaudeモデルが、ウェブ版とClaude Codeではこれほどまでに挙動が違うのか? 51.2万行のコードは結局何をしているのか、という点だ。
モデルは氷山の一角
答えはコード構造の中にある。GitHubコミュニティによる漏えいソースの逆向き分析によれば、51.2万行のTypeScriptのうち、AIモデルを直接呼び出すインターフェースコードは約8000行で、全体の1.6%に過ぎない。
残りの98.4%は何をしている?最大の2つのモジュールは、クエリエンジン(4.6万行)とツールシステム(2.9万行)。クエリエンジンはLLM API呼び出し、ストリーミング出力、キャッシュのオーケストレーション、多ラウンド対話の管理を扱う。ツールシステムは、約40個の内蔵ツールと50個のスラッシュコマンドを定義し、一連のプラグインのようなアーキテクチャを形成している。各ツールには独立した権限制御がある。
さらに2.5万行のターミナルUIレンダリングコードがあり(そのうちprint.tsという名前のファイルは5594行もあり、単一関数が3167行を超える)、2万行のセキュリティと権限制御(23項目の番号付きBashセキュリティチェックと、18個の無効化されたZsh組み込みコマンドを含む)、そして1.8万行のマルチエージェントオーケストレーションシステムがある。
機械学習研究者のSebastian Raschkaは、漏えいコードを分析した後で、Claude Codeが同じモデルのウェブ版より強いのは、コアとなるモデルそのものではなく、モデルの周りに構築されたソフトウェアの足場(ソフトウェアスキャフォールド)にあると指摘した。これにはリポジトリのコンテキスト読み込み、専用ツールのディスパッチ、キャッシュ戦略、サブエージェントの協調が含まれる。彼は、同じエンジニアリングアーキテクチャをDeepSeekやKimiなど他のモデルにも適用すれば、同様にプログラミング性能の向上を得られる可能性があるとも考えている。
直感的な比較が、このギャップを理解するのに役立つ。あなたがChatGPTやClaudeのウェブ版で質問を入力すると、モデルは処理して答えを返し、対話が終わる時点で何も残らない。しかしClaude Codeのやり方はまったく違う。起動時にまずプロジェクトのファイルを読み、コードベースの構造を理解し、あなたが前に「テストでデータベースをmockしないで」などと述べた好みを覚える。さらに、あなたのターミナルで直接コマンドを実行し、ファイルを編集し、テストを走らせる。複雑なタスクに出会うと、複数のサブタスクに分割して異なるサブエージェントに並列処理させる。言い換えれば、ウェブ版AIは「質問と回答のウィンドウ」であり、Claude Codeは「あなたのPCに住む協働者」だ。
ある人は、このアーキテクチャをオペレーティングシステムに例えた。42個の内蔵ツールはシステムコールに相当し、権限システムはユーザー管理に相当し、MCPプロトコルはデバイスドライバに相当し、サブエージェントのオーケストレーションはプロセスのスケジューリングに相当する。各ツールは出荷時点でデフォルトで「安全でなく、書き込み可能」とフラグ付けされており、開発者が自ら「安全」と明言しない限りそうなる。ファイル編集ツールは、あなたがまずそのファイルを読んだかどうかを強制的にチェックし、読んでいなければ変更を許可しない。これは「チャットボットにいくつかのツールを付け足しただけ」ではなく、LLMを核に、完全なセキュリティメカニズムを備えた実行環境なのだ。
つまり、こういうことになる。AIプロダクトの競争上の壁は、モデルの層にあるのではなく、エンジニアリングの層にあるのかもしれない。
キャッシュのブレイクが起きるたびコストが10倍
漏えいコードの中に、promptCacheBreakDetection.tsというファイルがあり、prompt cacheが無効になる可能性のある14種類のベクトルを追跡している。なぜAnthropicのエンジニアは、キャッシュのブレイクを防ぐためにこれほどの労力をかけているのか?
Anthropicの公式価格を見れば分かる。たとえばClaude Opus 4.6では、標準入力価格は100万tokenあたり5ドルだが、キャッシュヒット時の読み取り価格は0.5ドルで済む。つまり90%安い。逆に言えば、キャッシュがブレイクするたびに、推論コストは10倍になる。
これは、漏えいコードに大量に見られる「過剰な設計」とも言えるアーキテクチャ上の意思決定を説明している。Claude Codeは起動時に、現在のgitブランチ、最近のcommit記録、CLAUDE.mdファイルをコンテキストとして読み込む。こうした静的コンテンツはグローバルキャッシュされ、境界マークで動的コンテンツと分離されることで、毎回の対話で既存コンテキストを重複処理しないようにする。コードにはsticky latchesという仕組みもあり、モード切り替えが既に確立されたキャッシュを壊さないよう防いでいる。サブエージェントは、自分だけで新たにコンテキストウィンドウを作り直すのではなく、親プロセスのキャッシュを再利用するよう設計されている。
掘り下げる価値のある細部がもうひとつある。AIプログラミングツールを使ったことがある人なら知っているが、対話が長くなるほどAIの返信は遅くなる。なぜなら、会話の各ラウンドで、これまでの履歴を前段のままモデルへ再送する必要があるからだ。一般的な対処は古いメッセージを削除してスペースを空けることだが、問題は、メッセージを削除するだけでキャッシュの連続性が壊れ、対話履歴全体を再処理することになり、遅延と費用が同時に跳ね上がる点だ。
漏えいコードにはcache_editsという仕組みがあり、やり方は「本当にメッセージを削除しない」。APIレイヤーで古いメッセージに「スキップ」マークを付けるのだ。モデルはそれらのメッセージを見えなくなるが、キャッシュの連続性は壊れない。つまり数時間に及ぶ長い対話で数百件の古いメッセージを片付けても、次のラウンドの応答速度は、最初のラウンドとほぼ同じままだ。一般のユーザーにとっては、これが「なぜClaude Codeは無限に近い長さの対話をサポートしても遅くならないのか」の、土台となる答えになる。
漏えいされた内部監視データによると(autoCompact.tsのコードコメント、日付は2026年3月10日)、自動圧縮の失敗上限を導入する前、Claude Codeは毎日約25万回のAPI呼び出しを無駄にしていた。1279人のユーザーsessionで、50回以上の連続する圧縮失敗が発生しており、最も深刻だった1つのsessionでは3272回連続で失敗していた。修正方法は、制限を1行追加するだけだった:MAX_CONSECUTIVE_AUTOCOMPACT_FAILURES = 3。
したがって、AIプロダクトにとっては、モデルの推論コストが最も高い層とは限らず、キャッシュ管理の失敗が本当の高コストになり得る。
44個のスイッチ、同じ方向を指している
漏えいコードには、44個のfeature flagsが隠されている――すでにコンパイル済みの機能スイッチだが、外部には公開されていない。コミュニティの分析によれば、これらのflagsは機能領域ごとに5種類に分かれており、その中で最も密集しているのが「自律エージェント」系(12個)で、KAIROSという名のシステムを指している。
KAIROSはソース内で150回以上参照されており、常駐のバックグラウンドデーモンとしてのモードだ。Claude Codeは、あなたが自発的に呼び出したときだけ応答するツールではなく、常にバックグラウンドで動作するエージェントで、継続的に監視・記録し、適切なタイミングで能動的に行動する。前提はユーザーを妨げないこと。ユーザーの操作を15秒以上ブロックしうる処理はすべて遅延実行される。
KAIROSには、ターミナルのフォーカスを感知する機能も組み込まれている。コード内にterminalFocusというフィールドがあり、ユーザーがターミナルウィンドウを見ているかをリアルタイムで検出する。あなたがブラウザや別のアプリに切り替えると、代理はあなたを「いない」と判定し、自律モードへ切り替えてタスクを能動的に実行し、確認を待たずに直接コードを提出する。あなたがターミナルに戻すと、エージェントは直ちに協働モードへ戻る。まず直前に何をしたかを報告し、そのうえであなたの意見を求める。自律の度合いは固定ではなく、あなたの注意に合わせてリアルタイムに揺れ動く。これは、AIツールが長年抱えてきた厄介な問題を解決する。完全に自律的なAIは信用できない。一方で完全に受け身のAIは効率が低すぎる。KAIROSの選択は、AIの能動性をユーザーの注意に応じて動的に調整することだ。あなたが見ている間はおとなしく、あなたが離れるとAIが自分で仕事をする。
KAIROSのもう一つのサブシステムはautoDreamで、5つのセッションを積み上げるか、24時間の間隔が空くと、エージェントがバックグラウンドで「反省」プロセスを起動する。4ステップで進む。まず、既存の記憶をスキャンして、自分が現在何を持っているのかを把握する。次に、対話ログから新しい知識を抽出する。そして、新旧の知識を統合し、矛盾を修正し、重複を取り除く。最後に、索引を圧縮して、古くなった項目を削除する。この設計は、認知科学における記憶の固定化(メモリのコンソリデーション)理論を取り入れている。人は睡眠中に昼間の記憶を整理し、KAIROSはユーザーが離れたときにプロジェクトのコンテキストを整理する。一般のユーザーにとっては、Claude Codeを使うほどあなたのプロジェクト理解がより正確になり、「あなたが言ったことを覚える」だけではない、という意味になる。
2番目に大きいカテゴリは「蒸留の逆(反蒸留)と安全」(8つのflags)だ。その中で特に注目に値するのがfake_toolsメカニズムで、4つの条件が同時に満たされたとき(コンパイル時flagが有効、CLIエントリが起動、第一者APIの利用、GrowthBookのリモートスイッチがtrue)、Claude CodeはAPIリクエストに偽のツール定義を注入する。目的は、APIトラフィックの記録を通じて、競合するモデルの学習に用いられ得るデータセットを汚染することだ。これはAIの軍備競争における新しい防御形態で、「あなたが真似してコピーすることを止める」のではなく、「間違ったものをコピーできてしまうようにする」ものだ。
さらに、コードにはCapybaraのコードネーム(標準版、fast版、百万規模のコンテキストウィンドウ版の3つのレベルに分かれている)が登場し、コミュニティではClaude 5シリーズの内部コードネームだと広く推測されている。
イースターエッグ:51.2万行のコードに電子ペットが潜んでいる
真面目なエンジニアリングアーキテクチャとセキュリティメカニズムの間に、Anthropicのエンジニアはこっそりと、完全なバーチャルペットシステム――内部コード名BUDDY――も作っていた。
漏えいコードとコミュニティ分析によれば、BUDDYは擬物化されたターミナルのペットで、ASCIIの吹き出し枠という形でユーザーの入力欄の横に表示される。物種は18種類(ウォンバット、イモリ、きのこ、ゴースト、ドラゴン、そしてPebblecrab、Dustbunny、Mossfrogのような一連のオリジナル生物を含む)で、希少度により5段階に分かれている。普通(60%)、レア(25%)、エピック(10%)、レジェンド(4%)、伝説(1%)。各物種には「シャイニー変種」もあり、最もレアなShiny Legendary Nebulynxの出現確率は1万分の1だ。
それぞれのBUDDYには5つの属性がある:DEBUGGING(デバッグ)、PATIENCE(忍耐)、CHAOS(混乱)、WISDOM(智慧)、そしてSNARK(辛辣)。さらに帽子もかぶれる。選択肢にはクラウン、シルクハット、プロペラの帽子、ハロー、ウィザード帽があり、さらにはミニチュアのアヒルもいる。ユーザーIDのハッシュ値によって、どのペットを孵化させるかが決まり、Claudeはそのペットの名前と性格を生成する。
公開計画によると、BUDDYは当初4月1日から7日にかけてベータテストを開始し、5月に正式ローンチする予定で、まずはAnthropicの社内社員から始まる。
51.2万行のコード、98.4%はハードコアなエンジニアリングに使われているのに、最後に誰かが時間をかけて、プロペラの帽子をかぶる電子イモリを作った。おそらくこれが、漏えいの中でもっとも人間味のある1行コードだ。