51.2万行のコード、1906個のファイル、59.8MBのソースマップ。3月31日未明にSolayer LabsのChaofan Shouが、Anthropicのフラッグシップ製品Claude Codeが完全なソースコードを公開のnpmリポジトリに露出させていることを発見した。数時間以内に、そのコードはGitHubへミラーされ、フォーク数が4.1万を突破した。
これはAnthropicが初めて犯したミスではない。2025年2月にClaude Codeが初めてリリースされた際にも、同じソースマップの漏えいが一度発生している。今回のバージョン番号はv2.1.88、漏えい理由も同じで、Bunのビルドツールがデフォルトでソースマップを生成し、.npmignoreの中でこのファイルが抜け落ちていた。
大半の報道は漏えいの中のイースターエッグの棚卸し、たとえばバーチャルペットのシステムや、「潜入モード」によってClaudeが匿名でオープンソースプロジェクトにコードを提出できるといったものだ。しかし本当に分解して検討する価値があるのは、なぜ同じClaudeモデルが、Web版とClaude Codeでこれほど挙動が違うのか?51.2万行のコードはいったい何をしているのか、という点だ。
答えはコードの構造に隠れている。GitHubコミュニティによる漏えいソースの逆解析によれば、51.2万行のTypeScriptのうち、直接AIモデルを呼び出す役割を担うインターフェースコードは約8000行で、全体の1.6%にすぎない。
残りの98.4%は何をしている?最大の2つのモジュールは、クエリエンジン(4.6万行)とツールシステム(2.9万行)。クエリエンジンはLLM API呼び出し、ストリーミング出力、キャッシュのオーケストレーション、多段対話の管理を扱う。ツールシステムは、約40個の組み込みツールと50個のスラッシュコマンドを定義し、一連のプラグインのようなアーキテクチャを形成している。各ツールには独立した権限制御がある。
さらに、ターミナルUIのレンダリングコードが2.5万行(そのうちprint.tsというファイルは5594行で、単一の関数が3167行に及ぶ)、安全性と権限制御が2万行(番号付きBashの安全チェック23項目と、ブロックされたZshビルトインコマンド18個を含む)、そしてマルチエージェントのオーケストレーションシステムが1.8万行ある。
機械学習研究者のSebastian Raschkaは、漏えいコードを分析した後、「Claude Codeが同じモデルのWeb版より強い理由は、核心となるモデルそのものではなく、モデルの周りに構築されたソフトウェアの足場(ソフトウェアのスキャフォールド)にある。リポジトリのコンテキスト読み込み、専用ツールのディスパッチ、キャッシュ戦略、サブエージェントの協働だ」と指摘した。彼はさらに、同様のエンジニアリングアーキテクチャをDeepSeekやKimiなどの他のモデルに適用しても、近いレベルのプログラミング性能向上が得られるとも考えている。
直感的な比較が、この差を理解する助けになる。あなたがChatGPTまたはClaudeのWeb版で質問を入力すると、モデルは処理して答えを返し、対話が終わると何も残らない。しかしClaude Codeのやり方はまったく異なる。起動時にまずプロジェクトファイルを読み込み、コードベースの構造を理解し、前にあなたが言った「テストではDBをmockするな」といった嗜好を記憶する。さらに、あなたのターミナル内でコマンドを直接実行したり、ファイルを編集したり、テストを実行したりできる。複雑なタスクでは複数のサブタスクに分解して、異なるサブエージェントへ並列に割り当てる。つまり言い換えると、Web版のAIは「質問と回答のウィンドウ」だが、Claude Codeは「あなたのPCの中に住む協力者」だ。
ある人はこのアーキテクチャをOSにたとえた。42個の組み込みツールはシステムコールに相当し、権限システムはユーザー管理に相当し、MCPプロトコルはデバイスドライバに相当し、サブエージェントのオーケストレーションはプロセススケジューリングに相当する。各ツールは出荷時にデフォルトで「安全でない、書き込み可能」とマークされており、開発者が自ら「安全である」と宣言しない限りはそうなる。ファイル編集ツールは、あなたが先にそのファイルを読んだかどうかを強制的にチェックし、読んでいなければ変更を許さない。これはチャットボットにいくつかのツールをくっつけただけではない。LLMを核とし、完全な安全メカニズムを備えた実行環境なのだ。
これはつまり、ひとつのことを意味する。AIプロダクトの競争上の壁は、モデル層ではなく、エンジニアリング層にあるのかもしれない。
漏えいコードにはpromptCacheBreakDetection.tsというファイルがあり、prompt cacheが無効になる可能性のある14種類のベクトルを追跡している。なぜAnthropicのエンジニアはこれほどの労力をかけてキャッシュ破綻を防ごうとしているのか?
Anthropicの公式の価格を見ると一目瞭然だ。たとえばClaude Opus 4.6では、標準入力価格は1ミリオントークンあたり5ドルだが、キャッシュにヒットすれば読み取り価格は0.5ドルで済み、90%安い。逆に言えば、キャッシュが破綻するたびに推論コストは10倍になる。
これが、漏えいコード内に大量に存在する、一見「過剰な設計」に見えるアーキテクチャ上の意思決定を説明している。Claude Codeは起動時に、現在のgitブランチ、最近のcommit記録、CLAUDE.mdファイルをコンテキストとして読み込む。これらの静的コンテンツはグローバルにキャッシュされ、境界マーカーで動的コンテンツと区切られているため、毎回の対話で既にあるコンテキストを繰り返し処理しないようになっている。コード内にはsticky latchesという仕組みもあり、モード切り替えが確立済みのキャッシュを壊さないようにしている。サブエージェントは、自分で新たにコンテキストウィンドウを作り直すのではなく、親プロセスのキャッシュを再利用するように設計されている。
展開して触れるべき価値のある細部がもうひとつある。AIプログラミングツールを使ったことのある人なら誰でも知っているが、対話が長くなるほどAIの返答は遅くなる。なぜなら、毎ラウンドの対話で、前の履歴を改めてモデルに送る必要があるからだ。一般的なやり方は、スペースを空けるために古いメッセージを削除することだが、問題は、どのメッセージを削除してもキャッシュの連続性が途切れてしまい、対話履歴全体を改めて処理する必要が生まれて、遅延と費用が同時に跳ね上がることだ。
漏えいコードにはcache_editsという仕組みがあり、やり方は本当にメッセージを削除しない。API層で古いメッセージに「スキップ」マークを付けるだけだ。モデルはそれらのメッセージが見えなくなるが、キャッシュの連続性は壊れない。つまり、数時間続く長い対話で数百件の古いメッセージを整理しても、次のラウンドの応答速度は、最初のラウンドとほとんど同じ速さのままだということになる。一般のユーザーにとって、これが「なぜClaude Codeは無限に近い長さの対話をしても遅くならないのか」という底層の答えだ。
漏えいされた内部監視データ(autoCompact.tsのコードコメント、日付は2026年3月10日と記載)によれば、自動圧縮の失敗回数上限を導入する前は、Claude Codeは毎日約25万回のAPI呼び出しを無駄にしていた。1279のユーザーsessionで、連続する自動圧縮失敗が50回以上発生しており、最も深刻な1つのsessionは連続で3272回失敗していた。修正方法は単に制限を1行追加するだけだった:MAX_CONSECUTIVE_AUTOCOMPACT_FAILURES = 3。
なので、AIプロダクトにとっては、モデル推論コストが最も高い層ではないかもしれず、キャッシュ管理の失敗こそが問題になる。
漏えいコードには44個のfeature flagsが隠されている。すでにコンパイル済みの機能スイッチだが、外部には公開されていない。コミュニティの分析によれば、これらのflagsは機能領域ごとに5種類に分類され、最も密度が高いのは「自律エージェント」系(12個)で、KAIROSという名のシステムを指している。
KAIROSはソースコード内で150回以上参照されており、常駐バックグラウンドのデーモンプロセスとして扱われている。Claude Codeは、あなたが能動的に呼び出したときだけ応答するツールではなく、常にバックグラウンドで動作するエージェントになっている。継続的に観察し、記録し、適切なタイミングで自発的に行動する。ただし、ユーザーの邪魔をしないことが前提で、ユーザーを15秒以上ブロックし得る操作は遅延実行される。
KAIROSには、ターミナルのフォーカスを感知する機能も内蔵されている。コード内にterminalFocusというフィールドがあり、ユーザーがターミナルウィンドウを見ているかどうかをリアルタイムで検出する。あなたがブラウザや他のアプリに切り替えると、エージェントは「あなたは在席していない」と判断し、自律モードへ切り替えて、タスクを能動的に実行し、確認を待たずにコードを直接提出する。あなたがターミナルに戻ると、エージェントはすぐに協働モードへ復帰する。まず先ほど何をしたかを報告し、それからあなたの意見を求める。自律度は固定ではなく、あなたの注意に応じてリアルタイムに変動する。これは、AIツールが長年抱えてきた気まずさを解決する。完全自律のAIは信用できない。完全受動のAIは効率が低すぎる。KAIROSの選択は、AIの主導性をユーザーの注意に合わせて動的に調整することだ。あなたが見ていれば大人しくし、あなたが離れれば勝手に仕事をする。
KAIROSの別のサブシステムはautoDreamで、5回のセッションが累積するか、または24時間が経過すると、エージェントはバックグラウンドで「内省」プロセスを起動する。4ステップで進む。まず既存の記憶をスキャンして、自分が現時点で何を把握しているかを理解する。次に対話ログから新しい知識を抽出する。次に新旧の知識を統合し、矛盾を修正し、重複を取り除く。最後に索引を簡潔化して、古くなった項目を削除する。この設計は、認知科学における記憶の強化(メモリ・コンソリデーション)理論を取り入れている。人は睡眠中に日中の記憶を整理し、KAIROSはユーザーが離れたときにプロジェクトのコンテキストを整理する。一般のユーザーにとってこれは、Claude Codeを使い続けるほど、あなたのプロジェクト理解がより正確になり、「あなたが言ったことを覚える」だけではないということを意味する。
2番目の大カテゴリは「蒸留を無力化し安全性を確保」(8つのflags)。中でも特に注目すべきはfake_tools機構で、4つの条件が同時に満たされたとき(コンパイル時flagが有効、CLI入口が起動、ファーストパーティAPIの利用、GrowthBookのリモートスイッチがtrue)、Claude CodeはAPIリクエスト内に偽のツール定義を注入する。目的は、APIトラフィックを記録して競合モデルの学習データセットに使う可能性がある部分を汚染することだ。これはAIの武器開発競争におけるまったく新しい防御形態で、あなたの「まねをする」のを止めるのではない。あなたがまねをしたときに、あなたがまねできたのが「間違ったもの」になるようにするのだ。
さらにコード内には、Capybaraというモデルコードネームも登場する(標準版、fast版、100万コンテキストウィンドウ版の3つのレベルに分かれている)。コミュニティでは広く、これはClaude 5シリーズの社内コードネームだと推測されている。
厳格なエンジニアリングアーキテクチャや安全メカニズムのすべての合間に、Anthropicのエンジニアはこっそり、完全な仮想ペットシステムを作り上げていた。社内代号はBUDDY。
漏えいコードとコミュニティの分析によれば、BUDDYは擬物化されたターミナルペットで、ASCIIの吹き出し枠の形式でユーザーの入力欄の横に表示される。それには18の物種がある(カピバラ、イモリ、キノコ、ゴースト、ドラゴン、そしてPebblecrab、Dustbunny、Mossfrogのような一連のオリジナル生物を含む)。稀少度により5つのレベルに分かれている:普通(60%)、レア(25%)、稀少(10%)、エピック(4%)、レジェンド(1%)。各物種には「シャイニー変体」もあり、最も稀少なShiny Legendary Nebulynxの出現確率は万分の1しかない。
それぞれのBUDDYには5つの属性がある:DEBUGGING(デバッグ)、PATIENCE(忍耐)、CHAOS(混乱)、WISDOM(知恵)およびSNARK(毒舌)。さらに帽子もかぶる。選択肢には王冠、シルクハット、プロペラ帽、光輪、魔法使い帽、そしてミニチュアのアヒルまである。ユーザーIDのハッシュ値によって、どのペットを孵化させるかが決まり、Claudeはそれに名前と性格を生成する。
漏えいされた公開予定によれば、BUDDYは当初4月1日から7日までテスト(内検)を開始し、5月に正式リリースされる予定で、最初はAnthropicの社内従業員から始まる。
51.2万行のコード、98.4%はハードコアなエンジニアリングに使われているのに、最後に誰かが時間をかけて、プロペラ帽をかぶった電子イモリを作った。これが、漏えいの中で最も人間味のある1行コードなのかもしれない。
337.3K 人気度
63.78K 人気度
19.97K 人気度
341.82K 人気度
810.42K 人気度
AIエージェントは一体何をしているのか?Claude Code 50万行コード漏洩の全解説
51.2万行のコード、1906個のファイル、59.8MBのソースマップ。3月31日未明にSolayer LabsのChaofan Shouが、Anthropicのフラッグシップ製品Claude Codeが完全なソースコードを公開のnpmリポジトリに露出させていることを発見した。数時間以内に、そのコードはGitHubへミラーされ、フォーク数が4.1万を突破した。
これはAnthropicが初めて犯したミスではない。2025年2月にClaude Codeが初めてリリースされた際にも、同じソースマップの漏えいが一度発生している。今回のバージョン番号はv2.1.88、漏えい理由も同じで、Bunのビルドツールがデフォルトでソースマップを生成し、.npmignoreの中でこのファイルが抜け落ちていた。
大半の報道は漏えいの中のイースターエッグの棚卸し、たとえばバーチャルペットのシステムや、「潜入モード」によってClaudeが匿名でオープンソースプロジェクトにコードを提出できるといったものだ。しかし本当に分解して検討する価値があるのは、なぜ同じClaudeモデルが、Web版とClaude Codeでこれほど挙動が違うのか?51.2万行のコードはいったい何をしているのか、という点だ。
モデルは氷山の一角
答えはコードの構造に隠れている。GitHubコミュニティによる漏えいソースの逆解析によれば、51.2万行のTypeScriptのうち、直接AIモデルを呼び出す役割を担うインターフェースコードは約8000行で、全体の1.6%にすぎない。
残りの98.4%は何をしている?最大の2つのモジュールは、クエリエンジン(4.6万行)とツールシステム(2.9万行)。クエリエンジンはLLM API呼び出し、ストリーミング出力、キャッシュのオーケストレーション、多段対話の管理を扱う。ツールシステムは、約40個の組み込みツールと50個のスラッシュコマンドを定義し、一連のプラグインのようなアーキテクチャを形成している。各ツールには独立した権限制御がある。
さらに、ターミナルUIのレンダリングコードが2.5万行(そのうちprint.tsというファイルは5594行で、単一の関数が3167行に及ぶ)、安全性と権限制御が2万行(番号付きBashの安全チェック23項目と、ブロックされたZshビルトインコマンド18個を含む)、そしてマルチエージェントのオーケストレーションシステムが1.8万行ある。
機械学習研究者のSebastian Raschkaは、漏えいコードを分析した後、「Claude Codeが同じモデルのWeb版より強い理由は、核心となるモデルそのものではなく、モデルの周りに構築されたソフトウェアの足場(ソフトウェアのスキャフォールド)にある。リポジトリのコンテキスト読み込み、専用ツールのディスパッチ、キャッシュ戦略、サブエージェントの協働だ」と指摘した。彼はさらに、同様のエンジニアリングアーキテクチャをDeepSeekやKimiなどの他のモデルに適用しても、近いレベルのプログラミング性能向上が得られるとも考えている。
直感的な比較が、この差を理解する助けになる。あなたがChatGPTまたはClaudeのWeb版で質問を入力すると、モデルは処理して答えを返し、対話が終わると何も残らない。しかしClaude Codeのやり方はまったく異なる。起動時にまずプロジェクトファイルを読み込み、コードベースの構造を理解し、前にあなたが言った「テストではDBをmockするな」といった嗜好を記憶する。さらに、あなたのターミナル内でコマンドを直接実行したり、ファイルを編集したり、テストを実行したりできる。複雑なタスクでは複数のサブタスクに分解して、異なるサブエージェントへ並列に割り当てる。つまり言い換えると、Web版のAIは「質問と回答のウィンドウ」だが、Claude Codeは「あなたのPCの中に住む協力者」だ。
ある人はこのアーキテクチャをOSにたとえた。42個の組み込みツールはシステムコールに相当し、権限システムはユーザー管理に相当し、MCPプロトコルはデバイスドライバに相当し、サブエージェントのオーケストレーションはプロセススケジューリングに相当する。各ツールは出荷時にデフォルトで「安全でない、書き込み可能」とマークされており、開発者が自ら「安全である」と宣言しない限りはそうなる。ファイル編集ツールは、あなたが先にそのファイルを読んだかどうかを強制的にチェックし、読んでいなければ変更を許さない。これはチャットボットにいくつかのツールをくっつけただけではない。LLMを核とし、完全な安全メカニズムを備えた実行環境なのだ。
これはつまり、ひとつのことを意味する。AIプロダクトの競争上の壁は、モデル層ではなく、エンジニアリング層にあるのかもしれない。
キャッシュが破綻するたびにコストが10倍
漏えいコードにはpromptCacheBreakDetection.tsというファイルがあり、prompt cacheが無効になる可能性のある14種類のベクトルを追跡している。なぜAnthropicのエンジニアはこれほどの労力をかけてキャッシュ破綻を防ごうとしているのか?
Anthropicの公式の価格を見ると一目瞭然だ。たとえばClaude Opus 4.6では、標準入力価格は1ミリオントークンあたり5ドルだが、キャッシュにヒットすれば読み取り価格は0.5ドルで済み、90%安い。逆に言えば、キャッシュが破綻するたびに推論コストは10倍になる。
これが、漏えいコード内に大量に存在する、一見「過剰な設計」に見えるアーキテクチャ上の意思決定を説明している。Claude Codeは起動時に、現在のgitブランチ、最近のcommit記録、CLAUDE.mdファイルをコンテキストとして読み込む。これらの静的コンテンツはグローバルにキャッシュされ、境界マーカーで動的コンテンツと区切られているため、毎回の対話で既にあるコンテキストを繰り返し処理しないようになっている。コード内にはsticky latchesという仕組みもあり、モード切り替えが確立済みのキャッシュを壊さないようにしている。サブエージェントは、自分で新たにコンテキストウィンドウを作り直すのではなく、親プロセスのキャッシュを再利用するように設計されている。
展開して触れるべき価値のある細部がもうひとつある。AIプログラミングツールを使ったことのある人なら誰でも知っているが、対話が長くなるほどAIの返答は遅くなる。なぜなら、毎ラウンドの対話で、前の履歴を改めてモデルに送る必要があるからだ。一般的なやり方は、スペースを空けるために古いメッセージを削除することだが、問題は、どのメッセージを削除してもキャッシュの連続性が途切れてしまい、対話履歴全体を改めて処理する必要が生まれて、遅延と費用が同時に跳ね上がることだ。
漏えいコードにはcache_editsという仕組みがあり、やり方は本当にメッセージを削除しない。API層で古いメッセージに「スキップ」マークを付けるだけだ。モデルはそれらのメッセージが見えなくなるが、キャッシュの連続性は壊れない。つまり、数時間続く長い対話で数百件の古いメッセージを整理しても、次のラウンドの応答速度は、最初のラウンドとほとんど同じ速さのままだということになる。一般のユーザーにとって、これが「なぜClaude Codeは無限に近い長さの対話をしても遅くならないのか」という底層の答えだ。
漏えいされた内部監視データ(autoCompact.tsのコードコメント、日付は2026年3月10日と記載)によれば、自動圧縮の失敗回数上限を導入する前は、Claude Codeは毎日約25万回のAPI呼び出しを無駄にしていた。1279のユーザーsessionで、連続する自動圧縮失敗が50回以上発生しており、最も深刻な1つのsessionは連続で3272回失敗していた。修正方法は単に制限を1行追加するだけだった:MAX_CONSECUTIVE_AUTOCOMPACT_FAILURES = 3。
なので、AIプロダクトにとっては、モデル推論コストが最も高い層ではないかもしれず、キャッシュ管理の失敗こそが問題になる。
44個のスイッチ、同じ方向を指す
漏えいコードには44個のfeature flagsが隠されている。すでにコンパイル済みの機能スイッチだが、外部には公開されていない。コミュニティの分析によれば、これらのflagsは機能領域ごとに5種類に分類され、最も密度が高いのは「自律エージェント」系(12個)で、KAIROSという名のシステムを指している。
KAIROSはソースコード内で150回以上参照されており、常駐バックグラウンドのデーモンプロセスとして扱われている。Claude Codeは、あなたが能動的に呼び出したときだけ応答するツールではなく、常にバックグラウンドで動作するエージェントになっている。継続的に観察し、記録し、適切なタイミングで自発的に行動する。ただし、ユーザーの邪魔をしないことが前提で、ユーザーを15秒以上ブロックし得る操作は遅延実行される。
KAIROSには、ターミナルのフォーカスを感知する機能も内蔵されている。コード内にterminalFocusというフィールドがあり、ユーザーがターミナルウィンドウを見ているかどうかをリアルタイムで検出する。あなたがブラウザや他のアプリに切り替えると、エージェントは「あなたは在席していない」と判断し、自律モードへ切り替えて、タスクを能動的に実行し、確認を待たずにコードを直接提出する。あなたがターミナルに戻ると、エージェントはすぐに協働モードへ復帰する。まず先ほど何をしたかを報告し、それからあなたの意見を求める。自律度は固定ではなく、あなたの注意に応じてリアルタイムに変動する。これは、AIツールが長年抱えてきた気まずさを解決する。完全自律のAIは信用できない。完全受動のAIは効率が低すぎる。KAIROSの選択は、AIの主導性をユーザーの注意に合わせて動的に調整することだ。あなたが見ていれば大人しくし、あなたが離れれば勝手に仕事をする。
KAIROSの別のサブシステムはautoDreamで、5回のセッションが累積するか、または24時間が経過すると、エージェントはバックグラウンドで「内省」プロセスを起動する。4ステップで進む。まず既存の記憶をスキャンして、自分が現時点で何を把握しているかを理解する。次に対話ログから新しい知識を抽出する。次に新旧の知識を統合し、矛盾を修正し、重複を取り除く。最後に索引を簡潔化して、古くなった項目を削除する。この設計は、認知科学における記憶の強化(メモリ・コンソリデーション)理論を取り入れている。人は睡眠中に日中の記憶を整理し、KAIROSはユーザーが離れたときにプロジェクトのコンテキストを整理する。一般のユーザーにとってこれは、Claude Codeを使い続けるほど、あなたのプロジェクト理解がより正確になり、「あなたが言ったことを覚える」だけではないということを意味する。
2番目の大カテゴリは「蒸留を無力化し安全性を確保」(8つのflags)。中でも特に注目すべきはfake_tools機構で、4つの条件が同時に満たされたとき(コンパイル時flagが有効、CLI入口が起動、ファーストパーティAPIの利用、GrowthBookのリモートスイッチがtrue)、Claude CodeはAPIリクエスト内に偽のツール定義を注入する。目的は、APIトラフィックを記録して競合モデルの学習データセットに使う可能性がある部分を汚染することだ。これはAIの武器開発競争におけるまったく新しい防御形態で、あなたの「まねをする」のを止めるのではない。あなたがまねをしたときに、あなたがまねできたのが「間違ったもの」になるようにするのだ。
さらにコード内には、Capybaraというモデルコードネームも登場する(標準版、fast版、100万コンテキストウィンドウ版の3つのレベルに分かれている)。コミュニティでは広く、これはClaude 5シリーズの社内コードネームだと推測されている。
イースターエッグ:51.2万行のコードの中に電子ペットが1匹
厳格なエンジニアリングアーキテクチャや安全メカニズムのすべての合間に、Anthropicのエンジニアはこっそり、完全な仮想ペットシステムを作り上げていた。社内代号はBUDDY。
漏えいコードとコミュニティの分析によれば、BUDDYは擬物化されたターミナルペットで、ASCIIの吹き出し枠の形式でユーザーの入力欄の横に表示される。それには18の物種がある(カピバラ、イモリ、キノコ、ゴースト、ドラゴン、そしてPebblecrab、Dustbunny、Mossfrogのような一連のオリジナル生物を含む)。稀少度により5つのレベルに分かれている:普通(60%)、レア(25%)、稀少(10%)、エピック(4%)、レジェンド(1%)。各物種には「シャイニー変体」もあり、最も稀少なShiny Legendary Nebulynxの出現確率は万分の1しかない。
それぞれのBUDDYには5つの属性がある:DEBUGGING(デバッグ)、PATIENCE(忍耐)、CHAOS(混乱)、WISDOM(知恵)およびSNARK(毒舌)。さらに帽子もかぶる。選択肢には王冠、シルクハット、プロペラ帽、光輪、魔法使い帽、そしてミニチュアのアヒルまである。ユーザーIDのハッシュ値によって、どのペットを孵化させるかが決まり、Claudeはそれに名前と性格を生成する。
漏えいされた公開予定によれば、BUDDYは当初4月1日から7日までテスト(内検)を開始し、5月に正式リリースされる予定で、最初はAnthropicの社内従業員から始まる。
51.2万行のコード、98.4%はハードコアなエンジニアリングに使われているのに、最後に誰かが時間をかけて、プロペラ帽をかぶった電子イモリを作った。これが、漏えいの中で最も人間味のある1行コードなのかもしれない。