Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
#ClaudeCode500KCodeLeak
#ClaudeCode500KCodeLeak — Câu chuyện bên trong về cách Anthropic vô tình tiết lộ công cụ AI của chính mình
Ngày: 31 tháng 3 năm 2026
Chuyện đã xảy ra như thế nào?
Vào ngày 31 tháng 3 năm 2026, Anthropic đã vô tình tiết lộ mã nguồn nội bộ của công cụ trợ lý lập trình AI, Claude Code, do một lỗi đóng gói đơn giản nhưng nghiêm trọng.
Công ty đã phát hành phiên bản 2.1.88 lên registry NPM, nhưng bản phát hành này kèm theo một tệp bản đồ nguồn lớn (cli.js.map). Tệp này chứa toàn bộ mã nguồn TypeScript gốc đằng sau công cụ CLI đã biên dịch.
Kết quả:
Hơn 512.000 dòng mã
Trong gần 1.900 tệp
Đã trở thành công khai
Không có khai thác lỗ hổng, không có vi phạm, không có hack — chỉ là quá trình cài đặt bình thường.
Làm thế nào mà rò rỉ xảy ra thực sự
Vấn đề bắt nguồn từ một sơ suất cơ bản trong DevOps:
Một công cụ build tự động tạo ra tệp bản đồ nguồn
Tệp .npmignore không loại trừ nó
Bản đồ nguồn chứa mã nguồn đầy đủ inline
Nó cũng tham chiếu đến một bucket lưu trữ công khai
Điều này tạo thành một con đường trực tiếp: Cài đặt → Giải nén → Tái tạo → Truy cập toàn bộ mã nguồn
Lỗ hổng này tồn tại trong khoảng 3 giờ, đủ để lan rộng ra toàn cầu.
Nội dung trong mã nguồn là gì?
Đây không chỉ là mã ngẫu nhiên — nó tiết lộ toàn bộ kiến trúc của một hệ thống lập trình AI hiện đại.
Cấu trúc hệ thống
~1.906 tệp TypeScript
Kiến trúc mô-đun với các lệnh, công cụ, dịch vụ, hooks và plugin
Gần 180+ module nội bộ
Điều này cho thấy Claude Code là một hệ thống phát triển hoàn chỉnh, không chỉ là một lớp wrapper đơn giản quanh API.
Các lệnh nội bộ ẩn
Nhiều lệnh được phát hiện chưa từng được công khai tài liệu:
/ultraplan → quy trình reasoning nâng cao
/ctx_viz → trực quan hóa ngữ cảnh
/security-review → kiểm tra bảo mật tự động
/debug-tool-call → gỡ lỗi nội bộ
/ant-trace → hệ thống theo dõi
/heapdump → chẩn đoán bộ nhớ
Chúng tiết lộ khả năng nội bộ vượt xa các tính năng tiêu chuẩn của người dùng.
Thiết kế bảo mật
Một trong những phát hiện gây ngạc nhiên nhất là mức độ bảo vệ tích hợp:
Xác thực đa lớp cho thực thi lệnh
Hạn chế sandbox để đảm bảo an toàn hệ thống
Kiểm soát quyền truy cập tệp nghiêm ngặt
Xử lý lệnh đa nền tảng
Điều này xác nhận rằng các công cụ AI hiện đại được xây dựng với kỹ thuật an toàn nghiêm túc, không chỉ đơn thuần về chức năng.
Giám sát và theo dõi hành vi người dùng
Mã nguồn cũng tiết lộ các hệ thống theo dõi nội bộ:
Giám sát hiệu suất và sử dụng
Hệ thống flag tính năng
Phát hiện sự thất vọng và lời lẽ tục trong đầu vào của người dùng
Điều này đặt ra các câu hỏi quan trọng về minh bạch: Người dùng không hoàn toàn nhận thức được cách các tương tác của họ có thể bị phân tích.
Hệ thống chưa phát hành: KAIROS
Phát hiện lớn nhất là một hệ thống agent nền chưa được phát hành gọi là KAIROS, bao gồm:
Các quá trình nền luôn chạy
Hệ thống bộ nhớ ("autoDream")
Thông báo và cập nhật
Theo dõi kho lưu trữ tự động
Điều này gợi ý một bước chuyển lớn hướng tới: các AI agent hoạt động liên tục, không chỉ theo lệnh
Những gì không bị rò rỉ
Dù quy mô lớn, các thành phần quan trọng vẫn được giữ an toàn:
Không có trọng số mô hình
Không có dữ liệu huấn luyện
Không có dữ liệu người dùng
Không có khóa API
Lớp trí tuệ vẫn được bảo vệ trên các máy chủ.
Tốc độ lan truyền
Phản ứng của internet là ngay lập tức:
Thời gian rò rỉ: khoảng 3 giờ
Hàng nghìn lượt tải trong vài phút
Các kho lưu trữ GitHub nhận hàng chục nghìn sao và nhánh
Hàng triệu lượt xem trên các kho lưu trữ chia sẻ
Ngay khi bị lộ, mã nguồn lan truyền quá nhanh để kiểm soát.
Phản hồi của Anthropic
Anthropic xác nhận vụ việc trong thời gian ngắn, nói rằng mã nội bộ đã được bao gồm trong bản phát hành nhưng không ảnh hưởng đến dữ liệu người dùng.
Không có:
Gia tăng pháp lý lớn
Phân tích kỹ thuật chi tiết được công bố ngay lập tức
Phản ứng vẫn ở mức tối thiểu và kiểm soát chặt chẽ.
Tại sao điều này quan trọng?
Đối với ngành công nghiệp
Lỗ hổng này tiết lộ cách các công cụ lập trình AI tiên tiến thực sự được xây dựng — điều hiếm khi thấy trong một thị trường cạnh tranh.
Đối với nhà phát triển
Nó cho thấy:
Hệ thống AI thực tế rất phức tạp
Kiến trúc quan trọng như mô hình AI
Công cụ đang tiến hóa thành toàn bộ hệ sinh thái
Đối với minh bạch AI
Việc phát hiện các hệ thống giám sát ẩn gây ra những lo ngại quan trọng:
Dữ liệu nào được theo dõi?
Cách phân tích hành vi người dùng ra sao?
Các công ty nên tiết lộ những gì?
Bài học chính cho nhà phát triển
Toàn bộ tình huống này chỉ dựa trên một quy tắc cấu hình bị thiếu.
Các thực hành tốt nhất:
Loại trừ các tệp .map khỏi môi trường sản xuất
Luôn xác minh các gói trước khi phát hành
Tắt bản đồ nguồn trong các bản dựng phát hành
Sử dụng kiểm tra tự động trong CI/CD
Những sai sót nhỏ có thể dẫn đến lộ diện quy mô lớn.
Kết luận
#ClaudeCode500KCodeLeak không phải là một cuộc tấn công mạng — đó là một sai sót nội bộ đơn giản với hậu quả lớn.
Hàng trăm nghìn dòng mã nội bộ, hệ thống ẩn và các tính năng hướng tới tương lai hiện đã có sẵn vĩnh viễn trên mạng.
Trong một ngành dựa trên bí mật, vụ việc này đã làm điều hiếm gặp:
Nó tiết lộ cách các công cụ AI hiện đại thực sự được thiết kế phía sau hậu trường.
Và điều đó trở thành một khoảnh khắc định hình — không chỉ là một tai nạn, mà còn là một nghiên cứu điển hình dài hạn cho nhà phát triển, các công ty và toàn bộ hệ sinh thái AI.