Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Tập đoàn AI hàng đầu của Mỹ rò rỉ 510.000 dòng mã nguồn! Các nhà phát triển có thể đang "sao chép bài tập" trực tiếp? Luật sư cảnh báo có rủi ro
Do nhân viên không cẩn thận làm rò rỉ mã nguồn Claude Code gồm 512.000 dòng, khiến cả ngành nghề có cái nhìn cận cảnh kiến trúc nội bộ của sản phẩm do gã khổng lồ AI mới nổi Anthropic; đồng thời sớm lộ ra kế hoạch sản phẩm cho “thú cưng điện tử” và trợ lý AI có khả năng ghi nhớ lâu dài của hãng này.
Vào ngày 31 tháng 3 theo giờ địa phương, do lỗi đóng gói khi đóng gói gói npm (npm package), mã nguồn Claude Code đã bị lộ. Chỉ trong vài giờ, mã rò rỉ đã hình thành xu hướng lan truyền trên GitHub với số sao vượt 10.000 và số lần sao lưu (backup) hơn 20.000.
Về việc này, Anthropic đã trả lời phóng viên của tờ 《Nhật báo Kinh tế Hằng ngày》 (sau đây gọi là phóng viên mỗi kinh) rằng đó là do lỗi con người (human error) gây ra vấn đề đóng gói khi phát hành, chứ không phải lỗ hổng bảo mật.
Các chuyên gia cho biết, vụ rò rỉ này cung cấp cơ hội “chép bài” để các nhà phát triển nhỏ và vừa nâng cao năng lực sản phẩm của họ, nhưng việc sử dụng mã liên quan cho mục đích thương mại lại đối mặt rủi ro pháp lý.
** “Mở nguồn” mã nguồn Claude Code 510.000 dòng**
Vào ngày 31 tháng 3 theo giờ địa phương, nghiên cứu viên thực tập Chaofan Shou của công ty bảo mật Web3 FuzzLand đã tiết lộ trên nền tảng mạng xã hội X rằng, mã nguồn của công cụ lập trình AI Claude Code thuộc Anthropic đã bị rò rỉ một cách ngoài ý muốn.
Theo mô tả của anh, khi kiểm tra gói npm của Claude Code, anh phát hiện một tệp cli.js.map có dung lượng 57MB trỏ đến một liên kết bucket lưu trữ, trong đó chứa 1.900 tệp TypeScript, tổng cộng hơn 512.000 dòng mã nguồn hoàn chỉnh chưa bị làm rối và chưa bị giải biên dịch. Điều này có nghĩa là các nhà phát triển có thể dễ dàng xem thấu, thậm chí khôi phục cấu trúc nội bộ của Claude Code.
Nguyên nhân cốt lõi không hề phức tạp: các tệp source map vốn phải được loại trừ trong bản dựng production, do sơ sót trong cấu hình .npmignore hoặc thiết lập quy trình build không đúng, đã được phát hành cùng lên nền tảng công khai npm registry. Chỉ trong vài giờ, mã liên quan đã được tải lên GitHub và lan truyền rộng rãi, thậm chí đã có nhà phát triển tái dựng hoàn chỉnh Claude Code dựa trên nội dung rò rỉ.
Sau khi vụ việc “lên men”, Anthropic đã khẩn cấp cập nhật gói npm và xóa các tệp liên quan, đồng thời xóa cả phiên bản cũ. Nhưng đã quá muộn.
Phóng viên mỗi kinh đã liên hệ để xác minh vụ việc với Anthropic; công ty trả lời rằng: “Vào đầu ngày hôm nay, trong một lần phát hành của Claude Code có chứa một phần mã nguồn nội bộ. Sự kiện này không liên quan đến hoặc làm lộ bất kỳ dữ liệu khách hàng hay thông tin đăng nhập (credential) nhạy cảm nào. Đây là vấn đề đóng gói khi phát hành do lỗi con người gây ra, chứ không phải lỗ hổng bảo mật. Chúng tôi đang triển khai các biện pháp để ngăn chặn các tình huống tương tự xảy ra lần nữa.”
Đây đã là lần thứ hai trong vòng một tuần xảy ra sự cố rò rỉ nghiêm trọng đối với Anthropic. Vào ngày 26 tháng 3, công ty vừa rò rỉ thông tin của mô hình có tên Claude Mythos và khoảng 3.000 tài sản chưa được công bố do lỗi cấu hình CMS (hệ thống quản lý nội dung). Trước đó nữa, vào tháng 2 năm 2025 và tháng 12 năm 2024, Claude Code cũng từng gặp các vấn đề rò rỉ mã nguồn và rò rỉ lời nhắc hệ thống. Những “sai sót nhân sự” xảy ra liên tục này đang tiếp tục bào mòn niềm tin của thị trường vào năng lực bảo mật của họ.
“Rò rỉ cấp độ sản xuất”: thú cưng điện tử chưa phát hành và trợ lý AI ghi nhớ lâu dài bị lộ sớm
Khi các nhà phát triển phân tích sâu mã nguồn bị rò rỉ, một hệ thống nội bộ của Claude Code vượt xa dự đoán của giới bên ngoài dần trở nên rõ ràng. Đây không phải chỉ là một công cụ bọc API đơn giản, mà là một môi trường phát triển hoàn chỉnh cấp độ sản xuất.
Theo phân tích của kho GitHub, cơ sở mã bị rò rỉ bao gồm hơn 40 công cụ kiểm soát quyền, một công cụ truy vấn có 46.000 dòng code, hệ thống phối hợp đa tác nhân (multi-agent), chức năng cầu nối (IDE bridge), và cơ chế ghi nhớ lâu dài (persistent memory) v.v. Trong mã còn phát hiện 35 cờ/tính năng (feature flags) ở thời gian biên dịch và hơn 120 biến môi trường chưa được công bố. Thông qua biến môi trường USER_TYPE=ant, nhân viên Anthropic có thể mở khóa toàn bộ chức năng nội bộ.
Có lập trình viên cho rằng nội dung bị rò rỉ của Claude cho thấy nó không phải một trợ lý lập trình AI, mà giống như một hệ điều hành (operating system).
Điều gây chú ý hơn nữa là nhiều tính năng thử nghiệm mà đến nay vẫn chưa được phát hành.
Thứ nhất là hệ thống thú cưng điện tử đầu cuối mang tên BUDDY.
Mã cho thấy BUDDY là một hệ thống AI dành cho thú cưng kiểu “Tamagotchi” – thứ từng rất thịnh hành trên toàn cầu vào thập niên 90. Cơ chế cốt lõi kết hợp ID người dùng và thuật toán giả ngẫu nhiên để tạo ra một nhân vật duy nhất, bao gồm loài, độ hiếm, diện mạo và thuộc tính. Hệ thống cũng hỗ trợ các thiết lập như “rút thẻ” (抽卡) và biến thể phát sáng (shining/flashing), đồng thời mô hình tự động tạo ra “bản mô tả linh hồn” (灵魂描述). Điểm đáng chú ý là, các thuộc tính then chốt của thú cưng không được lưu trữ, mà được tính toán và sinh động dựa trên ID người dùng, khiến chúng có tính ổn định và không thể bị sửa đổi.
Thứ hai là trợ lý AI ghi nhớ lâu dài mang tên KAIROS.
KAIROS bị ẩn sau các cờ biên dịch (compile flags), nên ở phiên bản công khai không thể nhìn thấy. Khi được kích hoạt, hệ thống có thể giám sát liên tục hành vi người dùng, ghi lại thông tin và chủ động thực hiện nhiệm vụ, đồng thời duy trì nhật ký thao tác chi tiết. Kết hợp với cơ chế nền (backend) có tên autoDream, hệ thống còn có thể tự động sắp xếp ký ức trong giai đoạn ít hoạt động, chuyển nội dung hội thoại ngắn hạn thành tri thức dài hạn được cấu trúc. Thiết kế này được cho là tương tự cao với quá trình củng cố trí nhớ của con người trong lúc ngủ.
Một nghiên cứu viên về Byte AI Agent cho biết thứ khiến anh/ cô ấn tượng nhất chính là chế độ KAIROS — GitHub Webhook + Cron + MCP Channel + backend Dream sắp xếp ký ức; về bản chất, đó là đưa Agent từ công cụ trở thành “nhân viên số”.
Ngoài ra, để ngăn chặn rò rỉ thông tin nội bộ, Anthropic cũng thiết kế “chế độ nằm vùng” (Undercover Mode), hạn chế nhân viên đề cập các mã hiệu mô hình nội bộ hoặc tên công cụ trong các đóng góp mã nguồn mở. Đồng thời, trong API của họ còn nhúng cơ chế “đầu độc dữ liệu” (data poisoning): bằng cách tiêm vào định nghĩa công cụ giả (fake_tools), làm nhiễu quá trình thu thập dữ liệu tiềm năng và hành vi chưng cất mô hình (model distillation), từ đó giảm hiệu năng của mô hình đối thủ cạnh tranh.
Những thiết kế này cho thấy Anthropic đã đầu tư rất nhiều công sức vào phòng hộ kỹ thuật và chiến lược cạnh tranh, nhưng “lỗi con người” lần này lại phơi bày điểm yếu ở tầng thực thi quy trình.
** Sau cơn cuồng nhiệt của nhà phát triển: “chép bài” liệu có thể đối mặt rủi ro pháp lý?**
Là một sản phẩm đáng đối trọng với OpenAI, Claude Code lâu nay cạnh tranh trực tiếp với các công cụ như GitHub Copilot. Mặc dù vụ rò rỉ ngoài ý muốn này không phải là “mở nguồn” chính thức, nhưng nhiều nhà phát triển vẫn coi đó là một cơ hội học tập hiếm có.
Giáo sư thỉnh giảng đặc biệt tại Trường Đại học Tài chính & Kinh tế Thượng Hải, Hồ Diên Bình (胡延平) cho biết với phóng viên mỗi kinh rằng, tác động quan trọng nhất của vụ rò rỉ đối với hệ sinh thái AI là có thể giúp các nhóm Agent khác nâng cao trình độ sản phẩm, giúp các nhà phát triển nắm bắt được lộ trình kỹ thuật. Ông tiết lộ rằng một số kỹ thuật sư quả thực đã phân tích, khôi phục, chỉnh sửa, thử nghiệm suốt đêm, thậm chí thử triển khai và tái hiện; đồng thời tiến hành nghiên cứu có hệ thống đối với các tệp bị rò rỉ. “Đối với các nhà phát triển vốn năng lực về AI Agent không mạnh, đây chắc chắn là một cơ hội ‘chép bài’, giúp nhanh chóng kéo trình độ sản phẩm ngang tầm. Thậm chí trong quá trình chép bài có thể sửa bài, và sau khi tối ưu cục bộ, có khả năng ở một số khía cạnh khung kiến trúc của Claude Code lại còn tốt hơn.”
Theo Hồ Diên Bình, đối với các nhà phát triển nhỏ và vừa thì rò rỉ mã nguồn đúng là có ích lớn, nhưng với các công ty lớn thì chưa chắc. “Bởi vì công ty lớn hoặc đã đang tiến hành kỹ thuật đảo ngược, hoặc trong quá trình xây dựng khung sản phẩm toàn diện hơn; để các sản phẩm như Claude Code thành công, ngoài năng lực một điểm (single-point product strength), còn phụ thuộc vào việc xây dựng toàn bộ hệ sinh thái ứng dụng, bao gồm hệ sinh thái Skills, hệ sinh thái nhà phát triển và đối tác, và cách cung cấp dịch vụ AI full-stack để đối ứng với hệ sinh thái lớn gồm hàng trăm triệu thiết bị và hàng trăm triệu người dùng.”
Hồ Diên Bình cho rằng việc rò rỉ mã nguồn Claude Code gây chú ý và thảo luận rộng rãi là vì Anthropic là một trong hai công ty AI trên toàn cầu — đặc biệt ở mảng To B và năng lực lập trình — sở hữu khả năng full-stack mạnh nhất; công ty còn lại là OpenAI. Hơn nữa, trong các sản phẩm thuộc nhóm này, Anthropic đã đi xa hơn OpenAI và năng lực sản phẩm cũng mạnh hơn. “**Nhìn từ mã bị rò rỉ, hệ thống của Claude Code đã thực hành và tích hợp hữu cơ Prompt Engineering, Context Engineering và Harness Engineering — những chủ đề đang được bàn luận sôi nổi trong ngành — đặc biệt Harness Engineering và khả năng sau khi nâng cấp có thể thao tác máy tính, khiến giới trong ngành thấy được hướng phát triển giai đoạn tiếp theo thông qua Claude Code. **Agent kiểu ‘tiếp quản’ (take-over) như hệ điều hành cho ứng dụng và tác nhân hành động thông minh đang trở nên toàn năng, và tương lai có thể trở thành trí tuệ số phổ dụng khác với trí tuệ phổ dụng thể nhập (embodied general intelligence)”.
Tuy nhiên, khi trả lời phỏng vấn của mỗi kinh, luật sư Ngô Tuấn Linh (吴俊伶) của văn phòng luật GuoHao (国浩律师事务所) nhắc nhở rằng, sự kiện này phù hợp hơn với việc được xác định là rò rỉ nhầm lẫn (mis-disclosure) của source map khiến một phần mã nguồn có thể được khôi phục, chứ không phải việc chủ sở hữu chủ động ủy quyền công khai mã nguồn. Vì vậy, việc mã nguồn có thể bị bên ngoài lấy được không đương nhiên có nghĩa là bất kỳ ai cũng được cấp phép hợp pháp để sao chép, sửa đổi, tích hợp hoặc sử dụng thương mại.
Bà phân tích rằng, đối với doanh nghiệp và nhà phát triển, nếu sau khi tải mã liên quan về mà dùng để sao chép, sửa đổi, nhúng vào sản phẩm của chính mình, hoặc dựa trên đó để tối ưu, huấn luyện các sản phẩm cạnh tranh tương tự, thường có thể phát sinh rủi ro chồng chéo về bản quyền, bí mật thương mại, thậm chí cả cạnh tranh không lành mạnh. Mặc dù trong tình hình mã nguồn liên quan đã bị lan truyền rộng rãi, việc chủ sở hữu sau đó lại yêu cầu toàn bộ mã nguồn là bí mật thương mại sẽ khó hơn rõ rệt, nhưng điều đó không đương nhiên loại trừ việc họ vẫn tiếp tục chủ trương quyền đối với các chi tiết chưa được công bố, hoặc đối với các hành vi chiếm đoạt, truyền bá, sử dụng không đúng ngay từ ban đầu. Đối với người dùng hiện tại của Anthropic, điều khoản chính thức của họ cũng ghi rõ ràng giới hạn việc sử dụng dịch vụ để phát triển sản phẩm cạnh tranh, huấn luyện sản phẩm AI cạnh tranh, cũng như cấm biên dịch ngược (reverse engineering), đảo ngược hoặc sao chép dịch vụ; vì vậy các hoạt động liên quan còn có thể cộng thêm rủi ro vi phạm hợp đồng.
Bà cũng cho biết, so với đó, chỉ đơn thuần “xem” mã liên quan vì mục đích nghiên cứu hoặc phân tích an toàn thì rủi ro thường thấp hơn việc tái sử dụng thực tế; nhưng nếu đi vào các khâu phát triển, thương mại hóa, v.v., rủi ro pháp lý sẽ tăng rõ rệt.
Hiện tại, nhiều kho GitHub lưu trữ mã nguồn bị rò rỉ đã lần lượt nhận được thông báo xóa (từ quy định của Digital Millennium Copyright Act) theo 《Luật bản quyền thiên niên kỷ số》 và đã bị gỡ xuống. Điều này cũng cho thấy cuộc chiến pháp lý xoay quanh vụ việc đang được diễn ra.
(Nguồn: Nhật báo Kinh tế Hằng ngày)