Trợ lý mã hóa của Anthropic với 510.000 dòng mã nguồn bị rò rỉ, bao gồm nhiều tính năng chưa được phát hành

robot
Đang tạo bản tóm tắt

AI(Trí tuệ nhân tạo)đột nhiên “mở mã nguồn” một cách bất ngờ, gã khổng lồ mới nổi Anthropic đã phát hành công khai 512 nghìn dòng mã nguồn của trợ lý mã hóa Claude Code.

Vào ngày 31 tháng 3 theo giờ địa phương, do một lỗi đóng gói (packaging) của npm (trình quản lý gói), một phần mã nguồn của công cụ lập trình AI ăn khách Claude Code thuộc Anthropic đã bị lộ ra, khoảng 512.000 dòng, bao gồm 4.756 tệp nguồn, hơn 40 mô-đun công cụ và nhiều tính năng chưa phát hành, khiến công ty buộc phải “mở mã nguồn” cho các nhà phát triển trên toàn cầu. Mặc dù công ty nhanh chóng có phản ứng, nhưng các nhà phát triển đã chia sẻ rất nhiều các mã này trên các cộng đồng như GitHub.

Về vấn đề này, phía Anthropic phản hồi rằng: “Sự kiện lần này không liên quan đến hoặc làm lộ bất kỳ dữ liệu khách hàng hay thông tin xác thực nhạy cảm nào. Đây là vấn đề phát hành do lỗi thao tác của con người, không phải lỗ hổng bảo mật. Chúng tôi đang thực hiện các biện pháp để ngăn các tình huống tương tự xảy ra lần nữa.”

Tài liệu công khai cho thấy Anthropic được thành lập vào năm 2021 bởi các cựu nhân viên OpenAI, các sản phẩm của công ty bao gồm mô hình ngôn ngữ lớn thuộc dòng Claude. Kể từ khi thành lập, công ty đã lần lượt nhận được các khoản đầu tư từ các gã khổng lồ công nghệ như Amazon, Google, Nvidia và Salesforce.

Đối với một công ty khởi nghiệp như Anthropic, nhấn mạnh “an toàn” và đang tích cực tìm kiếm việc niêm yết IPO, việc lộ mã nguồn rõ ràng là một cú đánh lớn, cho phép đối thủ cạnh tranh của công ty và các nhà phát triển phần mềm hiểu sâu hơn về quy trình phát triển sản phẩm của mình, đồng thời khiến người dùng và nhà đầu tư lo ngại về an toàn dữ liệu của Anthropic.

Phân tích từ truyền thông nước ngoài cho biết, thông tin bị rò rỉ lần này cho thấy Anthropic đã giải quyết một khó khăn cốt lõi mà các công cụ AI phải đối mặt: làm thế nào để mô hình duy trì độ chính xác khi xử lý các tác vụ dài hoặc phức tạp. Thật bất ngờ, Claude Code không trực tiếp dựa vào nội dung được tạo trước đó, mà sẽ liên tục chất vấn và xác minh kết quả của chính mình để tránh vấn đề “ảo giác”.

Ngoài ra, ngay cả khi không có thao tác của người dùng, Claude Code vẫn tiếp tục chạy ở chế độ nền, sắp xếp lại những thông tin đã học được, thiết lập mối liên hệ giữa các nội dung khác nhau, sửa các mâu thuẫn trước và sau và loại bỏ các giả định sai. Khi người dùng quay lại, Claude Code có thể tạo ra sự hiểu rõ hơn và chính xác hơn về nhiệm vụ.

Sự rò rỉ lần này cũng cho thấy rằng Anthropic đã từng thử cho AI tham gia phát triển các dự án mã nguồn mở, nhưng đã không ghi rõ trong các đóng góp liên quan rằng nội dung đó do AI tạo ra. Đồng thời, công ty đang khám phá cách khiến các công cụ AI của mình có tính “gây nghiện” hơn, khó để người dùng từ bỏ việc sử dụng. Anthropic đang cân nhắc việc ra mắt một trợ lý tiến trình giám hộ tự chủ có mã hiệu là “Kairos”, và “Buddy System(Hệ thống bạn đồng hành)” được tích hợp sẵn toàn bộ hệ thống thú cưng điện tử.

Đáng chú ý, đây đã là lần thứ hai Anthropic gặp vấn đề rò rỉ trong thời gian chưa đến một tuần. Vào ngày 26 tháng 3, một nhà phát triển nhận thấy mô tả mô hình AI sắp được ra mắt của Anthropic và một số tài liệu liên quan đã xuất hiện trong bộ nhớ đệm dữ liệu công khai.

Vào tháng 2 năm nay, Anthropic đã hoàn tất vòng gọi vốn 30 tỷ đô la Mỹ do công ty đầu tư công nghệ MGX của UAE dẫn dắt, mức định giá đạt 38 tỷ đô la Mỹ. Ngày 27 tháng 3, theo báo cáo của truyền thông nước ngoài, Anthropic đang thảo luận kế hoạch phát hành lần đầu ra công chúng (IPO), sớm nhất có thể sẽ niêm yết tại Mỹ vào tháng 10 năm nay.

(Nguồn bài viết: The Paper / 澎湃新闻)

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim