Chỉ vừa nhận ra một điều đã làm tôi bực mình về toàn bộ tình hình của Cursor. Bạn có biết công cụ mã hóa AI trị giá 29,3 tỷ đô la mà ai cũng mê mẩn không? Hóa ra, bộ não điều khiển Composer 2 không phải như bạn nghĩ.



Tuần trước, các nhà phát triển bắt đầu đào sâu vào phản hồi API và phát hiện ra điều thú vị trong đường dẫn mô hình: kimi-k2p5-rl-0317-s515-fast. Kimi K2.5. Đó là mô hình mã nguồn mở của Moonshot AI từ Trung Quốc. Không hoàn toàn ẩn trong điều khoản nhỏ, nhưng chắc chắn không được quảng cáo rõ ràng.

Phó chủ tịch đào tạo nhà phát triển của Cursor đã thừa nhận điều này vài ngày sau đó, nói rằng khoảng 25% sức mạnh tính toán đến từ nền tảng Kimi, phần còn lại đến từ quá trình huấn luyện của họ. Ông gọi việc bỏ sót này trong bài đăng blog là "một sai lầm." Nhưng đây đã là lần thứ hai. Khi Composer 1 ra mắt, mọi người nhận thấy nó sử dụng tokenizer của DeepSeek—cũng chưa từng được đề cập. Đến bao giờ mới dừng lại ở sai lầm?

Tuy nhiên, vấn đề ở đây là: sử dụng Kimi K2.5 thực sự là một quyết định thông minh. Mô hình này vững chắc trong việc tạo mã, nó mã nguồn mở nên chi phí tiếp nhận gần như bằng không, và đối với một công ty tập trung vào lớp sản phẩm và tích hợp công cụ, điều đó hoàn toàn hợp lý về mặt kinh doanh. Vấn đề không phải là lựa chọn kỹ thuật. Đó là sự im lặng.

Nhưng còn một vấn đề về tuân thủ mà mọi người chưa đề cập đến. Kimi K2.5 sử dụng Giấy phép MIT đã chỉnh sửa với một yêu cầu cụ thể: nếu một sản phẩm thương mại có hơn 100 triệu người dùng hoạt động hàng tháng hoặc doanh thu hàng tháng trên 20 triệu đô la, bạn phải hiển thị rõ ràng "Kimi K2.5" trong giao diện người dùng. Cursor đang làm khoảng $2B hàng năm—tương đương khoảng 8 lần ngưỡng đó. Yêu cầu rõ ràng. Nhưng đã bị bỏ qua.

Tôi không phải luật sư, nhưng điều này quan trọng vì ngành phần mềm đã dành hai thập kỷ để học cách tôn trọng các giấy phép mã nguồn mở. Chúng ta đã từ các vụ kiện GPL đến việc SBOM trở thành tiêu chuẩn. Việc cấp phép mô hình AI có lẽ vẫn đang trong giai đoạn đầu của hành trình đó. Nếu các công ty có thể bỏ qua một điều đơn giản như thêm nhãn hiệu, thì còn những thứ khó hơn như luồng dữ liệu, khả năng kiểm tra mô hình, tuân thủ xuyên biên giới thì sao?

Có một khái niệm gọi là "Thuế Tin cậy" áp dụng ở đây. Người dùng trả 20 đô la/tháng cho những gì họ nghĩ là công nghệ độc quyền tiên tiến, rồi phát hiện ra đó là một mô hình mã nguồn mở miễn phí có chỉnh sửa? Sự tin tưởng đó sẽ bị rạn nứt. Đặc biệt khi Cursor đã từng gặp rắc rối về giá cả với gói Pro "Không giới hạn" nơi người dùng tiêu hết tín dụng hàng tháng trong ba ngày.

Câu hỏi thực sự là người dùng thực sự trả tiền cho điều gì. Nếu là khả năng của mô hình, chỉ cần gọi API của Kimi trực tiếp—rẻ hơn nhiều. Nếu là trải nghiệm sản phẩm và tích hợp công cụ, thì hãy rõ ràng về điều đó thay vì ngụ ý mọi thứ đều tự phát triển. Apple không giả vờ tự sản xuất chip của riêng họ. TSMC làm điều đó. Không ai cảm thấy bị lừa vì họ biết chính xác mình đang trả tiền cho gì.

Điều thực sự thú vị ở đây là sự chuyển đổi cấu trúc lớn hơn: các mô hình mã nguồn mở của Trung Quốc đang trở thành nền tảng vô hình của các ứng dụng AI toàn cầu. DeepSeek, Tongyi Qianwen, Kimi—chúng đang âm thầm cung cấp năng lượng cho khắp nơi trên thế giới. CEO của Hugging Face thậm chí còn nói rằng nguồn mở của Trung Quốc là "động lực lớn nhất định hình hệ sinh thái công nghệ AI toàn cầu." Không phóng đại đâu.

Tuy nhiên, đối với các doanh nghiệp, điều này tạo ra một vấn đề thực sự. Các nhà phát triển của bạn đang định tuyến mã qua các mô hình mà nguồn gốc của chúng bạn còn không biết. Trong các ngành bị quản lý chặt chẽ—tài chính, y tế, chính phủ—điều này là cơn ác mộng về tuân thủ. Chủ quyền dữ liệu, quy định xuyên biên giới, tất cả đều trở nên mơ hồ. Một số người gọi đó là "Shadow AI," giống như cách gọi Shadow IT ngày xưa. Các nhà phát triển tích hợp các mô hình này vào IDE và pipeline trong khi các đội an ninh không hay biết gì.

Ngành phần mềm cuối cùng đã giải quyết điều này bằng SBOM—Danh mục các thành phần phần mềm. Liệt kê các thành phần bạn sử dụng, phiên bản, các lỗ hổng đã biết. AI cũng cần điều tương tự. AI-BOM đã bắt đầu được thảo luận trong các vòng an ninh. Nên bao gồm: mô hình nền, nguồn dữ liệu huấn luyện và xử lý, phương pháp tinh chỉnh, triển khai, luồng dữ liệu.

Đối với các nhà phát triển chọn công cụ, điều này có nghĩa là kiểm tra nguồn mô hình giống như kiểm tra giấy phép phụ thuộc. npm audit, pip check—đó là tiêu chuẩn. Kiểm tra mô hình có thể là bước tiếp theo. Đối với các nhà cung cấp AI, việc công khai nguồn mô hình một cách chủ động không phải là yếu điểm, mà là đầu tư vào niềm tin lâu dài. Công ty đầu tiên đưa AI-BOM trở thành tiêu chuẩn có thể thực sự nắm giữ lợi thế cạnh tranh.

Tóm lại: Kimi K2.5 thực sự tốt. Công trình kỹ thuật của Moonshot xứng đáng được tôn trọng. Chuyên môn sản phẩm của Cursor là có thật. Vấn đề không phải là "mô hình Trung Quốc đã được sử dụng." Trong một hệ sinh thái mã nguồn mở, công nghệ tốt không nên mang nhãn quốc gia. Vấn đề là chúng ta không được thông báo. Khi các tác nhân AI này ngày càng thấm sâu vào quy trình làm việc của chúng ta, xử lý nhiều mã, dữ liệu và quyết định hơn, ít nhất chúng ta cũng nên biết ai đang thực sự suy nghĩ đằng sau hậu trường.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.28KNgười nắm giữ:2
    0.00%
  • Vốn hóa:$2.25KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.25KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.25KNgười nắm giữ:1
    0.00%
  • Ghim