Liệu một thẩm phán có chặn nhãn chuỗi cung ứng nhân đạo của Lầu Năm Góc không?

Một thẩm phán liên bang đã tạm thời đình chỉ một tranh chấp chuỗi cung ứng có tiếng tăm liên quan đến Anthropic, qua đó làm nổi bật mức độ căng thẳng ngày càng tăng giữa chính phủ Mỹ và các nhà cung cấp AI lớn.

Thẩm phán đình chỉ nỗ lực của Lầu Năm Góc nhằm đưa Anthropic vào danh sách đen

Vào hôm thứ Năm, một thẩm phán liên bang ở California đã tạm thời chặn Lầu Năm Góc gán Anthropic là rủi ro chuỗi cung ứng và yêu cầu các cơ quan liên bang ngừng sử dụng các hệ thống AI của công ty này. Phán quyết là bước ngoặt mới nhất trong cuộc “đấu” kéo dài suốt một tháng, và vụ việc vẫn chưa được giải quyết khi chính phủ hiện có 7 ngày để kháng cáo.

Hơn nữa, Anthropic đang theo đuổi một vụ kiện thứ hai nhằm thách thức cùng một sự chỉ định đó theo một học thuyết pháp lý khác, hiện vẫn chưa được quyết định. Cho đến khi các thủ tục đó kết thúc, công ty về cơ bản vẫn là đối tượng không được hoan nghênh ở phần lớn bộ máy chính phủ liên bang, bất chấp sự can thiệp của thẩm phán.

Tranh chấp hợp đồng leo thang thành “chiến tranh văn hoá” AI

Mức độ đặt cược trong vụ việc đã rõ ngay từ đầu: chính phủ có thể đi xa đến đâu trong việc trừng phạt một công ty từ chối “chơi theo luật” về các vấn đề chính sách nhạy cảm. Dù vậy, Anthropic đã thu hút một liên minh ủng hộ bất thường rộng lớn từ các nhà tài trợ cấp cao, bao gồm các cựu tác giả trong chính sách AI của Tổng thống Donald Trump, những người hiếm khi đứng về phía các nền tảng ở Thung lũng Silicon.

Tuy nhiên, quan điểm dài 43 trang của Thẩm phán Rita Lin cho thấy vấn đề cốt lõi thực chất là một tranh chấp hợp đồng mà lẽ ra không cần bùng nổ thành một “cuộc chiến văn hoá” rộng hơn. Thẩm phán cho rằng chính phủ đã bỏ qua các thủ tục đã được thiết lập để xử lý các tranh chấp như vậy, rồi làm tình hình bùng lên bằng các bài đăng trên mạng xã hội sau đó lại mâu thuẫn với những lập trường được nêu trong tòa.

Trên thực tế, Lầu Năm Góc đã phát đi tín hiệu rằng họ muốn một cuộc đối đầu mang tính chính trị chồng lên “cuộc chiến” thật sự với Iran, vốn bắt đầu chỉ vài giờ sau khi một số bài đăng quan trọng được đưa lên. Việc đan xen các chương trình nghị sự pháp lý, chính trị và quân sự này đã được tòa cân nhắc rất nặng trong đánh giá hồ sơ.

Việc Claude được dùng trong Lầu Năm Góc và căng thẳng gia tăng

Theo các hồ sơ tòa án, chính phủ đã sử dụng Claude của Anthropic trong suốt năm 2025 mà không nêu ra các phàn nàn đáng kể. Trong giai đoạn đó, công ty đã cố gắng cân bằng thương hiệu của mình như một nhà phát triển AI tập trung vào an toàn với vai trò là nhà thầu quốc phòng, đi trên một “tấm lưới cân bằng về thương hiệu” mà một hồ sơ đã mô tả như vậy.

Các nhân viên quốc phòng truy cập Claude thông qua Palantir phải chấp nhận một chính sách sử dụng riêng theo quy định của chính phủ. Trong một tuyên bố tuyên thệ, đồng sáng lập của Anthropic là Jared Kaplan cho biết chính sách đó “ngăn cấm giám sát hàng loạt công dân Mỹ và chiến tranh tự động gây chết người”, dù ông không cung cấp toàn văn cho tòa án. Chỉ khi Lầu Năm Góc tìm cách ký hợp đồng trực tiếp với Anthropic thì các bất đồng nghiêm trọng mới lộ diện.

Tweet trước, biện minh sau: các lời đe doạ công khai của Trump và Hegseth

Điều khiến thẩm phán tức giận nhất là sau khi tranh chấp trở thành công khai, hành động của chính phủ trông giống như một hình thức trừng phạt hơn là một quyết định đơn giản nhằm cắt đứt quan hệ. Hơn nữa, có một mô thức nhất quán: tweet trước, luật sư sau.

Ngày 27 tháng 2, Tổng thống Trump đã đăng trên Truth Social đề cập đến “Leftwing nutjobs” tại Anthropic và chỉ đạo mọi cơ quan liên bang ngừng sử dụng AI của công ty này. Ngay sau đó, Bộ trưởng Quốc phòng Pete Hegseth cũng lặp lại quan điểm đó, nói rằng ông sẽ chỉ đạo Lầu Năm Góc dán nhãn công ty là rủi ro chuỗi cung ứng.

Việc chính thức chỉ định một công ty như vậy đòi hỏi Bộ trưởng Quốc phòng phải tuân theo một chuỗi bước theo luật định đã được xác định. Tuy nhiên, Thẩm phán Lin nhận thấy Hegseth đã không hoàn tất các bước đó. Chẳng hạn, các bức thư gửi các ủy ban của Quốc hội khẳng định rằng các biện pháp ít nghiêm trọng hơn đã được đánh giá và cho là không thể, nhưng chúng không cung cấp bất kỳ chi tiết thực tế nào để hỗ trợ cho tuyên bố đó.

Chính phủ cũng lập luận rằng nhãn rủi ro chuỗi cung ứng là cần thiết vì Anthropic có thể triển khai một “kill switch” để vô hiệu hóa các hệ thống của mình. Tuy nhiên, theo ý kiến của tòa, trong quá trình bị thẩm vấn, các luật sư của họ đã thừa nhận rằng không có bằng chứng nào cho thấy năng lực như vậy tồn tại. Sự mâu thuẫn đó tiếp tục làm suy yếu hồ sơ của Lầu Năm Góc.

Thẩm quyền pháp lý vs thông điệp chính trị

Bài đăng trên mạng xã hội của Hegseth khẳng định rằng “Không một nhà thầu, nhà cung cấp hoặc đối tác nào làm ăn với quân đội Hoa Kỳ được phép tiến hành bất kỳ hoạt động thương mại nào với Anthropic.” Các luật sư của chính chính phủ sau đó đã thừa nhận vào hôm thứ Ba rằng, người đứng đầu cơ quan này thực tế không có thẩm quyền để áp đặt một lệnh cấm toàn diện như vậy.

Thẩm phán và các luật sư của Bộ Tư pháp thống nhất rằng lệnh cấm “toàn diện” của Hegseth “không hề có bất kỳ hiệu lực pháp lý nào cả.” Tuy nhiên, giọng điệu quyết liệt của các bài đăng này khiến Thẩm phán Lin kết luận rằng Anthropic có một khiếu nại thuyết phục theo Tu chính án thứ Nhất. Tòa cho rằng các quan chức về cơ bản đã nhắm đến việc trừng phạt công ty một cách công khai vì “hệ tư tưởng” và “lời lẽ”, cũng như vì điều họ gọi là “sự kiêu ngạo” khi từ chối thỏa hiệp.

Thẩm phán viết rằng việc gắn nhãn Anthropic là rủi ro chuỗi cung ứng sẽ tương đương với việc gắn nhãn công ty là “kẻ phá hoại” của chính phủ Mỹ. Bà cho rằng bằng chứng không đủ để ủng hộ cáo buộc như vậy và do đó đã ban hành một lệnh vào hôm thứ Năm tuần trước, đình chỉ sự chỉ định này, ngăn Lầu Năm Góc thực thi nó, và cấm chính phủ thực hiện các lời hứa rộng khắp mà Hegseth và Trump đã đưa ra.

Một phán quyết “đáng tàn phá” và một vụ kiện thứ hai ở DC

Dean Ball, người đã giúp soạn thảo chính sách AI trong chính quyền Trump nhưng đã nộp một bản kiến nghị ủng hộ Anthropic, mô tả phán quyết này là “một phán quyết tàn phá đối với chính phủ.” Ông nói rằng tòa nhận thấy Anthropic có khả năng thắng trong hầu hết các lý thuyết của mình rằng các hành động của chính phủ là trái pháp luật và trái hiến pháp.

Người ta rộng rãi kỳ vọng chính quyền sẽ kháng cáo quyết định ở California. Đồng thời, Anthropic đang thúc đẩy một vụ kiện riêng ở Washington, DC, vụ việc đưa ra các cáo buộc tương tự nhưng viện dẫn một phần khác của đạo luật điều chỉnh các rủi ro chuỗi cung ứng. Cùng với nhau, các vụ kiện này có thể xác định mức độ quan chức liên bang có thể đi tới trong việc trả đũa các nhà cung cấp AI mà họ không thích quan điểm.

Mẫu hình lời lẽ công khai và việc “lấp đầy” căn cứ pháp lý sau đó

Các tài liệu của tòa án mô tả một mô thức nhất quán trong đó các tuyên bố công khai của các quan chức cấp cao và của Tổng thống không phù hợp với những gì luật yêu cầu trong một tranh chấp hợp đồng. Hơn nữa, các luật sư của chính phủ đã nhiều lần phải dựng lên các lý do pháp lý sau sự kiện để biện minh cho các cuộc tấn công trên mạng xã hội nhắm vào công ty trước đó.

Lãnh đạo Lầu Năm Góc và Nhà Trắng biết rằng việc theo đuổi lựa chọn cực đoan nhất chắc chắn sẽ dẫn đến việc khởi kiện. Ngày 27 tháng 2, Anthropic đã công khai cam kết sẽ thách thức bất kỳ nhãn rủi ro chuỗi cung ứng nào, tức là vài ngày trước khi chính phủ chính thức nộp hồ sơ chỉ định vào ngày 3 tháng 3. Dòng thời gian này cho thấy, ngay cả khi cuộc chiến với Iran bùng nổ, lãnh đạo cấp cao vẫn chọn tiến về phía trước.

Trong năm ngày đầu tiên của xung đột, các quan chức vừa giám sát các đợt không kích, vừa tập hợp bằng chứng nhằm mô tả Anthropic là kẻ phá hoại. Tuy nhiên, thẩm phán lưu ý rằng Lầu Năm Góc đã có thể đơn giản chấm dứt việc kinh doanh với công ty thông qua các bước mua sắm ít kịch tính hơn rất nhiều và mang tính thông thường hơn.

Hệ quả đối với Anthropic và toàn ngành AI

Ngay cả nếu cuối cùng Anthropic thắng cả hai vụ kiện, phán quyết vẫn cho thấy Washington vẫn có những cách “phi chính thức” để gạt công ty này sang một bên khỏi các công việc của chính phủ trong tương lai. Các nhà thầu quốc phòng phụ thuộc vào Lầu Năm Góc để có doanh thu hiện có ít động lực hợp tác với Anthropic, ngay cả khi công ty này không bao giờ bị chính thức đưa vào danh sách rủi ro chuỗi cung ứng.

“ Tôi nghĩ có thể nói rằng chính phủ có những cơ chế để gây ra một mức độ áp lực nhất định mà không làm trái pháp luật”, Charlie Bullock, nghiên cứu viên cấp cao tại Viện Luật và AI, cho biết. Tuy vậy, ông nhấn mạnh rằng phần lớn còn tùy thuộc vào việc chính quyền đầu tư đến mức nào vào việc trừng phạt Anthropic trong tranh chấp này.

Từ những bằng chứng cho đến nay, chính quyền đang dành thời gian và sự chú ý ở cấp cao nhất để giành chiến thắng cho thứ thực chất là một cuộc “chiến tranh văn hoá” AI. Đồng thời, có vẻ như Claude đủ trung tâm đối với hoạt động của Lầu Năm Góc đến mức ngay chính Tổng thống Trump nói rằng Bộ Quốc phòng cần 6 tháng để chuyển dần sang phương án khác. Mâu thuẫn này làm suy yếu câu chuyện rằng việc chỉ định rủi ro chuỗi cung ứng thuộc hoàn toàn về vấn đề an ninh.

Giới hạn về đòn bẩy của chính phủ đối với các nhà cung cấp AI

Vụ việc cũng nêu bật nỗ lực của Nhà Trắng nhằm đòi hỏi sự trung thành chính trị và sự phù hợp về ý thức hệ từ các công ty AI hàng đầu. Tuy nhiên, xung đột với Anthropic phơi bày giới hạn của đòn bẩy đó, ít nhất là khi các lời đe dọa công khai va chạm với các quy tắc mua sắm theo luật định và các biện pháp bảo vệ hiến pháp.

Hơn nữa, tranh chấp này gửi một tín hiệu rõ ràng tới các nhà cung cấp AI khác đang xây dựng công cụ cho các cơ quan an ninh quốc gia. Lời lẽ công khai mang tính quyết liệt có thể không tồn tại trước sự xem xét của tòa án nếu không được hậu thuẫn bằng bằng chứng và quy trình chính thức. Các tòa án dường như sẵn sàng giám sát ranh giới đó chặt chẽ hơn khi AI trở nên gắn liền với các hoạt động quốc phòng của Mỹ.

Tạm thời, Anthropic vẫn ở thế bất lợi: về mặt pháp lý được củng cố nhờ một phán quyết ban đầu mạnh, nhưng về mặt thương mại lại dễ tổn thương trước việc bị “đen hoá” âm thầm trong toàn hệ sinh thái quốc phòng. Kết quả của các vụ kiện song song sẽ không chỉ định hình tương lai của chính công ty mà còn vạch ra hình dạng của quyền lực chính phủ trong kỷ nguyên AI.

Nếu bạn có thông tin về việc quân đội sử dụng AI, bạn có thể chia sẻ một cách an toàn qua Signal (username jamesodonnell.22).

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.27KNgười nắm giữ:2
    0.00%
  • Vốn hóa:$2.37KNgười nắm giữ:2
    1.04%
  • Vốn hóa:$2.24KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.24KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.25KNgười nắm giữ:1
    0.00%
  • Ghim