Đang khám phá một điều gì đó đã âm thầm định hình lại cách chiến tranh hiện đại thực sự hoạt động, và thành thật mà nói, nó khá điên rồ khi bạn ghép tất cả lại với nhau.



Vì vậy, có một chiến dịch gọi là Epic Fury vào tháng 2 năm 2026—Israel và Mỹ cơ bản đã tiến hành một thử nghiệm căng thẳng về AI trong một khu vực chiến đấu thực sự chống lại Iran. Nhưng điều mà hầu hết mọi người bỏ lỡ là: đây không chỉ về sức mạnh hỏa lực. Nó còn về việc nén toàn bộ chuỗi tiêu diệt—từ dữ liệu cảm biến đến quyết định đến các cuộc tấn công thực tế—chỉ trong vài phút hoặc thậm chí giây. Ai phá vỡ được sự nén đó sẽ chiến thắng trong vòng đua địa chính trị tiếp theo.

Điều khiến tôi chú ý là cách các công ty công nghệ lớn đã thay đổi vị trí một cách công khai. OpenAI từ chỗ giữ vững lập trường đạo đức về việc tránh xa các ứng dụng quân sự đột nhiên nhận được hợp đồng quốc phòng nhạy cảm nhất thời đại. Họ công bố vào cuối tháng 2—triển khai các mô hình GPT trên mạng lưới phân loại để phân tích tình báo, dịch thuật, mô phỏng chiến tranh. Công ty nói rằng họ làm điều này trong "giới hạn đỏ," nhưng thành thật mà nói: những giới hạn đỏ đó đã trở nên linh hoạt hơn nhiều khi bạn đang nói về hàng trăm triệu đô la hợp đồng quốc phòng.

Rồi còn có Anthropic, người đi theo con đường ngược lại. Họ từ chối nhượng bộ về nguyên tắc, không đồng ý với yêu cầu của Pentagon về vũ khí tự động và giám sát quy mô lớn. Kết quả? Họ bị gán nhãn là "rủi ro chuỗi cung ứng"—một danh xưng trước đây chỉ dành cho các công ty như Huawei. Đó là một tín hiệu rùng rợn cho toàn ngành: giữ vững đạo đức của bạn và xem như quyền truy cập vào ngân sách quốc phòng của bạn biến mất trong chớp mắt.

Nhưng điều mà không ai nói đủ là: quyền lực thực sự trong phương trình này không thuộc về các công ty mô hình. Nó thuộc về Microsoft và Google. Nếu không có hạ tầng đám mây của họ, tất cả các mô hình AI đó chỉ là các slide PowerPoint. Microsoft Azure gần như trở thành xương sống vận hành—quân đội Israel đã mở rộng hoạt động học máy của họ lên khoảng 64 lần trong vài tháng. Dự án Nimbus của Google đã cung cấp hạ tầng đám mây trị giá hơn một tỷ đô la. Những công ty này đang hấp thụ dòng tiền thực trong khi các nhà cung cấp mô hình gánh chịu thiệt hại về danh tiếng. Thông minh, nếu bạn nghĩ theo cách hoài nghi.

Điều thực sự làm tôi lo lắng là các hệ thống AI của Israel như Lavender. Thứ này phân tích các mẫu hành vi trên hầu hết đàn ông trưởng thành ở Gaza, gán cho họ một "điểm nghi ngờ là chiến binh," và xác định hàng chục nghìn mục tiêu. Sau đó Gospel tự động hóa việc xây dựng mục tiêu, và Where's Daddy tối ưu hóa thời điểm tấn công để tối đa hóa thương vong. Xem xét của con người? Vài chục giây cho mỗi mục tiêu. Đây chính là hình dạng của một nhà máy giết người dựa trên thuật toán khi bạn loại bỏ ma sát khỏi quá trình ra quyết định.

Phần đáng sợ là cách logic này có thể dễ dàng mang đi nơi khác. Các kỹ thuật họ phát triển ở Gaza có thể áp dụng bất cứ nơi nào—Tehran, Đài Bắc, bất cứ đâu. Không phải về địa lý cụ thể; mà về quy trình dữ liệu và hạ tầng đám mây xử lý nó.

Từ góc độ thị trường, chúng ta đang chứng kiến sự xuất hiện của một thứ có thể gọi là liên minh AI-Cloud-Defense. Nó đang định hình lại cách các nhà đầu tư nên nghĩ về cổ phiếu công nghệ. Đây không chỉ còn là OpenAI hay Microsoft như các công ty hướng đến người tiêu dùng nữa. Đó là về ai kiểm soát hạ tầng cho thế hệ xung đột tiếp theo. Các công ty sẵn sàng thỏa hiệp về đạo đức đang được thưởng bằng dòng tiền ổn định, phản chu kỳ, giúp họ tránh khỏi các chu kỳ kinh doanh thông thường.

Câu hỏi thực sự mà mọi người nên đặt ra là: trước khi chúng ta giao phó thêm các chuỗi tiêu diệt cho một số ít các công ty mô hình lớn và đám mây, liệu còn thời gian để chúng ta xác định ai thực sự chịu trách nhiệm khi các đề xuất thuật toán trở thành tọa độ ném bom không? Bởi vì nếu bạn không nói gì bây giờ, bạn đang đặt cược rằng độ phức tạp này vẫn còn có thể kiểm soát được. Lịch sử cho thấy điều ngược lại.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim