Giám đốc điều hành của Palantir Vương quốc Anh cho biết việc sử dụng AI trong mục tiêu chiến tranh do các lực lượng quân sự quyết định

Trưởng bộ phận Palantir UK nói rằng quân đội phải quyết định cách sử dụng nhắm mục tiêu bằng AI trong chiến tranh

8 phút trước

Chia sẻLưu

Thêm vào mục yêu thích trên Google

Marc Cieslak, phóng viên mảng AIvà

Matt Murphy, BBC Verify

Louis Mosley của Palantir cho biết quân đội chịu trách nhiệm về cách các hệ thống AI được sử dụng

Tập đoàn công nghệ Palantir đã phản hồi trước những lo ngại rằng việc quân đội sử dụng các nền tảng AI của họ có thể dẫn đến những rủi ro không lường trước được, trong một cuộc phỏng vấn độc quyền với BBC, nhấn mạnh rằng việc công nghệ được sử dụng như thế nào là trách nhiệm của các khách hàng quân sự của họ.

Điều này xảy ra trong bối cảnh các chuyên gia đã bày tỏ lo ngại về việc sử dụng nền tảng phòng thủ AI của Palantir - Maven Smart System - trong thời chiến và việc nó được cho là đã được sử dụng trong các cuộc tấn công của Mỹ nhằm vào Iran.

Các nhà phân tích đã cảnh báo rằng việc quân đội sử dụng nền tảng này, vốn giúp nhân sự lập kế hoạch các cuộc tấn công, để lại rất ít thời gian cho “việc xác minh có ý nghĩa” đối với đầu ra của nó và có thể dẫn đến việc bắn trúng mục tiêu sai.

Tuy nhiên, Giám đốc phụ trách mảng Vương quốc Anh và châu Âu của công ty, Louis Mosley, cho biết với BBC trong một cuộc phỏng vấn toàn diện rằng mặc dù các nền tảng AI như Maven đã được “đóng vai trò then chốt” trong việc quản lý cuộc chiến tranh Iran của Mỹ, thì trách nhiệm về cách đầu ra của chúng được sử dụng phải luôn “thuộc về tổ chức quân sự”.

“Luôn có một con người trong vòng lặp, nên luôn có một con người đưa ra quyết định cuối cùng. Đó là cấu hình hiện tại.”

Maven Smart System được Lầu Năm Góc ra mắt vào năm 2017 và được thiết kế để đẩy nhanh các quyết định nhắm mục tiêu quân sự bằng cách tập hợp số lượng lớn dữ liệu, bao gồm nhiều loại thông tin tình báo, hình ảnh vệ tinh và hình ảnh từ máy bay không người lái (drone).

Hệ thống phân tích dữ liệu này và sau đó có thể đưa ra các đề xuất cho việc nhắm mục tiêu. Nó cũng có thể gợi ý mức độ sử dụng vũ lực dựa trên mức độ sẵn có của nhân sự và trang thiết bị quân sự, chẳng hạn như máy bay.

Nhưng mức độ giám sát đã tăng lên đối với việc sử dụng các công cụ như vậy trong chiến tranh. Tháng Hai, Lầu Năm Góc công bố rằng họ sẽ dần loại bỏ hệ thống AI Claude của Anthropic - vốn giúp vận hành Maven - sau khi công ty từ chối cho phép sử dụng AI của mình trong vũ khí tự động và giám sát. Palantir cho biết các giải pháp thay thế có thể thay thế nó.

Kể từ khi cuộc chiến với Iran bắt đầu vào tháng Hai, Mỹ được cho là đã sử dụng Maven để lên kế hoạch các đợt tấn công trên toàn đất nước.

Video trình diễn về Maven Smart System của Palantir

Được BBC thúc đẩy về rủi ro rằng Maven có thể đề xuất các mục tiêu sai - điều này có thể bao gồm cả dân thường - Mosley khẳng định nền tảng này chỉ nhằm đóng vai trò như một hướng dẫn để tăng tốc quy trình ra quyết định cho nhân sự quân sự và không nên được xem là một hệ thống nhắm mục tiêu tự động.

“Bạn có thể coi đó là một công cụ hỗ trợ,” Mosley nói. “Nó cho phép họ tổng hợp một lượng lớn thông tin mà trước đây họ sẽ phải tự làm thủ công từng bước một.”

Tuy nhiên, trước khi bị BBC thách thức về rủi ro các chỉ huy chịu áp lực thời gian ra lệnh cho cấp dưới coi đầu ra của Maven như đã được đóng dấu phê duyệt, Mosley đã chuyển trách nhiệm sang từng lực lượng quân sự.

“Đó thực sự là một câu hỏi dành cho các khách hàng quân sự của chúng tôi. Họ là những người quyết định khung chính sách xác định ai được quyền đưa ra quyết định gì,” ông nói. “Đó không phải vai trò của chúng tôi.”

Kể từ ngày 28 tháng Hai, Mỹ đã tiến hành hơn 11.000 cuộc không kích vào Iran, nhiều cuộc được cho là đã được xác định bởi Maven.

Thiếu tướng (Adm) Brad Cooper, người đứng đầu lực lượng quân sự Mỹ ở Trung Đông, đã ca ngợi các hệ thống AI vì giúp các sĩ quan “lọc ra một lượng dữ liệu khổng lồ trong vài giây, để lãnh đạo của chúng tôi có thể gạt bỏ tiếng ồn và đưa ra các quyết định thông minh hơn nhanh hơn so với khả năng phản ứng của đối phương”.

Công ty AI Anthropic tìm chuyên gia vũ khí để ngăn người dùng “lạm dụng”

OpenAI thay đổi thỏa thuận với quân đội Mỹ sau làn sóng phản đối

Trump ra lệnh cho chính phủ ngừng sử dụng Anthropic trong chiến đấu vì vấn đề sử dụng AI

Nhưng một số người lo ngại rằng việc AI tham gia vào lập kế hoạch nhiệm vụ tạo ra những rủi ro đáng kể.

“Việc ưu tiên tốc độ và quy mô, cùng với việc sử dụng vũ lực, sau đó lại để lại rất ít thời gian cho việc xác minh mục tiêu một cách có ý nghĩa để đảm bảo rằng chúng không vô tình bao gồm mục tiêu là dân thường,” Giáo sư Elke Schwarz của Đại học Queen Mary London cho biết.

“Nếu có rủi ro giết người và bạn dự phần lớn tư duy phản biện quan trọng của mình cho phần mềm để nó lo liệu những việc này thay bạn, thì bạn sẽ chỉ còn phụ thuộc vào phần mềm,” bà nói thêm. “Đó là một cuộc chạy xuống đáy.”

Trong vài tuần gần đây, các quan chức của Lầu Năm Góc đã phải đối mặt với những câu hỏi về việc liệu các công cụ AI như Maven có được sử dụng để xác định mục tiêu trong cuộc không kích chết người vào một trường học ở thị trấn Minab của Iran hay không. Các quan chức Iran cho biết cuộc tấn công khiến 168 người thiệt mạng, trong đó có khoảng 110 trẻ em, vào ngày đầu tiên của cuộc chiến.

Tại Quốc hội, một số nghị sĩ Dân chủ cấp cao đã kêu gọi tăng cường giám sát các nền tảng AI như Maven. Dân biểu Sara Jacobs - thành viên của Ủy ban Quân vụ Hạ viện - kêu gọi các quy tắc và quy định được thực thi rõ ràng về cách và thời điểm các hệ thống AI được sử dụng.

“Các công cụ AI không đáng tin cậy 100% — chúng có thể thất bại theo những cách tinh vi, và dù vậy các người vận hành vẫn tiếp tục tin tưởng quá mức,” bà nói với NBC News vào tháng trước.

“Chúng ta có trách nhiệm thiết lập các hàng rào bảo vệ nghiêm ngặt trong việc quân đội sử dụng AI và đảm bảo luôn có một con người trong vòng lặp ở mọi quyết định sử dụng vũ lực gây chết người, bởi chi phí nếu làm sai có thể sẽ tàn khốc đối với dân thường và những lực lượng phục vụ đang thực hiện các nhiệm vụ này.”

Nhưng Mosley đã bác bỏ những gợi ý rằng tốc độ của nền tảng công ty ông đang thúc đẩy việc ra quyết định ở Lầu Năm Góc quá nhanh và có thể tạo ra những tình huống nguy hiểm. Thay vào đó, ông lập luận rằng tốc độ mà các chỉ huy đang hành động hiện nay là “hệ quả của việc tăng hiệu quả” mà Maven đã cho phép.

Lấy lý do “an ninh tác nghiệp”, Lầu Năm Góc từ chối bình luận khi BBC tiếp cận về cách các hệ thống AI như Maven sẽ được sử dụng trong tương lai hoặc ai sẽ chịu trách nhiệm nếu có sự cố xảy ra.

Tuy nhiên, có vẻ như các quan chức ở Mỹ đang tiến hành các kế hoạch để tích hợp sâu hơn Maven vào các hệ thống của họ.

Tuần trước, hãng tin Reuters đưa tin rằng Lầu Năm Góc đã chỉ định Maven là “một chương trình chính thức thuộc diện ghi nhận” - thiết lập nó như một công nghệ sẽ được tích hợp dài hạn trên toàn quân đội Mỹ.

Trong một bức thư do Reuters thu thập được, Thứ trưởng Quốc phòng Steve Feinberg cho biết nền tảng này sẽ cung cấp cho các chỉ huy “những công cụ mới nhất cần thiết để phát hiện, ngăn chặn và áp đảo các đối thủ của chúng ta trong mọi lĩnh vực”.

Thông tin bổ sung của Jemimah Herd

Trí tuệ nhân tạo

Chiến tranh Iran

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim