Bộ Phận Hiệu Quả Chính Phủ của Elon Musk (DOGE) đã âm thầm triển khai một phiên bản điều chỉnh của chatbot Grok AI của ông ấy qua các cơ quan liên bang, gây ra lo ngại về khả năng vi phạm quyền riêng tư và xung đột lợi ích.
Reuters đã trích dẫn ba nguồn tin trong DOGE nói rằng đội ngũ đã sử dụng Grok để sàng lọc và phân tích dữ liệu nhạy cảm của chính phủ, tạo ra các báo cáo và thông tin với tốc độ vượt trội so với các phương pháp truyền thống.
DOGE vi phạm đạo đức với động thái Grok AI
Theo ba người trong cuộc, các kỹ sư DOGE đã cài đặt các tham số tùy chỉnh lên Grok, một chatbot mà xAI của Musk ra mắt vào cuối năm 2023, để tăng tốc quá trình xem xét dữ liệu và tự động hóa việc viết báo cáo.
"Chúng cho nó dữ liệu từ chính phủ, đặt ra những câu hỏi phức tạp và nhận được những tóm tắt ngay lập tức."
Một người trong cuộc.
Một người trong cuộc khác cho biết rằng nhân viên DOGE đã khuyến khích các nhân viên của Bộ An ninh Nội địa sử dụng Grok cho các phân tích nội bộ mặc dù công cụ này thiếu sự phê duyệt chính thức của cơ quan.
Điều không rõ ràng là chính xác thông tin nào được phân loại hoặc thông tin cá nhân nhận dạng đã được tải lên Grok hoặc nó đã được huấn luyện nhiều như thế nào trên các hồ sơ liên bang. Nếu tài liệu nhạy cảm được bao gồm, thì thực tiễn này có thể vi phạm các điều lệ về quyền riêng tư liên bang và các quy tắc xung đột lợi ích.
Năm chuyên gia về đạo đức và công nghệ cảnh báo rằng việc truy cập như vậy có thể mang lại cho các công ty của Musk những hiểu biết không tương xứng về dữ liệu hợp đồng không công khai và thậm chí giúp tinh chỉnh Grok cho lợi ích riêng.
Về lý thuyết, bất kỳ mô hình AI nào được đào tạo trên các tập dữ liệu chính phủ bí mật đều phải tuân thủ các biện pháp bảo vệ pháp lý nghiêm ngặt. Các giao thức chia sẻ dữ liệu thường liên quan đến nhiều sự chấp thuận và giám sát để ngăn chặn việc tiết lộ trái phép.
Bằng cách né tránh những kiểm tra đó, DOGE có nguy cơ phơi bày hàng triệu thông tin cá nhân của người Mỹ, và trao cho xAI một kho tàng thông tin thực tế không có sẵn cho các đối thủ.
DOGE khẳng định sứ mệnh của mình là loại bỏ lãng phí, gian lận và lạm dụng. Một phát ngôn viên của DHS đã nói với Reuters rằng DOGE chưa bao giờ gây áp lực cho nhân viên phải áp dụng bất kỳ công cụ cụ thể nào.
“Chúng tôi tập trung vào hiệu quả,” phát ngôn viên cho biết. Nhưng hai nguồn tin phản bác rằng, trong những tuần gần đây, đại diện DOGE đã thúc đẩy các bộ phận của DHS thử nghiệm Grok cho các nhiệm vụ từ phân tích khối lượng công việc nhập cư đến dự báo ngân sách, ngay cả sau khi DHS đột ngột chặn tất cả các nền tảng AI thương mại vì lo ngại về rò rỉ dữ liệu.
Theo chính sách hiện tại của DHS, nhân viên chỉ có thể sử dụng chatbot thương mại cho công việc không phân loại và không bí mật, trong khi một AI riêng của DHS xử lý các hồ sơ nhạy cảm. Nhưng khi ChatGPT và những người khác bị vô hiệu hóa vào tháng 5, sự phát triển của DOGE đã xảy ra trong một vùng xám pháp lý: bot nội bộ của DHS vẫn hoạt động, nhưng Grok chưa bao giờ được chính thức đưa vào sử dụng.
Musk có đang sử dụng DOGE để tập trung quyền kiểm soát không?
Ngoài DHS, phạm vi của DOGE mở rộng vào các mạng lưới của Bộ Quốc phòng, nơi khoảng một tá nhà phân tích được báo cáo đã được thông báo rằng một công cụ AI bên thứ ba đang theo dõi hoạt động của họ. Mặc dù các phát ngôn viên của DoD đã phủ nhận rằng DOGE đã hướng dẫn bất kỳ triển khai AI nào, nhưng các email và tin nhắn văn bản của bộ đã được Reuters thu thập gợi ý điều ngược lại.
Các nhà phê bình xem những động thái này là minh chứng cho chiến lược rộng lớn hơn của Musk nhằm tận dụng AI để tập trung quyền kiểm soát đối với bộ máy và sau đó kiếm tiền từ dòng dữ liệu thu được.
"Có một sự xuất hiện rõ ràng của việc tự lợi."
Richard Painter, một giáo sư về đạo đức chính phủ.
Nếu Musk trực tiếp ra lệnh triển khai Grok, ông có thể vi phạm các điều luật hình sự cấm các quan chức ảnh hưởng đến các quyết định có lợi cho lợi ích cá nhân của họ.
Tại trung tâm của cuộc tranh luận là vai trò kép của Grok như một chatbot công khai trên X và một công cụ phân tích thử nghiệm bên trong các bức tường chính phủ. Trang web của xAI thậm chí còn gợi ý rằng các tương tác của người dùng có thể được giám sát "cho các mục đích kinh doanh cụ thể," gợi ý rằng mọi truy vấn liên bang có thể được phản hồi vào vòng lặp học tập của Grok.
Hai nhân viên DOGE, Kyle Schutt và Edward Coristine, người sau được biết đến trên mạng với tên gọi "Big Balls," đã dẫn dắt phần lớn sáng kiến AI. Mặc dù họ từ chối bình luận, nỗ lực của họ phù hợp với một mô hình; trong năm qua, DOGE đã sa thải hàng ngàn quan chức sự nghiệp, kiểm soát các cơ sở dữ liệu bảo mật và ủng hộ AI như công cụ tối thượng cho việc cải cách hành chính.
Các nhà vận động bảo vệ quyền riêng tư cảnh báo rằng việc tích hợp AI chưa được kiểm định vào các môi trường an ninh quốc gia có rủi ro cao là công thức cho các vụ rò rỉ dữ liệu, trộm cắp danh tính và sự lợi dụng từ các đối thủ nước ngoài.
“Đây là một mối đe dọa về quyền riêng tư nghiêm trọng nhất mà bạn có thể gặp,” Albert Fox Cahn của Dự án Giám sát Công nghệ cho biết.
Cũng có nỗi lo rằng với ít tính minh bạch và ít quy định, thí nghiệm AI của DOGE có thể định hình lại quản trị dữ liệu liên bang, cho dù công chúng có nhận ra hay không.
Cryptopolitan Academy: Bạn mệt mỏi với sự biến động của thị trường? Hãy tìm hiểu cách DeFi có thể giúp bạn xây dựng thu nhập thụ động ổn định. Đăng ký ngay
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
Các mối quan ngại về đạo đức gia tăng đối với vai trò của Grok AI trong chính phủ Hoa Kỳ
Bộ Phận Hiệu Quả Chính Phủ của Elon Musk (DOGE) đã âm thầm triển khai một phiên bản điều chỉnh của chatbot Grok AI của ông ấy qua các cơ quan liên bang, gây ra lo ngại về khả năng vi phạm quyền riêng tư và xung đột lợi ích.
Reuters đã trích dẫn ba nguồn tin trong DOGE nói rằng đội ngũ đã sử dụng Grok để sàng lọc và phân tích dữ liệu nhạy cảm của chính phủ, tạo ra các báo cáo và thông tin với tốc độ vượt trội so với các phương pháp truyền thống.
DOGE vi phạm đạo đức với động thái Grok AI
Theo ba người trong cuộc, các kỹ sư DOGE đã cài đặt các tham số tùy chỉnh lên Grok, một chatbot mà xAI của Musk ra mắt vào cuối năm 2023, để tăng tốc quá trình xem xét dữ liệu và tự động hóa việc viết báo cáo.
"Chúng cho nó dữ liệu từ chính phủ, đặt ra những câu hỏi phức tạp và nhận được những tóm tắt ngay lập tức."
Một người trong cuộc.
Một người trong cuộc khác cho biết rằng nhân viên DOGE đã khuyến khích các nhân viên của Bộ An ninh Nội địa sử dụng Grok cho các phân tích nội bộ mặc dù công cụ này thiếu sự phê duyệt chính thức của cơ quan.
Điều không rõ ràng là chính xác thông tin nào được phân loại hoặc thông tin cá nhân nhận dạng đã được tải lên Grok hoặc nó đã được huấn luyện nhiều như thế nào trên các hồ sơ liên bang. Nếu tài liệu nhạy cảm được bao gồm, thì thực tiễn này có thể vi phạm các điều lệ về quyền riêng tư liên bang và các quy tắc xung đột lợi ích.
Năm chuyên gia về đạo đức và công nghệ cảnh báo rằng việc truy cập như vậy có thể mang lại cho các công ty của Musk những hiểu biết không tương xứng về dữ liệu hợp đồng không công khai và thậm chí giúp tinh chỉnh Grok cho lợi ích riêng.
Về lý thuyết, bất kỳ mô hình AI nào được đào tạo trên các tập dữ liệu chính phủ bí mật đều phải tuân thủ các biện pháp bảo vệ pháp lý nghiêm ngặt. Các giao thức chia sẻ dữ liệu thường liên quan đến nhiều sự chấp thuận và giám sát để ngăn chặn việc tiết lộ trái phép.
Bằng cách né tránh những kiểm tra đó, DOGE có nguy cơ phơi bày hàng triệu thông tin cá nhân của người Mỹ, và trao cho xAI một kho tàng thông tin thực tế không có sẵn cho các đối thủ.
DOGE khẳng định sứ mệnh của mình là loại bỏ lãng phí, gian lận và lạm dụng. Một phát ngôn viên của DHS đã nói với Reuters rằng DOGE chưa bao giờ gây áp lực cho nhân viên phải áp dụng bất kỳ công cụ cụ thể nào.
“Chúng tôi tập trung vào hiệu quả,” phát ngôn viên cho biết. Nhưng hai nguồn tin phản bác rằng, trong những tuần gần đây, đại diện DOGE đã thúc đẩy các bộ phận của DHS thử nghiệm Grok cho các nhiệm vụ từ phân tích khối lượng công việc nhập cư đến dự báo ngân sách, ngay cả sau khi DHS đột ngột chặn tất cả các nền tảng AI thương mại vì lo ngại về rò rỉ dữ liệu.
Theo chính sách hiện tại của DHS, nhân viên chỉ có thể sử dụng chatbot thương mại cho công việc không phân loại và không bí mật, trong khi một AI riêng của DHS xử lý các hồ sơ nhạy cảm. Nhưng khi ChatGPT và những người khác bị vô hiệu hóa vào tháng 5, sự phát triển của DOGE đã xảy ra trong một vùng xám pháp lý: bot nội bộ của DHS vẫn hoạt động, nhưng Grok chưa bao giờ được chính thức đưa vào sử dụng.
Musk có đang sử dụng DOGE để tập trung quyền kiểm soát không?
Ngoài DHS, phạm vi của DOGE mở rộng vào các mạng lưới của Bộ Quốc phòng, nơi khoảng một tá nhà phân tích được báo cáo đã được thông báo rằng một công cụ AI bên thứ ba đang theo dõi hoạt động của họ. Mặc dù các phát ngôn viên của DoD đã phủ nhận rằng DOGE đã hướng dẫn bất kỳ triển khai AI nào, nhưng các email và tin nhắn văn bản của bộ đã được Reuters thu thập gợi ý điều ngược lại.
Các nhà phê bình xem những động thái này là minh chứng cho chiến lược rộng lớn hơn của Musk nhằm tận dụng AI để tập trung quyền kiểm soát đối với bộ máy và sau đó kiếm tiền từ dòng dữ liệu thu được.
"Có một sự xuất hiện rõ ràng của việc tự lợi."
Richard Painter, một giáo sư về đạo đức chính phủ.
Nếu Musk trực tiếp ra lệnh triển khai Grok, ông có thể vi phạm các điều luật hình sự cấm các quan chức ảnh hưởng đến các quyết định có lợi cho lợi ích cá nhân của họ.
Tại trung tâm của cuộc tranh luận là vai trò kép của Grok như một chatbot công khai trên X và một công cụ phân tích thử nghiệm bên trong các bức tường chính phủ. Trang web của xAI thậm chí còn gợi ý rằng các tương tác của người dùng có thể được giám sát "cho các mục đích kinh doanh cụ thể," gợi ý rằng mọi truy vấn liên bang có thể được phản hồi vào vòng lặp học tập của Grok.
Hai nhân viên DOGE, Kyle Schutt và Edward Coristine, người sau được biết đến trên mạng với tên gọi "Big Balls," đã dẫn dắt phần lớn sáng kiến AI. Mặc dù họ từ chối bình luận, nỗ lực của họ phù hợp với một mô hình; trong năm qua, DOGE đã sa thải hàng ngàn quan chức sự nghiệp, kiểm soát các cơ sở dữ liệu bảo mật và ủng hộ AI như công cụ tối thượng cho việc cải cách hành chính.
Các nhà vận động bảo vệ quyền riêng tư cảnh báo rằng việc tích hợp AI chưa được kiểm định vào các môi trường an ninh quốc gia có rủi ro cao là công thức cho các vụ rò rỉ dữ liệu, trộm cắp danh tính và sự lợi dụng từ các đối thủ nước ngoài.
“Đây là một mối đe dọa về quyền riêng tư nghiêm trọng nhất mà bạn có thể gặp,” Albert Fox Cahn của Dự án Giám sát Công nghệ cho biết.
Cũng có nỗi lo rằng với ít tính minh bạch và ít quy định, thí nghiệm AI của DOGE có thể định hình lại quản trị dữ liệu liên bang, cho dù công chúng có nhận ra hay không.
Cryptopolitan Academy: Bạn mệt mỏi với sự biến động của thị trường? Hãy tìm hiểu cách DeFi có thể giúp bạn xây dựng thu nhập thụ động ổn định. Đăng ký ngay