Phản bác lý thuyết tấn công mạng đáng sợ của AI! Nghiên cứu: Hacker thích hình ảnh khỏa thân AI nhất, tại sao không thích Vibe Coding?

Nghiên cứu chỉ ra rằng, AI tạo sinh không tạo ra siêu hacker, phần lớn chỉ dùng cho lừa đảo SEO hoặc tạo ảnh khỏa thân và các tội phạm cấp thấp khác. Hacker lo ngại giảm kỹ năng và từ chối phụ thuộc quá mức vào AI, thất nghiệp của nhân lực công nghệ chảy vào thị trường đen mới là mối lo ngại thực sự về an ninh mạng.

Phủ nhận luận điểm về tấn công mạng đáng sợ do AI, bài báo chỉ ra rằng AI tạo sinh chưa sinh ra siêu hacker

Trong những năm gần đây, các công ty an ninh mạng, cơ quan chính phủ và các ông lớn công nghệ AI liên tục cảnh báo rằng AI tạo sinh sẽ mang lại thế hệ hacker mới mạnh mẽ hơn, nhưng gần đây một bài báo đã thách thức quan điểm này.

Bài báo mang tên 《Stand-Alone Complex or Vibercrime?》 do các nhà nghiên cứu từ Đại học Cambridge, Đại học Edinburgh và Đại học Strathclyde cùng viết, đã khảo sát tác động thực chất của AI tạo sinh đối với tội phạm mạng, trực tiếp thách thức giả thuyết AI sẽ gây ra các cuộc tấn công hủy diệt.

Nhóm nghiên cứu phân tích dữ liệu từ các diễn đàn hacker hơn 15 năm, phát hiện các mối đe dọa mạng hiện tại vẫn rất bình thường. Trong đa số trường hợp, AI chủ yếu được dùng để tối ưu hóa các hoạt động lừa đảo tự động đã có, lừa đảo SEO và xử lý các công việc hành chính cấp thấp. Những hacker mà mọi người tưởng tượng là siêu hacker, phần lớn chỉ dùng ChatGPT để viết spam hoặc tạo ảnh khỏa thân để kiếm lợi.

Hơn 90% các cuộc thảo luận trên diễn đàn hacker không liên quan đến tội phạm AI

Để hiểu rõ hình dạng thực sự của thế giới tội phạm mạng ngầm, nhóm nghiên cứu đã trích xuất và phân tích 97.895 bài viết từ cơ sở dữ liệu của Trung tâm tội phạm mạng Cambridge, kể từ khi ChatGPT ra mắt vào tháng 11 năm 2022.

Họ sử dụng mô hình chủ đề để phân tích, đồng thời đọc thủ công hơn 3.200 bài viết. Kết quả cho thấy, AI tạo sinh hiện tại chưa thực sự giảm bớt rào cản kỹ thuật để người mới bắt đầu bước vào tội phạm mạng.

Dữ liệu cho thấy, trong mẫu, có tới 97,3% bài viết được phân loại là khác, nghĩa là nội dung được thảo luận không liên quan gì đến tội phạm AI, chỉ có 1,9% đề cập đến việc sử dụng công cụ Vibe Coding.

Nguồn hình ảnh: Nghiên cứu bài báo Phát hiện ra rằng, hơn 90% các cuộc thảo luận trên diễn đàn hacker không liên quan đến tội phạm AI

“Chatbot AI tối tối” chỉ là chiêu trò tiếp thị

Nhìn lại năm 2023, các chatbot AI như WormGPT và FraudGPT, tự xưng có khả năng tấn công độc hại, từng chiếm sóng các phương tiện truyền thông lớn.

Nhưng các nhà nghiên cứu từ dữ liệu diễn đàn phát hiện rằng, đa số các bài đăng về các sản phẩm AI tối tối đều là người dùng cầu xin quyền sử dụng miễn phí hoặc phàn nàn rằng các công cụ này hoàn toàn không hoạt động.

Một nhà phát triển dịch vụ AI tối tối nổi tiếng còn thừa nhận với thành viên diễn đàn rằng, sản phẩm này chỉ là một chiến thuật tiếp thị, về bản chất chỉ là một ChatGPT không bị giới hạn.

Nghiên cứu chỉ ra rằng, đến cuối năm 2024, các phương pháp jailbreak các mô hình chính thống đã trở nên như các dụng cụ dùng một lần, phần lớn sẽ hết hạn trong vòng chưa đầy một tuần. Các mô hình mã nguồn mở dù có thể jailbreak vô hạn, nhưng chạy rất tốn tài nguyên và thiếu cập nhật, điều này cho thấy các cơ chế bảo vệ an toàn của hệ thống AI hiện tại thực sự có hiệu quả.

Hacker không thích Vibe Coding, lo ngại giảm kỹ năng

Bài báo còn trực tiếp phản hồi báo cáo của Anthropic công bố vào tháng 8 năm 2025, trong đó tuyên bố rằng Claude Code đã bị sử dụng để tống tiền qua tấn công tâm lý đối với 17 tổ chức, nhưng trong các diễn đàn nghiên cứu, không phát hiện ra mô hình này.

Trong các diễn đàn khảo sát, mục đích chính của trợ lý viết mã AI là như một công cụ tự động hoàn thành cho các lập trình viên thành thạo, các hacker có kỹ năng thấp vẫn thích dùng các script đã có sẵn và hiệu quả.

Một người dùng diễn đàn cảnh báo rằng, việc AI hỗ trợ viết mã sẽ làm tăng rủi ro về mã không an toàn; một hacker khác còn trực tiếp nói rằng, quá phụ thuộc vào Vibe Coding sẽ khiến “kỹ năng hacker” nhanh chóng suy giảm.

Thực tế ứng dụng AI trong tội phạm mạng: nội dung rác và lừa đảo tình dục

Theo bài báo này, lĩnh vực AI thực sự giúp các tội phạm chủ yếu nằm ở tầng thấp nhất của chuỗi thức ăn.

Ví dụ, các kẻ lừa đảo SEO đang dùng mô hình AI để sản xuất hàng loạt bài viết rác; các kẻ lừa đảo tình cảm và các nhà điều hành nội dung phim người lớn bắt đầu kết hợp công nghệ sao chép giọng nói AI; các nhà đầu tư muốn làm giàu nhanh chóng thì sản xuất hàng loạt sách điện tử AI, bán với giá 20 USD mỗi cuốn.

Nghiên cứu còn phát hiện ra thị trường đáng lo ngại nhất là dịch vụ tạo ảnh khỏa thân. Có nhà cung cấp tuyên bố có thể dùng AI để khiến bất kỳ cô gái nào cởi quần áo, giá từ 1 USD cho 1 bức ảnh, 8 USD cho 10 bức, 40 USD cho 50 bức và 75 USD cho 90 bức.

Các nhà nghiên cứu kết luận rằng, cách AI làm thay đổi hệ sinh thái tội phạm mạng lớn nhất chính là những lập trình viên bị sa thải trong ngành công nghệ hợp pháp, chuyển sang hoạt động ngầm. Kinh tế suy thoái và thị trường việc làm ảm đạm chính là nguyên nhân thúc đẩy các nhà phát triển có kỹ năng cao hợp pháp gia nhập cộng đồng lừa đảo và tội phạm mạng.

Xem thêm:
Giám đốc AI của Microsoft: AI trong 18 tháng tới sẽ tự động hóa công việc văn phòng, nhưng cũng có thể gây ra các sự cố an ninh lớn

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim