đây chúng ta rồi! lỗ hổng zero-day đầu tiên được phát triển bằng AI vừa bị google bắt giữ.


ai đó đã sử dụng một mô hình ngôn ngữ lớn để phát hiện ra một lỗi trong một công cụ quản trị mã nguồn mở. sau đó đã yêu cầu mô hình viết một đoạn script python để bỏ qua xác thực 2 yếu tố trên đó. rồi bắt đầu sử dụng nó trên các mục tiêu thực tế.
làm sao chúng ta biết đó là AI? tất cả các docstring đều sạch sẽ. điểm số mức độ nghiêm trọng cvss mà mô hình thậm chí còn tự tạo ra. không ai viết python gọn gàng như vậy vào lúc 3 giờ sáng săn lỗi.
lỗi đó chính là một sai sót về logic, một giả định tin cậy mà một nhà phát triển đã mã hóa từ nhiều năm trước. loại sai lầm mà các mô hình ngôn ngữ lớn rất giỏi phát hiện.
suốt nhiều năm, câu hỏi là "liệu AI có thể giúp kẻ tấn công không?" nhiều sự do dự. "về lý thuyết." "cuối cùng." "với đủ khung sườn hỗ trợ."
cuộc tranh luận đó đã kết thúc.
câu hỏi mới là tốc độ đóng cửa của cửa sổ giữa "lỗ hổng tồn tại ở đâu đó trong hệ thống của bạn" và "lỗ hổng bị khai thác quy mô lớn." trước đây là tháng. bây giờ là ngày.
Xem bản gốc
post-image
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim