Các hacker đang lợi dụng lỗ hổng Claude Code để tấn công người dùng mã hóa, cần cảnh giác với rủi ro an ninh

robot
Đang tạo bản tóm tắt

Gần đây xuất hiện một mối đe dọa an ninh nghiêm trọng: tin tặc đang lợi dụng lỗ hổng nguy hiểm trong công cụ Claude Code của công ty Anthropic để thực hiện các cuộc tấn công lừa đảo nhằm vào người dùng tiền mã hóa. Theo báo cáo của nhà nghiên cứu an ninh Adam Chester và xác nhận của nhóm an ninh SlowFog, sự kiện này đã chuyển từ rủi ro lý thuyết thành mối đe dọa thực tế.

Lỗ hổng nâng quyền nguy hiểm trong Anthropic Claude Code

Lỗ hổng này (CVE-2025-64755) chủ yếu liên quan đến các lỗi nâng quyền và thực thi lệnh, đặc biệt nghiêm trọng khi kẻ tấn công có thể bỏ qua xác thực của người dùng để trực tiếp thực thi lệnh. Nhà nghiên cứu 23pds chỉ ra rằng, điều này tương tự như các lỗ hổng tương tự đã được tiết lộ trong trình chỉnh sửa mã AI Cursor trước đó, cho thấy các công cụ lập trình AI này có thể đối mặt với các điểm yếu an ninh hệ thống. Mã chứng minh khái niệm (PoC) đã được công khai, điều này làm giảm đáng kể rào cản trong việc khai thác lỗ hổng.

Nhóm an ninh SlowFog xác nhận hoạt động tấn công, người dùng tiền mã hóa trở thành mục tiêu chính

Điều đáng lo ngại là, hacker không chỉ dừng lại ở giai đoạn xác minh kỹ thuật. Nhóm nghiên cứu an ninh SlowFog đã xác nhận qua các nguồn tin tình báo rằng, kẻ tấn công đang sử dụng các phương pháp lừa đảo qua email để khai thác lỗ hổng này nhằm tấn công cộng đồng người dùng tiền mã hóa. Người dùng tiền mã hóa, do giá trị tài sản lớn, trở thành mục tiêu chính. Nếu thành công, các cuộc tấn công này có thể dẫn đến lộ khóa riêng, mất tiền và các hậu quả nghiêm trọng khác.

Khuyến nghị bảo vệ an ninh và suy nghĩ lại ngành công nghiệp

Để đối phó với mối đe dọa này, người dùng cần chủ động thực hiện các biện pháp phòng vệ: tránh sử dụng Claude Code qua các liên kết chưa xác thực, thường xuyên cập nhật phiên bản công cụ AI, cảnh giác với bất kỳ yêu cầu nào đề nghị cấp quyền thực thi lệnh. Đồng thời, sự kiện này cũng phản ánh rằng các công cụ lập trình AI phát triển nhanh có thể thiếu các quy trình kiểm tra an ninh chặt chẽ, ngành công nghiệp cần thiết lập các tiêu chuẩn an toàn và cơ chế phản ứng lỗ hổng nghiêm ngặt hơn.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim