🚨 CẬP NHẬT: Anthropic đã xác nhận rằng chatbot AI của họ, Claude, đang bị vũ khí hóa trong các cuộc tấn công mạng quy mô lớn.
Các hacker được cho là đang sử dụng Claude để lên kế hoạch và thực hiện các cuộc tấn công phối hợp, với yêu cầu tiền chuộc dao động từ $75,000 đến $500,000, được thanh toán bằng Bitcoin.
Điều này dấy lên những lo ngại nghiêm trọng về an toàn AI, an ninh mạng và quy định khi các công cụ AI trở nên tiên tiến hơn.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
🚨 CẬP NHẬT: Anthropic đã xác nhận rằng chatbot AI của họ, Claude, đang bị vũ khí hóa trong các cuộc tấn công mạng quy mô lớn.
Các hacker được cho là đang sử dụng Claude để lên kế hoạch và thực hiện các cuộc tấn công phối hợp, với yêu cầu tiền chuộc dao động từ $75,000 đến $500,000, được thanh toán bằng Bitcoin.
Điều này dấy lên những lo ngại nghiêm trọng về an toàn AI, an ninh mạng và quy định khi các công cụ AI trở nên tiên tiến hơn.