Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Nhà nghiên cứu của Anthropic trình diễn: Sử dụng LLM để khai thác hàng loạt 500 lỗ hổng zero-day
Headline
Nhà nghiên cứu Anthropic trong buổi trình diễn [un]prompted 2026: LLM khai thác hàng loạt 500 lỗ hổng zero-day
Summary
Rohan Paul đã chia sẻ video bài phát biểu của Nicholas Carlini tại [un]prompted 2026, với tiêu đề “Black-hat LLMs”. Carlini là nhà nghiên cứu an ninh AI của Anthropic, ông đã trình diễn cách mà kẻ tấn công có thể sử dụng mô hình ngôn ngữ lớn để định vị và khai thác lỗ hổng phần mềm. Con số cốt lõi: 500 lỗ hổng zero-day được tạo ra tự động. Điều đáng chú ý hơn: khi khả năng của LLM trong nghiên cứu lỗ hổng gia tăng, mô hình mối đe dọa đang chuyển dịch - từ “cách tấn công mô hình AI” sang “AI bắt đầu tấn công các hệ thống khác sẽ ra sao”.
Analysis
Đây không phải là suy diễn trên giấy, mà là bằng chứng có thể tái hiện. Carlini đã ghi lại những thiếu sót thực sự mà LLM khai thác được mà các phương pháp kiểm thử mờ và phân tích tĩnh bỏ sót, bao gồm các vấn đề liên quan đến việc vượt qua xác thực. Ông liên tục nhấn mạnh hiệu quả trong blog của mình:
Phản hồi từ cộng đồng (thảo luận tại hội nghị và các chuỗi trên Hacker News) cho thấy ngành công nghiệp đang nghiêm túc đối mặt với sự thay đổi này. Có một quan điểm phản biện hợp lý: Việc khai thác lỗ hổng hỗ trợ bởi AI có thể có lợi hơn cho bên phòng thủ, vì các doanh nghiệp có thể hệ thống hóa triển khai trong CI/CD và cơ sở tài sản, bao quát rộng hơn và phát hiện sớm hơn. Nhưng Carlini đã rõ ràng nói rằng kết quả vẫn không chắc chắn - cuối cùng là phòng thủ hay tấn công sẽ hưởng lợi nhiều hơn, hiện tại không ai có thể kết luận.
Tóm tắt ảnh hưởng tấn công và phòng thủ
Kết luận:
Impact Assessment
Đánh giá: Chúng ta đang ở giai đoạn “sớm nhưng tăng tốc”. Những đội ngũ phòng thủ có khả năng kỹ thuật và quy trình, các nhà cung cấp an ninh, các doanh nghiệp lớn, và các quỹ có khả năng phân bổ tài chính và nguồn lực để ươm tạo chuỗi công cụ sẽ có lợi thế nhất. Những cá nhân trong đội đỏ sẽ được hưởng lợi, nhưng những người triển khai hệ thống hóa sẽ sớm nhận được lợi nhuận lớn hơn.