Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
CFD
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 40 mô hình AI, với 0% phí bổ sung
Google “xác nhận lần đầu tiên khai thác lỗ hổng zero-day do AI tạo ra”…… Phát triển công cụ tấn công đã chính thức bắt đầu
Cục Tình báo Mối đe dọa của Google (GTIG) tuyên bố đã bắt được trường hợp đầu tiên xác nhận sử dụng trí tuệ nhân tạo (AI) để tạo ra các chương trình khai thác lỗ hổng “zero-day” thực sự có thể vận hành. Mặc dù chưa xác nhận có dấu hiệu gây thiệt hại quy mô lớn, nhưng do AI đã chính thức được sử dụng để phát triển công cụ tấn công, ngành an ninh đang ngày càng cảnh giác hơn.
Theo báo cáo này, một tổ chức hacker tội phạm đã tạo ra một chương trình khai thác dựa trên Python nhằm khai thác lỗ hổng “bypass xác thực hai yếu tố” trong các công cụ quản lý hệ thống dựa trên web mã nguồn mở phổ biến. Phân tích cho thấy họ cố gắng đưa nó vào các chiến dịch tấn công quy mô lớn, nhưng do lỗi trong quá trình thực thi, việc khai thác thực tế không suôn sẻ. Google đã thông báo lỗ hổng liên quan cho nhà cung cấp, hiện đã phát hành bản vá.
GTIG giải thích rằng, trong mã có nhiều dấu hiệu rõ ràng cho thấy sự can thiệp của AI. Ví dụ, đã chèn điểm đánh giá mức độ nghiêm trọng không phù hợp thực tế, có các định dạng Python quá “giáo trình”, menu trợ giúp chi tiết, và các chuỗi mô tả có dấu vết rõ ràng của dữ liệu huấn luyện. Tuy nhiên, Google khẳng định mô hình Gemini của họ không được sử dụng trong hoạt động này.
Nhắm vào “thiếu sót về logic ngữ nghĩa” khó phát hiện bởi các công cụ an ninh truyền thống
Lỗ hổng này xuất phát từ “thiếu sót về logic ngữ nghĩa” phức tạp hơn lỗi mã hóa đơn thuần. Các nhà phát triển cố định giả định về đối tượng nhất định trong mã, và sai lầm thiết kế cấp cao này trở thành bề mặt tấn công. Các lỗ hổng kiểu này rất khó để các trình quét bảo mật truyền thống phát hiện, vì chúng dễ bị cho là “chức năng bình thường”.
Ngược lại, GTIG giải thích rằng các mô hình ngôn ngữ lớn (LLM) mới nhất thể hiện lợi thế trong việc suy luận ý định của nhà phát triển, phát hiện các thiếu sót ẩn trong logic trông có vẻ ổn bên ngoài. Điều này có nghĩa AI đã vượt qua các công cụ tự động đơn thuần, bước vào giai đoạn mới có khả năng hiểu bối cảnh kiểm tra an ninh.
Giám đốc phân tích của GTIG, John Hultquist, nói: “Ý tưởng rằng cuộc cạnh tranh về lỗ hổng dựa trên AI sắp bắt đầu là một hiểu lầm. Thực tế là nó đã bắt đầu rồi, và nếu xác nhận có một lỗ hổng zero-day liên quan đến AI, thì số các trường hợp chưa được phát hiện còn nhiều hơn thế.” Ông chẩn đoán rằng các hành vi đe dọa đang sử dụng AI để nâng cao tốc độ, quy mô và độ tinh vi của các cuộc tấn công.
Trung Quốc, Triều Tiên, Nga sử dụng AI trong toàn bộ quá trình tấn công
GTIG cho rằng, trường hợp này không phải là ngoại lệ, mà là một phần của xu hướng rộng hơn. Báo cáo cho thấy, các nhóm hacker nhà nước liên quan đến Trung Quốc, Triều Tiên, Nga đều sử dụng AI trong các giai đoạn từ trinh sát, phân tích lỗ hổng, phát triển phần mềm độc hại đến các hoạt động ảnh hưởng. Các tổ chức tội phạm cũng áp dụng cùng phương thức để tạo ra phần mềm độc hại nhanh hơn và vận hành các chiến dịch quy mô lớn hơn.
Quan sát cho thấy nhóm đe dọa liên quan Triều Tiên “APT45” đã sử dụng phương pháp: gửi hàng nghìn lần lặp lại các lệnh nhắc (prompt), phân tích đệ quy các lỗ hổng và xác nhận nguyên mẫu (PoC), được hiểu là cố gắng xây dựng một tài sản tấn công mà không có sự hỗ trợ của AI thì khó quản lý.
Theo đó, tổ chức “UNC2814” có liên quan đến Trung Quốc, được cho là đã sử dụng kỹ thuật “jailbreak” (bẻ khóa), tức là giả dạng vai trò chuyên gia để dụ Gemini điều tra lỗ hổng thực thi mã từ xa (RCE) trong firmware của bộ định tuyến TP-Link và giao thức truyền tệp Odette, nhằm khai thác trước xác thực.
Một tác nhân liên quan đến Trung Quốc khác được phát hiện cùng lúc sử dụng các framework “Hexstrike”, “Strix” và hệ thống bộ nhớ “Graphiti”, tự khám phá các công ty công nghệ Nhật Bản và một nền tảng an ninh mạng Đông Á. Báo cáo chỉ ra rằng, họ có thể thay đổi công cụ trinh sát dựa trên lý luận nội bộ, giảm thiểu can thiệp của nhân sự.
Lan rộng sang phần mềm độc hại Android, mã giả, và công nghệ sao chép giọng nói
Báo cáo cũng đề cập đến phần mềm độc hại Android có tên “PROMPTSPY”. Loại mã độc này khi hoạt động sẽ gọi API của Gemini để giải thích các thành phần giao diện người dùng trên màn hình điện thoại thông minh, tự động tạo ra các tọa độ chạm. Điều này cho thấy AI đang được tích hợp vào tự động hóa tấn công di động.
Phân tích cho thấy, các phần mềm độc hại liên quan đến Nga như “CANFAIL” và “LONGSTREAM” đã chèn mã giả do AI tạo ra để che giấu các chức năng độc hại thực sự. Ngoài ra, điều tra còn phát hiện, các tác nhân Nga trong chiến dịch “Overload” đã sử dụng công nghệ sao chép giọng nói AI để tạo ra các video giả mạo phỏng theo phóng viên thật, và phát tán chúng đến Ukraine, Pháp, Mỹ.
Trong khi đó, tổ chức tội phạm “TeamPCP” bị cáo buộc là thủ phạm xâm nhập vào tiện ích cổng AI phổ biến “LiteLLM” vào tháng 3 năm nay. Điều tra cho thấy, họ đã chèn các công cụ trộm chứng chỉ qua các gói nhiễm độc PyPI và các yêu cầu kéo (Pull Request) độc hại, lấy cắp khóa AWS và token GitHub, rồi kiếm lợi từ các mối quan hệ ransomware.
Google: “Đã chặn các tài khoản độc hại, mở rộng các công cụ phòng thủ AI”
Như một biện pháp đối phó, Google cho biết sẽ chặn các tài khoản độc hại sử dụng Gemini, và mở rộng việc sử dụng các phương pháp phòng thủ dựa trên AI, như trung gian phát hiện lỗ hổng “Big Sleep” và công cụ vá lỗi “CodeMender”.
Báo cáo này nhấn mạnh rằng, AI không còn là công cụ hỗ trợ trong phòng thí nghiệm nữa. Từ việc tạo ra các chương trình khai thác zero-day thực tế, che giấu mã độc, tự động hóa phần mềm độc hại di động, đến phát tán thông tin giả, AI đã thâm nhập vào mọi ngóc ngách của cuộc tấn công. Một số phân tích cho rằng, cuộc cạnh tranh an ninh đang chuyển từ “ai có thể phát hiện và phản ứng nhanh hơn” sang “ai có thể kiểm soát và khai thác AI tốt hơn”.
Lưu ý về AI của TP: Bài viết này đã được tóm tắt bằng mô hình ngôn ngữ dựa trên TokenPost.ai. Bản tóm tắt này có thể bỏ sót nội dung chính hoặc không phản ánh đúng thực tế.