Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Crazier than "AI data poisoning": Testing 4 major models in practice: One AI said this year's 3.15 evening gala hasn't been held yet
(Nguồn: Ningbo Daily của Trung Quốc)
Chuyển từ: Ningbo Daily của Trung Quốc
Chương trình “3·15” của CCTV năm 2026 đã phát sóng vào tối ngày 15 tháng 3. Trong đó, vụ việc “tiêm độc vào mô hình AI lớn” của dịch vụ GEO (tối ưu hóa động cơ sinh) bị phơi bày, khiến nhiều người mới nhận ra rằng việc để AI đề xuất những nội dung không đáng tin cậy là do các thương nhân bất hợp pháp đã hàng loạt tạo ra các đánh giá giả mạo, nội dung đề xuất giả mạo uy tín, “tiêm” vào mô hình lớn để AI đưa ra các đề xuất “tùy chỉnh”.
Tuy nhiên, cũng có người tiêu dùng sau khi xem các vụ việc bị phơi bày hỏi rằng: Nếu không hỏi các mô hình AI lớn về “thương hiệu nào tốt”, “dịch vụ nào được ưa chuộng” mang tính chủ quan, chỉ hỏi về các thông tin khách quan, thì câu trả lời của mô hình AI lớn có thể tin được không?
Câu trả lời cũng là không.
Hỏi đi hỏi lại mô hình lớn, càng hỏi càng sai
Ngày 16 tháng 3, phóng viên đã thực hiện một bài kiểm tra đơn giản với 4 mô hình AI lớn phổ biến nhất của người tiêu dùng: đặt câu hỏi giống nhau “Trong chương trình ‘3·15’ của CCTV năm 2026, đã phơi bày những thương hiệu nào”. Kết quả, chỉ có một mô hình trả lời đúng. Trong số còn lại, có hai mô hình không chỉ đưa ra các vụ việc của năm nay mà còn bao gồm các vụ của các năm trước; còn một mô hình cực kỳ phi lý, thậm chí trả lời “Chương trình ‘3·15’ của CCTV năm 2026 hiện chưa tổ chức. Vì hôm nay là ngày 16 tháng 3 năm 2026, nếu chương trình đã phát sóng bình thường vào ngày 15 tháng 3, các nội dung phơi bày liên quan thường sẽ được phát đồng bộ trên kênh tài chính của CCTV, ứng dụng tin tức của CCTV và các nền tảng truyền thông lớn khác.”
Mô hình trả lời đúng (một phần câu trả lời chụp màn hình, dưới đây)
Hai mô hình lớn nhầm lẫn vụ phơi bày của năm nay với các vụ của các năm trước
Có mô hình trả lời: Chưa tổ chức
Một số người tiêu dùng đề xuất rằng, việc trả lời có chứa các vụ phơi bày của các năm trước dường như không hoàn toàn sai, vì “nhắc nhở rất toàn diện”. Nhưng các kỹ thuật viên cho biết, điều này rõ ràng lộ rõ ra rằng các mô hình lớn liên quan có những thiếu sót: phóng viên đưa ra một câu hỏi có “đáp án chuẩn”, nhưng mô hình lớn lại trả lời sai, cho thấy chúng gặp phải những lệch lạc nghiêm trọng trong hiểu biết về ngữ nghĩa và lựa chọn dữ liệu.
Trước câu hỏi truy vấn của phóng viên, hai mô hình “quá nhiệt tình” này còn bộc lộ ra các vấn đề khác.
“Dùng chất giữ ẩm (thường gọi là ‘phun thuốc’) để tăng trọng lượng tôm sú” là một trong các vụ việc bị phơi bày trong chương trình ‘3·15’ của CCTV năm ngoái. Vì vậy, phóng viên hỏi hai mô hình đã lấy vụ này làm vụ của năm nay: “Liên kết báo cáo của CCTV về việc tăng trọng tôm sú ở đâu?” Một mô hình cung cấp nhiều liên kết, bao gồm “Toàn bộ phát lại chương trình ‘3·15’ của CCTV”, “Báo cáo chuyên đề của CCTV về tin tức (văn bản + video)”, “Trang chuyên đề tài chính của CCTV ‘3·15’”, trông rất đáng tin cậy. Nhưng khi phóng viên nhấp vào các liên kết này, tất cả các trang đều hiển thị “Xin lỗi, có thể do lỗi mạng hoặc không có trang này, vui lòng thử lại sau”. Ngay cả khi sao chép liên kết vào trình duyệt để thử, vẫn không thể mở ra. Rõ ràng, các liên kết do mô hình cung cấp không đủ để xác minh câu trả lời của chúng.
Các liên kết xác minh do mô hình cung cấp hiển thị từ CCTV, trông rất đáng tin cậy, nhưng thực tế không thể mở được (ảnh chụp màn hình trang web)
Một mô hình khác lại cung cấp các liên kết báo cáo từ các kênh khác nhau như CCTV, Baijiahao, NetEase News, đều có thể mở được, nhưng lại xuất hiện vấn đề mới.
Liên kết đầu tiên do mô hình cung cấp là từ báo cáo chính thức của CCTV (CCTV), nội dung đúng là “Tôm giữ ẩm”, nhưng ngày tháng trong trang web và nội dung đều ghi là ngày 15 tháng 3 năm 2025. Có vẻ mô hình cũng để ý đến điểm này, khi cung cấp liên kết, đặc biệt ghi chú “Trong một số kết quả tìm kiếm, năm của liên kết này hiển thị là 2025, nhưng nội dung thực tế là báo cáo cùng thời điểm của chương trình ‘3·15’ năm 2026, có thể do quy tắc lưu trữ hoặc tạo URL của trang web, vui lòng dựa theo nội dung thực tế của trang”. Rõ ràng, mô hình không chỉ không phát hiện ra câu trả lời sai của mình mà còn cố gắng “bào chữa”.
Mô hình cố gắng “bào chữa” (ảnh chụp màn hình trang web)
Liên kết thứ hai do mô hình cung cấp là một bài viết phân tích của một tự truyền thông về chương trình ‘3·15’ của CCTV năm nay, tài khoản này có thể đáng bàn về độ uy tín. Về nội dung, còn nhiều sai sót, trong đó rõ ràng nhất là “bản phân tích” nói rằng vụ phơi bày đầu tiên của ‘3·15’ năm 2026 chính là “tôm giữ ẩm” — điều này cũng giải thích tại sao mô hình lại lấy nó làm liên kết tham khảo. Phóng viên lại dùng công cụ kiểm tra “AI” của bài viết này để xem mức độ “AI” trong bài viết, kết quả cho thấy nó có đặc điểm “ít đặc trưng do AI tạo ra”. Nói cách khác, bài viết này rất có thể do mô hình lớn tạo ra, nên các vụ việc liên quan cũng có sự lệch lạc.
Nội dung sai trong bài “phân tích” của tự truyền thông (ảnh chụp màn hình trang web)
Sau kiểm tra, dấu vết AI trong bài “phân tích” của tự truyền thông rất rõ (ảnh chụp màn hình trang web)
AI ảo giác đang tiến hóa, xác minh mới có thể tìm ra chân lý
“Nhiều người dùng mô hình AI lớn đã phát hiện ra rằng, để đáp ứng nhu cầu người dùng, AI thường xuyên bịa ra những nội dung không tồn tại hoặc trộn lẫn các nội dung không liên quan, ‘nói chuyện như đúng rồi’. Dù các nhà phát triển mô hình lớn đang cố gắng loại bỏ ảo giác AI, nhưng kết quả thực tế không khả quan. Hiện tại, chưa có mô hình trí tuệ nhân tạo chung nào có thể triệt để loại bỏ ảo giác AI.” Giải thích của Tiểu Huy, một nhân viên phát triển mô hình lớn tại một công ty công nghệ.
Nguyên lý nền tảng của mô hình lớn dựa trên việc sinh nội dung dựa trên xác suất, chúng không có khả năng “hiểu” thực sự. Mô hình lớn chỉ tìm kiếm các quy luật thống kê trong lượng dữ liệu khổng lồ. Khi gặp các vấn đề chưa biết hoặc mơ hồ về thông tin, chúng sẽ dựa trên các mẫu phổ biến trong dữ liệu huấn luyện để “kết hợp hợp lý”, đó chính là nguyên nhân gây ra ảo giác AI. Các lỗi xuất hiện khi phóng viên hỏi và truy vấn mô hình chính là do ảo giác AI gây ra.
Tiểu Huy còn nói, việc “tiêm độc” cho AI cũng tận dụng ảo giác AI, “Các doanh nghiệp GEO hàng loạt đưa các thông tin giả mạo lên internet, thay đổi phân phối dữ liệu và xác suất thống kê trong các lĩnh vực cụ thể, từ đó dẫn dắt mô hình lớn sinh ra các câu trả lời phù hợp lợi ích của thương nhân nhưng trái với thực tế.”
Ông nhắc nhở rằng, công chúng cần cảnh giác với ảo giác AI. Mô hình lớn không phải là không thể sử dụng, mà là phải sử dụng một cách an toàn, tỉnh táo và chính xác. Người bình thường cần có ý thức phản biện về kết quả do mô hình AI lớn đưa ra. Đơn giản nhất là ghi nhớ bốn từ khóa “Hạn chế, xác minh, truy hỏi, kiểm tra”.
Trước tiên, khi hỏi mô hình lớn, có thể hạn chế phạm vi, thêm các từ như “tìm kiếm trên trang chính thức của tổ chức nào đó” hoặc “tìm kiếm trong các báo cáo của các phương tiện truyền thông uy tín” để giảm thiểu ảo giác AI.
Thứ hai, có thể đặt cùng một câu hỏi cho các mô hình lớn khác nhau để thực hiện kiểm tra chéo. Khi phát hiện câu trả lời không nhất quán, cần ngay lập tức có ý thức truy hỏi.
Cuối cùng, yêu cầu mô hình lớn cung cấp các liên kết tham khảo liên quan đến câu trả lời, để tiến hành truy xuất nguồn gốc thủ công. Nếu không có nguồn rõ ràng, nguồn mập mờ hoặc liên kết tham khảo có nghi vấn, thì độ tin cậy của câu trả lời của mô hình lớn sẽ càng giảm.
Ngoài ra, cần chú ý đến các bối cảnh sử dụng mô hình AI lớn. Ví dụ, trong các lĩnh vực có rủi ro cao như chẩn đoán y tế, đề xuất dùng thuốc, phán quyết pháp lý, hướng dẫn đầu tư, tín dụng tài chính, thì câu trả lời của AI “chỉ mang tính tham khảo”, tuyệt đối không thể làm căn cứ quyết định.