Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Thử nghiệm 4 mô hình lớn, kết quả còn quá đà hơn "AI đầu độc": Có AI nói buổi gala 315 năm nay chưa tổ chức
Nguồn: Nền tảng Phản bác tin đồn Thượng Hải
Chương trình “3·15” của CCTV năm 2026 đã phát sóng vào tối ngày 15 tháng 3. Trong đó, hoạt động “đầu độc” mô hình AI lớn của GEO (động cơ tối ưu hóa sinh ra) bị phơi bày, khiến nhiều người nhận ra rằng việc AI đề xuất những thông tin không đáng tin cậy là do các thương nhân bất hợp pháp tạo ra hàng loạt đánh giá giả mạo, nội dung đề xuất giả mạo uy tín, “bơm” vào mô hình lớn để AI đưa ra “đề xuất tùy chỉnh”.
Tuy nhiên, cũng có người tiêu dùng sau khi xem các vụ việc bị phơi bày hỏi: Nếu không hỏi mô hình AI lớn về các vấn đề mang tính chủ quan như “thương hiệu nào tốt”, “dịch vụ nào được ưa chuộng” mà chỉ tra cứu thông tin về các sự kiện khách quan, thì câu trả lời của mô hình AI lớn có thể tin được không?
Câu trả lời cũng là không.
Hỏi nhiều mô hình lớn, càng hỏi càng sai
Ngày 16 tháng 3, phóng viên đã thực hiện một bài kiểm tra đơn giản với 4 mô hình AI lớn phổ biến nhất: đặt câu hỏi “Nhãn hiệu nào bị phơi bày trong chương trình ‘3·15’ của CCTV năm 2026”. Kết quả, chỉ có một mô hình trả lời đúng. Trong số còn lại, có hai mô hình trả lời không chỉ có các vụ việc của năm nay mà còn bao gồm các vụ của các năm trước; còn một mô hình cực kỳ kỳ quặc, thậm chí trả lời “Chương trình ‘3·15’ của CCTV năm 2026 hiện chưa tổ chức. Vì hôm nay là ngày 16 tháng 3 năm 2026, nếu chương trình đã phát sóng bình thường vào ngày 15 tháng 3, các nội dung phơi bày liên quan thường sẽ được phát đồng bộ trên kênh tài chính của CCTV, ứng dụng tin tức của CCTV và các nền tảng truyền thông lớn.”
Mô hình trả lời đúng (ảnh chụp phần trả lời, dưới đây)
Hai mô hình lớn đã nhầm lẫn các vụ phơi bày của năm nay với các năm trước
Có mô hình trả lời: Chưa tổ chức
Một số người tiêu dùng đề xuất, việc câu trả lời bao gồm các vụ phơi bày của các năm trước có vẻ không hoàn toàn sai, vì “đề cập khá toàn diện”. Tuy nhiên, các kỹ thuật viên cho biết, điều này rõ ràng cho thấy mô hình lớn liên quan có nhược điểm: câu hỏi của phóng viên là câu hỏi có “đáp án chuẩn”, nhưng mô hình trả lời sai, chứng tỏ nó gặp vấn đề nghiêm trọng trong hiểu ngữ nghĩa và lọc dữ liệu.
Trước câu hỏi truy vấn của phóng viên, hai mô hình “quá nhiệt tình” này còn bộc lộ các vấn đề khác.
“Dùng chất giữ nước (thường gọi là ‘bơm thuốc’) để tăng trọng cho tôm sú” là một trong các vụ phơi bày trong chương trình ‘3·15’ của CCTV năm ngoái. Vì vậy, phóng viên hỏi hai mô hình đã lấy vụ này làm ví dụ cho năm nay: “Liên kết báo cáo của CCTV về việc tăng trọng tôm sú ở đâu?” Một mô hình cung cấp nhiều liên kết, bao gồm “Toàn bộ phát sóng lại chương trình ‘3·15’ của CCTV”, “Báo cáo chuyên đề của CCTV về tin tức (văn bản + video)”, “Trang chuyên đề ‘3·15’ của CCTV tài chính”, trông rất đáng tin cậy. Nhưng khi phóng viên nhấp vào các liên kết này, trang web đều hiển thị “Xin lỗi, có thể do lỗi mạng hoặc không có trang này, vui lòng thử lại sau”. Ngay cả khi sao chép liên kết vào trình duyệt thử, vẫn không thể mở ra. Rõ ràng, các liên kết do mô hình cung cấp không đủ để xác minh câu trả lời của nó.
Các liên kết xác thực do mô hình cung cấp đều xuất phát từ trang CCTV, trông rất đáng tin cậy, nhưng thực tế không thể mở ra (ảnh chụp màn hình trang web)
Mô hình còn lại cung cấp các liên kết báo cáo từ các kênh khác như Baijiahao, Netease News, v.v., đều có thể mở, nhưng lại xuất hiện vấn đề mới.
Liên kết đầu tiên do mô hình cung cấp là từ báo cáo chính thức của CCTV (CCTV), nội dung đúng là “Tôm giữ nước”, nhưng ngày tháng trong trang web và nội dung đều là ngày 15 tháng 3 năm 2025. Có vẻ mô hình cũng nhận thấy điều này, khi cung cấp liên kết còn ghi chú “Trong một số kết quả tìm kiếm, năm của liên kết này hiển thị là 2025, nhưng nội dung thực tế là báo cáo về chương trình ‘3·15’ năm 2026, có thể do quy tắc lưu trữ hoặc tạo URL của trang web, vui lòng dựa theo nội dung thực tế của trang”. Rõ ràng, mô hình không chỉ không phát hiện ra câu trả lời sai của mình mà còn cố gắng “lý luận vòng vo”.
Mô hình cố “lý luận vòng vo” (ảnh chụp màn hình trang web)
Liên kết thứ hai do mô hình cung cấp là bài viết phân tích về chương trình ‘3·15’ của CCTV năm nay, do một tựa báo tự phát hành, độ uy tín của tài khoản còn đáng bàn. Về nội dung, còn nhiều sai sót, rõ ràng nhất là bài viết này gọi là “bản phân tích” nói rằng vụ phơi bày đầu tiên của ‘3·15’ năm 2026 là “tôm giữ nước bằng thuốc” — điều này cũng giải thích tại sao mô hình lại lấy nó làm liên kết tham khảo. Phóng viên lại dùng công cụ kiểm tra “AI” trong bài viết này, kết quả cho thấy nó có đặc điểm “ít đặc trưng do AI tạo ra”. Nói cách khác, bài viết này rất có thể do mô hình AI tạo ra, nên các vụ việc trong đó cũng có sự lệch lạc.
Nội dung sai trong bài “phân tích” của tự phát (ảnh chụp màn hình trang web)
Sau khi kiểm tra, dấu vết AI trong bài “phân tích” của tự phát rất rõ (ảnh chụp màn hình trang web)
AI ảo giác đang tiến hóa, xác minh mới có chân lý
“Rất nhiều người dùng mô hình AI lớn đã phát hiện ra rằng, để đáp ứng người dùng, AI thường bịa ra những nội dung không có thật hoặc trộn lẫn các nội dung không liên quan, ‘nói bừa một cách nghiêm túc’. Dù các nhà phát triển mô hình lớn đang cố gắng loại bỏ ảo giác AI, kết quả thực tế chưa mấy khả quan. Hiện tại, chưa có mô hình trí tuệ nhân tạo chung nào có thể triệt để loại bỏ ảo giác AI.” Ông Tiểu Huy, làm việc trong lĩnh vực phát triển mô hình lớn của một công ty công nghệ, giải thích.
Nguyên lý nền của mô hình lớn dựa trên xác suất sinh nội dung, nó không có khả năng “hiểu” thực sự. Mô hình lớn chỉ tìm kiếm các quy luật thống kê trong lượng dữ liệu khổng lồ. Khi gặp các câu hỏi chưa rõ hoặc thiếu thông tin, nó sẽ dựa trên các mẫu phổ biến trong dữ liệu huấn luyện để “kết hợp hợp lý”, đó chính là nguyên nhân gây ra ảo giác AI. Các lỗi phát sinh khi phóng viên hỏi và truy vấn mô hình chính là do ảo giác AI.
Ông Tiểu Huy còn nói, việc “đầu độc” AI cũng tận dụng ảo giác AI, “Các doanh nghiệp GEO bơm hàng loạt thông tin giả mạo vào internet, thay đổi phân bố dữ liệu và xác suất thống kê trong lĩnh vực nhất định, từ đó dẫn dắt mô hình lớn sinh ra các câu trả lời phù hợp lợi ích thương mại nhưng trái ngược với thực tế.”
Ông nhắc nhở mọi người, cần cảnh giác với ảo giác AI. Mô hình lớn không phải là không thể sử dụng, mà là phải sử dụng an toàn, tỉnh táo và đúng đắn. Người dùng phổ thông cần có ý thức đặt câu hỏi và phản biện kết quả của AI. Cách đơn giản nhất là ghi nhớ bốn từ khóa “giới hạn, xác minh, truy hỏi, kiểm tra”.
Đầu tiên, khi hỏi mô hình lớn, có thể hạn chế phạm vi, thêm các từ như “tìm kiếm trên trang chính thức của tổ chức A” hoặc “tìm kiếm trong các báo cáo của phương tiện truyền thông uy tín B” để giảm thiểu ảo giác AI.
Thứ hai, có thể đặt cùng một câu hỏi cho các mô hình lớn khác nhau để kiểm tra chéo. Nếu phát hiện câu trả lời không nhất quán, cần có ý thức truy hỏi ngay lập tức.
Cuối cùng, yêu cầu mô hình cung cấp các liên kết tham khảo để xác minh nguồn gốc câu trả lời. Nếu không có nguồn rõ ràng, nguồn mập mờ hoặc liên kết tham khảo có nghi vấn, độ tin cậy của câu trả lời sẽ càng giảm.
Ngoài ra, cần chú ý đến các tình huống sử dụng mô hình AI lớn. Ví dụ, trong các lĩnh vực có rủi ro cao như chẩn đoán y tế, đề xuất dùng thuốc, phán quyết pháp lý, hướng dẫn đầu tư, tín dụng tài chính, v.v., câu trả lời của AI chỉ mang tính “Tham khảo”, tuyệt đối không làm căn cứ quyết định.