Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Sử Dụng Chatbot AI Của Bạn Như Một Công Cụ Tìm Kiếm? Hãy Cẩn Thận Với Những Gì Bạn Tin Tưởng
(MENAFN- The Conversation) Trong chiến tranh thế giới thứ nhất, chính phủ Anh đang tìm cách giúp người dân kéo dài nguồn thực phẩm hạn chế của mình. Họ tìm thấy các tờ rơi của một nhà thảo dược nổi tiếng thế kỷ 19, nói rằng lá cây rhubarb có thể được dùng như một loại rau cùng với thân cây.
Chính phủ đã in các tờ rơi của riêng mình khuyên mọi người ăn lá rhubarb như salad thay vì vứt bỏ chúng. Nhưng có một vấn đề: lá rhubarb có thể gây độc. Người ta báo cáo đã chết hoặc bị ốm.
Lời khuyên đã được chỉnh sửa và các tờ rơi bị thu hồi. Nhưng trong chiến tranh thế giới thứ hai, chính phủ lại một lần nữa tìm cách kéo dài nguồn thực phẩm.
Họ phát hiện ra kho lưu trữ các tài liệu cũ từ chiến tranh trước đó, giải thích các nguồn thực phẩm phi truyền thống, bao gồm cả lá rhubarb. Việc tái sử dụng các tờ rơi này dường như là một cách hiệu quả, nên chúng đã được gửi đến công chúng. Một lần nữa, người ta báo cáo đã chết hoặc bị ốm.
Những tờ rơi đó là thông tin sai lệch, nhưng công chúng không có lý do để nghi ngờ chúng cả hai lần. Chúng là tài nguyên chính thức do chính phủ phát triển – tại sao lại không an toàn?
Đó là cách mà thông tin sai lệch có thể gây ra vấn đề ngay cả sau khi lỗi ban đầu đã được sửa chữa. Và bài học này vẫn còn vang vọng trong thời đại trí tuệ nhân tạo tạo sinh (AI).
Chatbots không phải là công cụ tìm kiếm
AI tạo sinh được sử dụng để tạo ra văn bản và hình ảnh (và các dạng dữ liệu khác) dựa trên thông tin gốc mà nó đã tiếp nhận. Nhưng nó cũng có thể là một động cơ để tạo ra thông tin sai lệch nhanh hơn khả năng của con người trong việc sản xuất thông tin an toàn, chưa kể đến việc kiểm tra và chỉnh sửa.
Và như câu chuyện về rhubarb minh họa, các chỉnh sửa không phải lúc nào cũng có thể loại bỏ hoàn toàn ô nhiễm ban đầu.
Các nền tảng AI như ChatGPT và Claude không hoạt động giống như một công cụ tìm kiếm truyền thống. Nhưng người ta vẫn sử dụng chúng như một vì chúng dường như tóm tắt các chủ đề phức tạp một cách nhanh chóng và yêu cầu ít nhấp chuột hơn so với tìm kiếm internet thông thường.
Các công cụ tìm kiếm dựa trên các bài báo và văn bản về một chủ đề nhất định, sau đó đánh giá độ tin cậy của các bài báo đó. Trong khi đó, AI tạo sinh dựa trên khối lượng lớn văn bản, từ đó đo lường khả năng các từ xuất hiện cạnh nhau.
Những“mô hình ngôn ngữ lớn” này chỉ nhằm tạo ra các câu hợp lý, chứ không nhất thiết chính xác.
Ví dụ, nếu“trứng xanh và thịt ham” xuất hiện đủ thường trong khối văn bản khổng lồ của nó, nó có khả năng mô tả“trứng và thịt ham” là màu xanh nếu ai đó hỏi.
‘Có vẻ hợp lý nhưng sai’
OpenAI, đơn vị phát triển ChatGPT, đã thừa nhận (dựa trên nghiên cứu của chính họ) rằng không thể ngăn chặn việc trình bày thông tin sai lệch như thể đó là sự thật do cách hoạt động của AI tạo sinh. Giải thích lý do tại sao các“mô hình ngôn ngữ lớn”“ảo tưởng”, các nhà nghiên cứu viết:
Điều này có thể gây hậu quả thực tế. Một nghiên cứu gần đây cho thấy ChatGPT không nhận biết được tình trạng cấp cứu y tế trong hơn một nửa số trường hợp. Điều này có thể bị làm trầm trọng thêm bởi các lỗi đã tồn tại trong hồ sơ y tế, mà một cuộc điều tra của Vương quốc Anh vào năm 2025 đã phát hiện ảnh hưởng đến tới một trong bốn bệnh nhân.
Trong khi bác sĩ có thể yêu cầu thêm xét nghiệm để xác nhận chẩn đoán, một nhà nghiên cứu giải thích rằng AI tạo sinh“đưa ra câu trả lời sai với cùng mức độ tự tin như câu đúng”.
Vấn đề, như một nhà khoa học khác nhận xét, là AI tạo sinh“tìm kiếm và bắt chước các mẫu từ ngữ”. Đúng hay sai không thực sự quan trọng:“Nó đã tạo ra một câu và nó đã làm được.”
Nghiên cứu cho thấy các công cụ AI tạo sinh xuyên tạc tin tức 45% thời gian, bất kể ngôn ngữ hay khu vực địa lý. Và hiện nay có những lo ngại thực sự về AI gây nguy hiểm đến tính mạng bằng cách tạo ra các tuyến đường đi bộ không tồn tại.
Thật dễ để chế giễu AI tạo sinh khi nó khuyên người ta ăn đá hoặc giữ các lớp phủ trên đế pizza bằng keo dán.
Nhưng các ví dụ khác không vui chút nào – như kế hoạch bữa ăn siêu thị gợi ý một công thức tạo ra khí clo, hoặc lời khuyên dinh dưỡng khiến ai đó tiếp xúc độc hại mãn tính với bromide.
Tìm kiếm thông tin cũ hơn
Giáo dục và thiết lập các quy tắc tốt về việc sử dụng AI tạo sinh một cách phù hợp và thận trọng sẽ là điều cần thiết, đặc biệt khi nó bắt đầu xâm nhập vào các chính phủ, bộ máy hành chính và các tổ chức phức tạp.
Các chính trị gia đã bắt đầu sử dụng AI tạo sinh trong công việc hàng ngày của họ, bao gồm cả nghiên cứu chính sách. Và các phòng cấp cứu bệnh viện đang dùng các công cụ AI để ghi chép hồ sơ bệnh nhân nhằm tiết kiệm thời gian.
Một biện pháp an toàn là cố gắng tìm kiếm các nguồn thông tin đáng tin cậy hơn được tạo ra trước khi các nội dung và hình ảnh bị nhiễm AI tràn lan trên internet.
Thậm chí còn có các công cụ giúp đơn giản hóa quá trình này, bao gồm một công cụ do nghệ sĩ người Úc Tega Brain tạo ra“chỉ trả về nội dung được tạo ra trước lần phát hành công khai đầu tiên của ChatGPT vào ngày 30 tháng 11 năm 2022”.
Cuối cùng, nếu trực giác của bạn là kiểm tra thực tế câu chuyện bắt đầu của bài viết này, sách cổ điển có thể là lựa chọn tốt nhất của bạn: các tài liệu tham khảo về cách chính phủ Anh hai lần khuyến khích việc ngộ độc rhubarb có thể được tìm thấy trong The Poison Garden’s A-Z of Poisonous Plants và Botanical Curses and Poisons: The Shadow Lives of Plants.