Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Hôm nay là Ngày Kiểm Tra Thực Tế Quốc Tế. Làm mới kỹ năng xác định AI của bạn
Nội dung do trí tuệ nhân tạo tạo ra đang xuất hiện khắp nơi những ngày này, khiến việc ngày càng khó khăn để tách bạch sự thật khỏi hư cấu, đặc biệt là khi nói đến các tin tức nóng.
Không cần tìm đâu xa ngoài cuộc chiến Iran. Kể từ khi Mỹ và Israel tấn công Iran vào ngày 28 tháng 2, các nhà nghiên cứu đã xác định một số lượng chưa từng có các hình ảnh sai lệch và gây hiểu lầm được tạo ra bằng trí tuệ nhân tạo và đã tiếp cận vô số người trên toàn thế giới. Trong số đó có các đoạn video giả về những vụ đánh bom chưa từng xảy ra, hình ảnh về các binh sĩ được cho là đã bị bắt và các video tuyên truyền do Iran tạo ra miêu tả Tổng thống Donald Trump và những người khác như các mô hình thu nhỏ kiểu Lego, thô kệch.
Thứ Năm, Ngày Kiểm chứng Thực tế Quốc tế lần thứ 10 thường niên, là một cơ hội tốt để nhìn lại những thách thức đang phát triển này.
Thông tin sai lệch được tạo bằng AI đang được chia sẻ với tốc độ chưa từng có từ vô số nguồn. Ngay từ đầu cuộc chiến Iran, các tài khoản từ mọi phía trong cuộc xung đột đã quảng bá nội dung như vậy.
Viện Đối thoại Chiến lược, đơn vị theo dõi hoạt động sai lệch thông tin và chủ nghĩa cực đoan trên mạng, đã xem xét các bài đăng trên mạng xã hội xoay quanh cuộc chiến Iran. Trong các phát hiện của họ có một nhóm tài khoản X thường xuyên đăng nội dung do AI tạo ra và cùng nhau đạt hơn 1 tỷ lượt xem kể từ khi cuộc xung đột bắt đầu. Việc này được thực hiện bởi khoảng hai chục tài khoản, nhiều trong số đó có xác minh dấu xanh.
Dưới đây là một vài mẹo để phân biệt nội dung do AI tạo ra với thực tế trong một thế giới trực tuyến nơi điều này tiếp tục trở nên khó hơn.
Look for visual cues
Khi các hình ảnh do AI tạo ra lần đầu bắt đầu lan truyền rộng rãi trên mạng, thường có những dấu hiệu khá rõ ràng để nhận ra chúng là sản phẩm được làm giả. Có thể một người có quá ít — hoặc quá nhiều — ngón tay, hoặc giọng nói của họ bị lệch nhịp so với miệng. Văn bản có thể vô nghĩa. Các vật thể thường bị biến dạng hoặc thiếu các bộ phận quan trọng. Khi công nghệ tiếp tục phát triển, những manh mối này không còn phổ biến như trước nữa, nhưng vẫn đáng để để ý. Hãy quan sát các điểm không nhất quán như một chiếc ô tô xuất hiện trong video ở khoảnh khắc này rồi biến mất ở khoảnh khắc sau, hoặc các hành động không thể xảy ra theo các định luật vật lý. Một số hình ảnh cũng có thể quá được trau chuốt hoặc có độ bóng trông không tự nhiên.
Đọc thêm
Seek out a source
Các hình ảnh do AI tạo ra được chia sẻ đi chia sẻ lại nhiều lần. Một cách để xác định tính xác thực (hoặc không) của chúng là truy tìm nguồn gốc. Sử dụng tìm kiếm hình ảnh ngược là một cách đơn giản để làm điều này. Nếu bạn đang xem một video, hãy chụp màn hình trước. Việc này có thể dẫn đến một tài khoản mạng xã hội tạo nội dung AI một cách cụ thể, một hình ảnh cũ đang bị bóp méo, hoặc một điều gì đó hoàn toàn bất ngờ.
Listen to the experts
Hãy tìm nhiều nguồn đã được xác minh có thể giúp xác thực hình ảnh. Ví dụ, điều đó có thể là một bài kiểm chứng sự thật từ một cơ quan truyền thông uy tín, một tuyên bố từ một nhân vật công chúng, hoặc một bài đăng trên mạng xã hội từ một chuyên gia về thông tin sai lệch. Những nguồn này có thể có các kỹ thuật tiên tiến hơn để nhận diện nội dung do AI tạo ra hoặc có quyền truy cập thông tin về hình ảnh mà công chúng nói chung không thể tiếp cận.
Make use of technology
Có nhiều công cụ phát hiện AI có thể hữu ích để bắt đầu. Nhưng hãy cẩn thận, vì chúng không phải lúc nào cũng chính xác trong đánh giá. Các hình ảnh được tạo ra hoặc chỉnh sửa bằng AI thông qua ứng dụng Gemini của Google có thể bao gồm một công cụ đóng dấu watermark kỹ thuật số vô hình được gọi là SynthID, ứng dụng này có thể phát hiện. Các công cụ tạo AI khác đã thêm watermark nhìn thấy được vào nội dung mà chúng tạo ra. Tuy nhiên, chúng thường dễ để loại bỏ, nghĩa là việc thiếu watermark như vậy không phải là bằng chứng rằng một hình ảnh là thật.
Slow down
Đôi khi chỉ cần quay về những điều cơ bản. Dừng lại, hít thở và đừng chia sẻ ngay bất cứ thứ gì bạn không biết là thật. Kẻ xấu thường trông cậy vào việc người ta để cảm xúc và quan điểm sẵn có dẫn dắt phản ứng của họ trước nội dung. Việc xem phần bình luận có thể cung cấp manh mối liệu hình ảnh bạn đang xem có thật hay không. Một người dùng khác có thể đã nhận ra điều gì đó mà bạn không nhận ra hoặc có thể tìm được nguồn gốc ban đầu. Tuy nhiên, rốt cuộc thì không phải lúc nào cũng có thể xác định với độ chính xác 100% liệu một hình ảnh có phải do AI tạo ra hay không, vì vậy hãy cảnh giác trước khả năng rằng nó có thể không thật.
Thấy một thứ trông có vẻ sai hoặc gây hiểu lầm? Gửi email cho chúng tôi tại [email protected].
Find AP Fact Checks here: