Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Сьогодні Міжнародний день перевірки фактів. Оновіть свої навички ідентифікації ШІ
AI-генерований контент є всюди, через що дедалі важче відокремити правду від вигадки, особливо коли йдеться про термінові новини.
Не шукайте далі, ніж іранська війна. Після того, як 28 лютого США та Ізраїль атакували Іран, дослідники виявили небачену кількість неправдивих і оманливих зображень, згенерованих за допомогою штучного інтелекту, які дісталися безлічі людей по всьому світу. Серед них — фейкові кадри бомбардувань, яких ніколи не було, зображення солдатів, яких нібито захопили, а також пропагандистські відео, створені Іраном, що зображають президента Дональда Трампа та інших як незграбні мініатюри на кшталт LEGO.
Сьогодні, у 10-й щорічний Міжнародний день фактчекінгу, є добра нагода подивитися на ці виклики, що розвиваються.
Оманливий контент, створений за допомогою ШІ, поширюють із небаченою швидкістю з нескінченної кількості джерел. Від самого початку іранської війни акаунти з усіх сторін конфлікту просували такий контент.
Інститут стратегічного діалогу, який відстежує дезінформацію та онлайн-екстремізм, досліджував пости в соціальних мережах навколо іранської війни. Серед їхніх висновків — група акаунтів X, які регулярно публікують ШІ-генерований контент і сукупно набрали понад один мільярд переглядів з початку конфлікту. Це було зроблено приблизно дюжиною акаунтів, багато з яких мали синю позначку перевірки.
Ось кілька порад, як відрізнити ШІ-генерований контент від реальності в онлайн-світі, де з цим дедалі важче.
24
Коли ШІ-генеровані зображення вперше почали масово поширюватися в інтернеті, часто були очевидні «маячки», які могли вказувати, що їх згенеровано штучно. Можливо, у людини було забагато — або замало — пальців, або голос не збігався з тим, що вона «вимовляє» ротом. Текст міг бути беззмістовним. Об’єкти часто були спотворені або втрачали ключові елементи. Оскільки технологія продовжує розвиватися, ці підказки вже не такі поширені, як раніше, але все одно варто звертати на них увагу. Слідкуйте за непослідовностями, як-от за машиною, яка в одному моменті є у відео, а в наступному — зникає, або діями, які неможливі згідно із законами фізики. Деякі зображення також можуть бути надто «відполірованими» чи мати неприродний блиск.
ШІ-генеровані зображення поширюють знову й знову. Один зі способів визначити їхню автентичність (або відсутність такої) — знайти їхнє походження. Зворотний пошук зображення — це простий спосіб зробити це. Якщо ви переглядаєте відео, спершу зробіть скріншот. Це може привести до акаунта в соціальній мережі, який спеціально генерує ШІ-контент, до старішого зображення, яке видають за інше, або до чогось зовсім несподіваного.
Слухайте експертів
Шукайте кілька перевірених джерел, які можуть допомогти автентифікувати зображення. Наприклад, це може бути фактчек із надійного медіавидання, заява публічної особи або допис у соціальних мережах від експерта з дезінформації. Ці джерела можуть застосовувати більш просунуті техніки для виявлення ШІ-генерованого контенту або мати доступ до інформації про зображення, недоступної для широкої громадськості.
Використовуйте технології
Існує багато інструментів для виявлення ШІ, які можуть стати корисною відправною точкою. Але будьте обережні, адже вони не завжди правильно оцінюють ситуацію. Зображення, які були згенеровані або змінені за допомогою ШІ через застосунок Gemini від Google, містять інструмент для невидимого цифрового водяного знака під назвою SynthID, який застосунок може виявити. Інші інструменти створення ШІ додали видимі водяні знаки до контенту, який вони генерують. Зазвичай їх легко видалити, тож відсутність такого водяного знака не є доказом того, що зображення справжнє.
Іноді все зводиться до повернення до основ. Зупиніться, зробіть паузу й не поспішайте одразу поширювати щось, що ви не знаєте, чи є це правдою. Недобросовісні актори часто розраховують на те, що люди дозволять емоціям і вже наявним поглядам керувати їхньою реакцією на контент. Перегляд коментарів може дати підказки щодо того, чи є зображення, яке ви бачите, реальним, чи ні. Інший користувач міг помітити те, чого ви не помітили, або знайти первинне джерело. Утім, зрештою не завжди можливо визначити на 100% точність, чи було зображення згенеровано ШІ, тож залишайтеся напоготові щодо можливості, що воно може бути не реальним.
Ви побачили щось, що виглядає фальшивим або оманливим? Напишіть нам на email: [email protected].
Знайдіть фактчекі AP тут: