Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Сегодня Международный день проверки фактов. Обновите свои навыки распознавания ИИ
Контент, сгенерированный ИИ, повсюду в наши дни, из‑за чего становится все труднее отделять факты от вымысла, особенно когда речь идет о новостях с первых полос.
Не смотрите дальше, чем на войну в Иране. Начиная с того, как США и Израиль атаковали Иран 28 февраля, исследователи выявили беспрецедентное количество ложных и вводящих в заблуждение изображений, которые были сгенерированы с помощью искусственного интеллекта и достигли бесчисленных людей по всему миру. Среди них — фальшивые кадры бомбардировок, которые никогда не происходили, изображения солдат, которых якобы взяли в плен, и пропагандистские видео, созданные Ираном, где президент Дональд Трамп и другие показаны как угловатые, похожие на LEGO миниатюры.
В четверг, в 10‑й ежегодный Международный день проверки фактов, есть хорошая возможность взглянуть на эти развивающиеся проблемы.
Информация, дезинформирующая и созданная с помощью ИИ, распространяется с беспрецедентной скоростью из бесконечного числа источников. С самого начала войны в Иране аккаунты со всех сторон конфликта продвигали такой контент.
Институт стратегического диалога, который отслеживает дезинформацию и онлайн‑экстремизм, изучал публикации в соцсетях вокруг войны в Иране. Среди их выводов была группа аккаунтов X, которые регулярно публикуют контент, сгенерированный ИИ, и в совокупности набрали более 1 миллиарда просмотров с начала конфликта. Это было сделано примерно двумя десятками аккаунтов, многие из которых имели синюю отметку верификации.
Вот несколько советов, как отличать контент, сгенерированный ИИ, от реальности в онлайн‑мире, где это продолжает становиться все труднее.
Когда AI‑сгенерированные изображения впервые начали широко распространяться в интернете, часто были очевидные «подсказки», по которым их можно было идентифицировать как сфабрикованные. Возможно, у человека было слишком мало — или слишком много — пальцев, или его голос не совпадал с тем, как шевелятся губы. Текст мог быть бессмысленным. Объекты нередко искажались или не хватало ключевых элементов. Поскольку технология продолжает развиваться, эти подсказки встречаются не так часто, как раньше, но все же стоит присматриваться к ним. Обращайте внимание на несоответствия, например, когда машина видна на видео в один момент, а в следующий — исчезает, или на действия, которые невозможны согласно законам физики. Некоторые изображения также могут быть чрезмерно «отполированными» или иметь неестественный блеск.
Читать дальше
Ищите первоисточник
AI‑сгенерированные изображения пересылают снова и снова. Один из способов понять, правдивы они или нет, — отследить их происхождение. Обратный поиск по изображению — простой способ сделать это. Если вы смотрите видео, сначала сделайте скриншот. Это может привести к аккаунту в соцсети, который специально генерирует контент с помощью ИИ, к более старому изображению, которое неверно представляют, или к чему‑то совершенно неожиданному.
Прислушайтесь к экспертам
Ищите несколько проверенных источников, которые помогут подтвердить подлинность изображения. Например, это может быть факт‑чекинг из авторитетного медиа, заявление публичной персоны или публикация в соцсетях от эксперта по дезинформации. Эти источники могут использовать более продвинутые методы для выявления контента, сгенерированного ИИ, или предоставлять информацию об изображении, которая недоступна широкой публике.
Используйте технологии
Существуют многие инструменты для обнаружения ИИ, которые могут стать полезной отправной точкой. Но будьте осторожны, поскольку они не всегда правильно оценивают ситуацию. Изображения, которые были сгенерированы или изменены с помощью ИИ через приложение Gemini от Google, включают невидимый инструмент цифрового водяного знака под названием SynthID, который приложение может обнаружить. Другие инструменты для создания с помощью ИИ добавляют видимые водяные знаки к контенту, который они генерируют. Но их часто довольно легко удалить, а значит, отсутствие такого водяного знака — не доказательство того, что изображение настоящее.
Замедлитесь
Иногда все сводится к базовым принципам. Остановитесь, сделайте вдох и не делитесь сразу тем, что вы не уверены, что является реальным. Злоумышленники часто рассчитывают на то, что люди позволят своим эмоциям и уже существующим взглядам определять реакцию на контент. Посмотрите комментарии: они могут дать подсказки, настоящее изображение, которое вы видите, или нет. Другой пользователь мог заметить то, чего вы не заметили, или смог найти исходный источник. Однако в конечном счете не всегда возможно определить с 100% точностью, сгенерировано ли изображение ИИ, поэтому сохраняйте бдительность и допускайте, что оно может быть не реальным.
Видите что‑то, что выглядит ложным или вводящим в заблуждение? Напишите нам на [email protected].
Найдите факт‑чеки AP здесь: