Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Сегодня Международный день проверки фактов. Обновите свои навыки распознавания ИИ
AI-генерируемый контент повсюду, из-за чего все труднее отделять факты от вымысла, особенно когда речь идет о новостях с места событий.
Не дальше как война в Иране. С тех пор как 28 февраля США и Израиль атаковали Иран, исследователи выявили беспрецедентное количество ложных и вводящих в заблуждение изображений, сгенерированных с помощью искусственного интеллекта, которые достигли бесчисленного множества людей по всему миру. Среди них — фейковые кадры бомбардировок, которые так и не происходили, изображения солдат, которых якобы захватили в плен, и пропагандистские видео, созданные Ираном, где президент Дональд Трамп и другие показаны в виде угловатых миниатюр, похожих на Lego.
Сегодня 10-й ежегодный Международный день проверки фактов — хороший повод взглянуть на эти развивающиеся вызовы.
Дезинформация, созданная с помощью ИИ, распространяется с беспрецедентной скоростью из бесконечного числа источников. С самого начала войны в Иране аккаунты со всех сторон конфликта продвигали такой контент.
Институт стратегического диалога, который отслеживает дезинформацию и онлайн-экстремизм, изучал публикации в соцсетях, касающиеся войны в Иране. Среди их выводов была группа аккаунтов X, которые регулярно публикуют контент, сгенерированный ИИ, и в совокупности набрали более одного миллиарда просмотров с начала конфликта. Это было сделано примерно двумя десятками аккаунтов, многие из которых имели синюю галочку верификации.
Вот несколько советов, как отличать контент, сгенерированный ИИ, от реальности в онлайн-мире, где это продолжает становиться все сложнее.
The Institute for Strategic Dialogue, which tracks disinformation and online extremism, has been examining social media posts around the Iran war. Among their findings was a group of X accounts that regularly post AI-generated content and collectively gained more than one billion views since the conflict began. This was done by roughly two dozen accounts, many of which had blue check verification.
Here are some tips for distinguishing AI-generated content from reality in an online world where that continues to get harder.
24
2
13
Look for visual cues
Когда изображения, сгенерированные ИИ, впервые начали широко распространяться в интернете, часто было множество очевидных признаков, позволяющих распознать их как подделки. Например, у человека могло быть слишком мало — или слишком много — пальцев, или его голос мог не совпадать по времени с тем, как движутся губы. Текст мог быть бессмысленным. Объекты часто были искажены или лишены ключевых компонентов. По мере того как технология продолжает развиваться, эти подсказки встречаются не так часто, как раньше, но все равно стоит обращать на них внимание. Следите за несоответствиями, например, за автомобилем, который в одном моменте присутствует в видео, а в следующем исчезает, или за действиями, которые невозможны согласно законам физики. Некоторые изображения также могут быть чрезмерно отполированными или иметь неестественный блеск.
Seek out a source
AI-генерируемые изображения распространяются снова и снова. Один из способов определить их подлинность (или отсутствие таковой) — отследить их происхождение. Использование обратного поиска по изображению — простой способ сделать это. Если вы смотрите видео, сначала сделайте скриншот. Это может привести к аккаунту в соцсетях, который специально генерирует контент с помощью ИИ, к более старому изображению, которое выдают за другое, или к чему-то совершенно неожиданному.
Listen to the experts
Ищите несколько верифицированных источников, которые помогут подтвердить изображение. Например, это может означать проверку фактов от авторитетного медиа-издания, заявление публичного деятеля или публикацию в соцсетях от эксперта по дезинформации. Эти источники могут использовать более продвинутые методы для выявления контента, созданного ИИ, или иметь доступ к информации об изображении, недоступной широкой публике.
Make use of technology
Существует множество инструментов для детекции ИИ, которые могут быть полезной точкой старта. Но будьте осторожны, поскольку их оценки не всегда бывают верными. Изображения, которые генерировались или изменялись с помощью ИИ в приложении Gemini от Google, включают невидимый инструмент цифрового водяного знака под названием SynthID, который приложение может обнаружить. Другие инструменты создания ИИ добавляют видимые водяные знаки к контенту, который они генерируют. Обычно их довольно легко удалить, а значит, отсутствие такого водяного знака — не доказательство того, что изображение настоящее.
Slow down
Иногда все сводится к возвращению к основам. Остановитесь, сделайте вдох и не делитесь сразу тем, в чем вы не уверены, что это реальное. Плохие акторы часто рассчитывают на то, что люди позволят своим эмоциям и уже имеющимся взглядам направлять реакцию на контент. Просмотр комментариев может дать подсказки о том, реально ли изображение, на которое вы смотрите, или нет. Другой пользователь мог заметить то, чего вы не увидели, или смог найти исходный источник. Однако в итоге не всегда возможно определить с 100% точностью, что изображение сгенерировано ИИ, поэтому сохраняйте бдительность относительно того, что оно может оказаться не реальным.
Видите что-то, что выглядит ложным или вводящим в заблуждение? Напишите нам по адресу [email protected].
Найдите проверки фактов AP здесь: