Сегодня Международный день проверки фактов. Обновите свои навыки распознавания ИИ

AI-генерируемый контент повсюду, из-за чего все труднее отделять факты от вымысла, особенно когда речь идет о новостях с места событий.

Не дальше как война в Иране. С тех пор как 28 февраля США и Израиль атаковали Иран, исследователи выявили беспрецедентное количество ложных и вводящих в заблуждение изображений, сгенерированных с помощью искусственного интеллекта, которые достигли бесчисленного множества людей по всему миру. Среди них — фейковые кадры бомбардировок, которые так и не происходили, изображения солдат, которых якобы захватили в плен, и пропагандистские видео, созданные Ираном, где президент Дональд Трамп и другие показаны в виде угловатых миниатюр, похожих на Lego.

Сегодня 10-й ежегодный Международный день проверки фактов — хороший повод взглянуть на эти развивающиеся вызовы.

Дезинформация, созданная с помощью ИИ, распространяется с беспрецедентной скоростью из бесконечного числа источников. С самого начала войны в Иране аккаунты со всех сторон конфликта продвигали такой контент.

Институт стратегического диалога, который отслеживает дезинформацию и онлайн-экстремизм, изучал публикации в соцсетях, касающиеся войны в Иране. Среди их выводов была группа аккаунтов X, которые регулярно публикуют контент, сгенерированный ИИ, и в совокупности набрали более одного миллиарда просмотров с начала конфликта. Это было сделано примерно двумя десятками аккаунтов, многие из которых имели синюю галочку верификации.

Вот несколько советов, как отличать контент, сгенерированный ИИ, от реальности в онлайн-мире, где это продолжает становиться все сложнее.

                        Связанные истории

The Institute for Strategic Dialogue, which tracks disinformation and online extremism, has been examining social media posts around the Iran war. Among their findings was a group of X accounts that regularly post AI-generated content and collectively gained more than one billion views since the conflict began. This was done by roughly two dozen accounts, many of which had blue check verification.

Here are some tips for distinguishing AI-generated content from reality in an online world where that continues to get harder.

                        Связанные истории
                    
                

        
    
    
    
    







    
        

                
                    



    
        


  




    




    






    






    
        

            
            
            FACT FOCUS: False claims Trump made as he addressed the nation about Iran
        

    

  

    

    
    







    
    
        
        
    
    
    
    
        

            4 MIN ЧТЕНИЕ

24

            Oil rises and Asian stocks fall after Trump says US will hit Iran hard and ‘finish the job’
        

    

  

    

    
    







    
    
        
        
    
    
    
    
        

            2 MIN ЧТЕНИЕ

2

            Read the complete transcript of Trump’s address to the nation
        

    

  

    

    
    







    
    
        
        
    
    
    
    
        

            13 MIN ЧТЕНИЕ

13

Look for visual cues

Когда изображения, сгенерированные ИИ, впервые начали широко распространяться в интернете, часто было множество очевидных признаков, позволяющих распознать их как подделки. Например, у человека могло быть слишком мало — или слишком много — пальцев, или его голос мог не совпадать по времени с тем, как движутся губы. Текст мог быть бессмысленным. Объекты часто были искажены или лишены ключевых компонентов. По мере того как технология продолжает развиваться, эти подсказки встречаются не так часто, как раньше, но все равно стоит обращать на них внимание. Следите за несоответствиями, например, за автомобилем, который в одном моменте присутствует в видео, а в следующем исчезает, или за действиями, которые невозможны согласно законам физики. Некоторые изображения также могут быть чрезмерно отполированными или иметь неестественный блеск.

Seek out a source

AI-генерируемые изображения распространяются снова и снова. Один из способов определить их подлинность (или отсутствие таковой) — отследить их происхождение. Использование обратного поиска по изображению — простой способ сделать это. Если вы смотрите видео, сначала сделайте скриншот. Это может привести к аккаунту в соцсетях, который специально генерирует контент с помощью ИИ, к более старому изображению, которое выдают за другое, или к чему-то совершенно неожиданному.

Listen to the experts

Ищите несколько верифицированных источников, которые помогут подтвердить изображение. Например, это может означать проверку фактов от авторитетного медиа-издания, заявление публичного деятеля или публикацию в соцсетях от эксперта по дезинформации. Эти источники могут использовать более продвинутые методы для выявления контента, созданного ИИ, или иметь доступ к информации об изображении, недоступной широкой публике.

Make use of technology

Существует множество инструментов для детекции ИИ, которые могут быть полезной точкой старта. Но будьте осторожны, поскольку их оценки не всегда бывают верными. Изображения, которые генерировались или изменялись с помощью ИИ в приложении Gemini от Google, включают невидимый инструмент цифрового водяного знака под названием SynthID, который приложение может обнаружить. Другие инструменты создания ИИ добавляют видимые водяные знаки к контенту, который они генерируют. Обычно их довольно легко удалить, а значит, отсутствие такого водяного знака — не доказательство того, что изображение настоящее.

Slow down

Иногда все сводится к возвращению к основам. Остановитесь, сделайте вдох и не делитесь сразу тем, в чем вы не уверены, что это реальное. Плохие акторы часто рассчитывают на то, что люди позволят своим эмоциям и уже имеющимся взглядам направлять реакцию на контент. Просмотр комментариев может дать подсказки о том, реально ли изображение, на которое вы смотрите, или нет. Другой пользователь мог заметить то, чего вы не увидели, или смог найти исходный источник. Однако в итоге не всегда возможно определить с 100% точностью, что изображение сгенерировано ИИ, поэтому сохраняйте бдительность относительно того, что оно может оказаться не реальным.

Видите что-то, что выглядит ложным или вводящим в заблуждение? Напишите нам по адресу [email protected].


Найдите проверки фактов AP здесь:

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить