Атака с использованием дипфейка: «Многие люди могли быть обмануты»

Атака с подделкой личности: «Многих людей могли обмануть»

2 марта 2026

ПоделитьсяСохранить

Гидеон Лонганд

Эд Батлер

ПоделитьсяСохранить

AFP через Getty Images

Сундурараман Рамамурти говорит, что невозможно знать, сколько людей посмотрели фейковое видео

В начале этого года в социальных сетях в Индии появилось видео, на котором генеральный директор Фондовой биржи Бомбея, Сундурараман Рамамурти, дает инвесторам советы, какие акции покупать.

Зрителям обещали щедрую прибыль, если они последуют его советам.

Проблема была в том, что Рамамурти говорил не он. Это было фейковое видео с ним, созданное с помощью искусственного интеллекта.

«Оно было размещено в открытом доступе, где многие люди могли его увидеть и их могли обмануть при покупке или продаже акций, будто бы я рекомендовал им это», — объясняет Рамамурти.

«Когда мы видим такой инцидент, мы сразу подаем жалобу. Мы идем в Instagram и в другие места, где это размещают, чтобы видео сняли. И мы регулярно пишем на рынок, предупреждая людей не верить фейковым видео».

Рамамурти добавляет: «Мы не знаем, сколько людей посмотрели это видео, это действительно трудно выяснить, поэтому мы не можем по-настоящему оценить, был ли от этого большой эффект или нет.

«Что нам нужно — чтобы не было вообще никакого эффекта. Никто не должен понести убытки из‑за того, что поверил чему-то, что не соответствует действительности».

BBC Business Daily: фейковые CEO

Незаконные deepfake теперь в Великобритании — как их обнаруживают?

Борьба с deepfake «превратилась в гонку вооружений»

Рамамурти и Фондовая биржа Бомбея — не единственные.

«Последние данные показывают, что примерно за последние два года мы увидели рост почти на 3 000% в количестве deepfake, которые используются», — говорит Карим Тубба, генеральный директор американской компании по кибербезопасности LastPass.

Тубба самого подделали в 2024 году.

«Один из наших сотрудников в Европе получил аудиосообщение и текстовое сообщение от человека, который утверждал, что это якобы я, и срочно просил о некоторой помощи», — говорит он.

К счастью для Туббы — и для LastPass — сотрудник заподозрил неладное.

«Сообщение было в WhatsApp, а для нас это не санкционированный канал связи», — говорит Тубба. «Также у нас есть корпоративные санкционированные мобильные устройства, и это пришло через его личный телефон. Поэтому он подумал, что это потенциально немного мутно, немного похоже на уловку».

Сотрудник сообщил об инциденте кибербезопасной команде LastPass, и вред не был причинен.

AFP через Getty Images

Не известно, сколько людей пострадали в результате атаки на руководителя Фондовой биржи Бомбея

Британская инжиниринговая компания Arup оказалась не так удачлива. В 2024 году ее поразила одна из самых изощренных атак с deepfake, когда-либо виденных в корпоративном мире.

По данным полиции Гонконга, сотрудник Arup, работавший там, получил сообщение, которое, как утверждалось, пришло от главного финансового директора (CFO) компании, находившегося в Лондоне, о «конфиденциальной сделке».

Сотрудник подключился к видеозвонку с CFO и другими сотрудниками. На основе этого звонка сотрудник затем перевел $25m (£18.5m) денег Arup на пять различных банковских счетов — как ему было поручено. Лишь позже выяснилось, что люди на звонке, включая CFO, были deepfake.

«Вы бы никогда не захотели просто так подключиться к видеозвонку с кем-то и перевести $25m», — говорит Стефани Харе, технический исследователь и соведущая программы BBC AI Decoded.

«Компании вынуждены предпринимать дополнительные шаги, чтобы обеспечить безопасность таких коммуникаций. Это новое «смелое новое мироустройство», в котором мы теперь живем».

Быстрая эволюция ИИ означает, что эти видео становятся все более похожими на реальность.

«Deepfake становятся очень-очень легко делать», — говорит Мэтт Ловелл, сооснователь и CEO британской компании по кибербезопасности CloudGuard. «Чтобы сгенерировать видео и аудио с качеством и экстремально точными спецификациями — нужно всего несколько минут».

Это также становится дешевле.

«Если, скажем, это простая атака, проводимая одним отдельным человеком, вы смотрите на $500–$1,000 с использованием в основном бесплатных инструментов», — говорит Ловелл. «Для более изощренной атаки вы смотрите на $5,000–$10,000».

Хотя фейковые видео с deepfake становятся более изощренными, совершенствуются и инструменты, используемые, чтобы им противостоять. Компании теперь могут использовать верификационное ПО, которое оценивает мимику человека, то, как он поворачивает голову, и даже то, как кровь течет через лицо, чтобы установить, действительно ли это он или же версия, созданная с помощью deepfake.

«На щеках или прямо под веками мы будем искать изменения в кровотоке, когда человек говорит или представляет информацию», — говорит Ловелл. «Именно там мы действительно можем выяснить, сгенерирован ли это ИИ, или это реально».

Getty Images

ИИ позволяет киберзлоумышленникам гораздо проще создавать видео с deepfake

Но компаниям приходится постоянно вести борьбу, чтобы оставаться на шаг впереди мошенников.

«Это гонка — между теми, кто может развернуть технологию, и теми, кто может как можно быстрее ей противодействовать», — говорит Тубба из LastPass. «К счастью, похоже, что в это вливается довольно много денег, и это будет только ускорять темп, с которым организации будут разрабатывать технологии для обнаружения и в конечном итоге блокирования этих вещей».

В CloudGuard CEO Мэтт Ловелл настроен менее оптимистично.

«Векторы атак ускоряются быстрее, чем мы можем ускорить автоматизацию защиты и обеспечение безопасности», — говорит он. «Люди движутся достаточно быстро, чтобы реагировать на скорость, с которой развивается угроза? Вовсе нет».

Харе говорит, что распространение атак с deepfake означает, что люди с навыками борьбы с мошенниками находятся в большом спросе. «По всему миру ощущается нехватка специалистов по кибербезопасности. Нам нужно, чтобы в эту сферу пришло больше людей».

И она говорит, что компании просыпаются из-за угрозы — пусть и медленно.

«Раньше не считалось приоритетным защищать свои операции так же, как это считается сейчас», — отмечает она.

«Теперь, когда у нас есть такие типы рисков, когда руководителей компаний — CEO — тоже подделывают с помощью deepfake, я думаю, что руководители компаний будут проводить больше времени со своими главными специалистами по информационной безопасности и командами, чем раньше. И это хорошо».

Вы справитесь с жизнью и работой в Антарктиде?

Две фермы в Сенегале, которые поставляют многие овощи Великобритании

Трамп нацелен на визит в Венесуэлу — но препятствия для его нефтяного плана остаются

Нидерландцы любят четырехдневные рабочие недели, но они устойчивы?

Мир бизнеса

Международный бизнес

Искусственный интеллект

Интернет-мошенничество

Индия

Deepfakes

Мошенничество

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить