Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Атака с использованием дипфейка: «Многие люди могли быть обмануты»
Атака с подделкой личности: «Многих людей могли обмануть»
2 марта 2026
ПоделитьсяСохранить
Гидеон Лонганд
Эд Батлер
ПоделитьсяСохранить
AFP через Getty Images
Сундурараман Рамамурти говорит, что невозможно знать, сколько людей посмотрели фейковое видео
В начале этого года в социальных сетях в Индии появилось видео, на котором генеральный директор Фондовой биржи Бомбея, Сундурараман Рамамурти, дает инвесторам советы, какие акции покупать.
Зрителям обещали щедрую прибыль, если они последуют его советам.
Проблема была в том, что Рамамурти говорил не он. Это было фейковое видео с ним, созданное с помощью искусственного интеллекта.
«Оно было размещено в открытом доступе, где многие люди могли его увидеть и их могли обмануть при покупке или продаже акций, будто бы я рекомендовал им это», — объясняет Рамамурти.
«Когда мы видим такой инцидент, мы сразу подаем жалобу. Мы идем в Instagram и в другие места, где это размещают, чтобы видео сняли. И мы регулярно пишем на рынок, предупреждая людей не верить фейковым видео».
Рамамурти добавляет: «Мы не знаем, сколько людей посмотрели это видео, это действительно трудно выяснить, поэтому мы не можем по-настоящему оценить, был ли от этого большой эффект или нет.
«Что нам нужно — чтобы не было вообще никакого эффекта. Никто не должен понести убытки из‑за того, что поверил чему-то, что не соответствует действительности».
BBC Business Daily: фейковые CEO
Незаконные deepfake теперь в Великобритании — как их обнаруживают?
Борьба с deepfake «превратилась в гонку вооружений»
Рамамурти и Фондовая биржа Бомбея — не единственные.
«Последние данные показывают, что примерно за последние два года мы увидели рост почти на 3 000% в количестве deepfake, которые используются», — говорит Карим Тубба, генеральный директор американской компании по кибербезопасности LastPass.
Тубба самого подделали в 2024 году.
«Один из наших сотрудников в Европе получил аудиосообщение и текстовое сообщение от человека, который утверждал, что это якобы я, и срочно просил о некоторой помощи», — говорит он.
К счастью для Туббы — и для LastPass — сотрудник заподозрил неладное.
«Сообщение было в WhatsApp, а для нас это не санкционированный канал связи», — говорит Тубба. «Также у нас есть корпоративные санкционированные мобильные устройства, и это пришло через его личный телефон. Поэтому он подумал, что это потенциально немного мутно, немного похоже на уловку».
Сотрудник сообщил об инциденте кибербезопасной команде LastPass, и вред не был причинен.
AFP через Getty Images
Не известно, сколько людей пострадали в результате атаки на руководителя Фондовой биржи Бомбея
Британская инжиниринговая компания Arup оказалась не так удачлива. В 2024 году ее поразила одна из самых изощренных атак с deepfake, когда-либо виденных в корпоративном мире.
По данным полиции Гонконга, сотрудник Arup, работавший там, получил сообщение, которое, как утверждалось, пришло от главного финансового директора (CFO) компании, находившегося в Лондоне, о «конфиденциальной сделке».
Сотрудник подключился к видеозвонку с CFO и другими сотрудниками. На основе этого звонка сотрудник затем перевел $25m (£18.5m) денег Arup на пять различных банковских счетов — как ему было поручено. Лишь позже выяснилось, что люди на звонке, включая CFO, были deepfake.
«Вы бы никогда не захотели просто так подключиться к видеозвонку с кем-то и перевести $25m», — говорит Стефани Харе, технический исследователь и соведущая программы BBC AI Decoded.
«Компании вынуждены предпринимать дополнительные шаги, чтобы обеспечить безопасность таких коммуникаций. Это новое «смелое новое мироустройство», в котором мы теперь живем».
Быстрая эволюция ИИ означает, что эти видео становятся все более похожими на реальность.
«Deepfake становятся очень-очень легко делать», — говорит Мэтт Ловелл, сооснователь и CEO британской компании по кибербезопасности CloudGuard. «Чтобы сгенерировать видео и аудио с качеством и экстремально точными спецификациями — нужно всего несколько минут».
Это также становится дешевле.
«Если, скажем, это простая атака, проводимая одним отдельным человеком, вы смотрите на $500–$1,000 с использованием в основном бесплатных инструментов», — говорит Ловелл. «Для более изощренной атаки вы смотрите на $5,000–$10,000».
Хотя фейковые видео с deepfake становятся более изощренными, совершенствуются и инструменты, используемые, чтобы им противостоять. Компании теперь могут использовать верификационное ПО, которое оценивает мимику человека, то, как он поворачивает голову, и даже то, как кровь течет через лицо, чтобы установить, действительно ли это он или же версия, созданная с помощью deepfake.
«На щеках или прямо под веками мы будем искать изменения в кровотоке, когда человек говорит или представляет информацию», — говорит Ловелл. «Именно там мы действительно можем выяснить, сгенерирован ли это ИИ, или это реально».
Getty Images
ИИ позволяет киберзлоумышленникам гораздо проще создавать видео с deepfake
Но компаниям приходится постоянно вести борьбу, чтобы оставаться на шаг впереди мошенников.
«Это гонка — между теми, кто может развернуть технологию, и теми, кто может как можно быстрее ей противодействовать», — говорит Тубба из LastPass. «К счастью, похоже, что в это вливается довольно много денег, и это будет только ускорять темп, с которым организации будут разрабатывать технологии для обнаружения и в конечном итоге блокирования этих вещей».
В CloudGuard CEO Мэтт Ловелл настроен менее оптимистично.
«Векторы атак ускоряются быстрее, чем мы можем ускорить автоматизацию защиты и обеспечение безопасности», — говорит он. «Люди движутся достаточно быстро, чтобы реагировать на скорость, с которой развивается угроза? Вовсе нет».
Харе говорит, что распространение атак с deepfake означает, что люди с навыками борьбы с мошенниками находятся в большом спросе. «По всему миру ощущается нехватка специалистов по кибербезопасности. Нам нужно, чтобы в эту сферу пришло больше людей».
И она говорит, что компании просыпаются из-за угрозы — пусть и медленно.
«Раньше не считалось приоритетным защищать свои операции так же, как это считается сейчас», — отмечает она.
«Теперь, когда у нас есть такие типы рисков, когда руководителей компаний — CEO — тоже подделывают с помощью deepfake, я думаю, что руководители компаний будут проводить больше времени со своими главными специалистами по информационной безопасности и командами, чем раньше. И это хорошо».
Вы справитесь с жизнью и работой в Антарктиде?
Две фермы в Сенегале, которые поставляют многие овощи Великобритании
Трамп нацелен на визит в Венесуэлу — но препятствия для его нефтяного плана остаются
Нидерландцы любят четырехдневные рабочие недели, но они устойчивы?
Мир бизнеса
Международный бизнес
Искусственный интеллект
Интернет-мошенничество
Индия
Deepfakes
Мошенничество