Мошенники научились подделывать голоса жертв при помощи ИИ

Применение технологии Deepfake для банковского мошенничества становятся повседневной реальность

  • Киберпреступники по всему миру начинают использовать поддельные голоса реальных людей для того, чтобы выманивать у них деньги.
  • В Великобритании сгенерированный ИИ голос использовался для того, чтобы обмануть топ-менеджера крупной корпорации и перевести 243 000 долларов на банковский счет мошенника.

Американское издание ZdNet рассказывает о случае, который 25 лет назад вполне мог бы лечь в основу сюжета фантастического фильма в стиле Киберпанк, а сегодня — это уже обыденная реальность наших дней.

В Великобритании сгенерированный ИИ голос использовался для того, чтобы обмануть топ-менеджера корпорации и перевести 243 000 долларов на банковский счет мошенника.

Кибер атаки при помощи так называемых deepfake технологий в ближайшему будущем очевидно станут следующей вехой в развитии технологий, используемых криминалитетом..

The Wall Street Journal сообщает, что топ менеджер одной неназванной британской энергетической компании был в полной уверенности, что разговаривает по телефону со своим боссом, генеральным директором материнской компании, штаб квартира которой находится в Германии. Лже директор попросил его срочно перевести 220 000 евро (243 000 долларов США) несуществующему поставщику в Венгрии.

В реальность глава британского филиала выполнял указания мошенника, который использовал последнюю технологию имитации голоса на основе искусственного интеллекта, чтобы выдать себя за немецкого генерального директора. Это голосовой эквивалент deepfake видео вызывают особую тревогу так как таит в себе опасный потенциал в области манипуляции общественным мнением и возможностей по провоцированию социальных кризисов, — подчеркивается в публикации.

Журналисты WSJ узнали об инциденте с голосовым мошенничеством от компании Euler Hermes Group, страховщика пострадавшей энергетической компании.

Страховщик полагает, что для совершения мошенничества мошенники использовали доступное на рынке программное обеспечение для генерации голоса на основе ИИ.

Читайте также:  Грязные деньги из РФ дошли до королевской семьи. The Guardian о расследовании OCCRP

Топ менеджер из Великобритании что-то заподозрил лишь после того, когда мошенник в третий раз позвонил с просьбой о втором переводе и заметил, что звонок был сделан с австрийского номера. Он не делал никаких дальнейших переводов. Однако первоначальный перевод под контролем мошенников поступил на счет в Венгрии, а затем был переведен в Мексику.

Это не первый известный случай имитации голосов реальных людей, чаще всего генеральных директоров крупных компаний в мошеннических целях.

В июле Би-би-си сообщила, что компания Symantec сигнализировала о трех аналогичных случаях, когда программное искусственный интеллект использовался, чтобы подделать голоса генерального директора коммерческой компании. Жертвы потеряли миллионы долларов во всех случаях.

Руководители могут быть более легкой мишенью для мошенничества с голосом, генерируемого ИИ, поскольку образец их голоса можно легко получить из выступлений в СМИ, видео на YouTube и конференциях, что даёт возможность мошенникам без труда получать необходимое количество данных для построения модели чьего-либо голоса.

Ведущее технологическое издание пишет о том, что за только за последние два года потери американского бизнеса от кибермошенничества с использованием мошеннической электронной почты составили по меньшей мере два миллиарда долларов. Новые технологии могут увеличить доход киберкриминала на порядок.

Нет никаких сомнений в том, что доморощенный криминалитет уже в скором времени также возьмет на вооружение новые технологии, и тогда ко всем уже хорошо известным способам телефонного банковского мошенничества, добавится еще один, пожалуй самый опасный.

 

 

Комментарии

Комментарии