Киберпреступники использовали видео, созданное с помощью искусственного интеллекта, чтобы выдать себя за финансового директора компании AEC и других сотрудников, и заставили одного из сотрудников перевести 25 миллионов долларов на банковские счета в Гонконге.

Scammers siphon $25M from engineering firm Arup via AI deepfake ‘CFO’

Techa Tungateja через Getty Images

Краткое описание:

  • Британская инженерная группа Arup потеряла около 25 миллионов долларов после того, как мошенники использовали управляемые искусственным интеллектом “глубокие подделки”, чтобы выдать себя за финансового директора группы и запросить переводы от сотрудника на банковские счета в Гонконге, согласно отчету Financial Times.
  • По данным полиции Гонконга, сотрудник получил сообщение от финансового директора Arup, базирующегося в Великобритании, о “конфиденциальной транзакции”, сообщает Financial Times. После видеоконференции с фальшивым финансовым директором и другими сотрудниками, созданными с помощью искусственного интеллекта, сотрудник совершил ряд транзакций на пять различных банковских счетов в Гонконге, прежде чем обнаружил мошенничество.Хотя финансовые директора, возможно, в настоящее время не уделяют особого внимания подобным инцидентам, это изменится по мере того, как они станут более частыми. «Для тех, кто хранит финансовые ключи бизнеса — и, следовательно, является потенциальной мишенью для предприимчивых мошенников, — обеспечение осведомленности является важнейшим первым шагом», — сказал финансовому директору Dive Мэтью Миллер, руководитель отдела кибербезопасности в компании «Большой четверки» KPMG в США. По его словам, сотрудники должны быть осведомлены о таких угрозах, как потенциальное выдание себя за руководителей и о том, как такое мошенничество может повлиять на критически важные бизнес-процессы.

Подробный обзор:

Инцидент с Arup связан с ростом обеспокоенности как среди бизнес-лидеров, так и среди регулирующих органов по поводу так называемых глубоких подделок — изображений, аудио или видео, созданных ложным образом или иным образом обработанных с помощью искусственного интеллекта. Впервые о мошенничестве стало известно в феврале, когда полиция Гонконга установила, что крупная компания стала жертвой мошеннического обмана без упоминания Arup по имени. Люди, знакомые с ситуацией, сообщили Financial Times в этом месяце, что целью был Аруп, согласно сообщению, опубликованному в четверг.

В январе Аруп уведомил полицию Гонконга о том, что произошел инцидент мошенничества, и подтвердил Financial Times, что были использованы фальшивые голоса и изображения, но отказался сообщить дополнительные подробности о мошенничестве, поскольку инцидент все еще расследуется. Arup не сразу ответила на запросы финансового директора Dive о комментариях.

В общей сложности транзакции, отправленные сотрудником, который обнаружил мошенничество после обращения в штаб—квартиру компании, исполнителям аферы, составили 200 миллионов гонконгских долларов, или приблизительно 25 миллионов долларов Долларов США.

Глубокие подделки с поддержкой искусственного интеллекта потенциально могут быть использованы для ряда злонамеренных целей, например, для того, чтобы мошенники могли обходить требования аутентификации для получения доступа к учетным записям законных клиентов или выдавать себя за физических лиц на предприятии, обладающих полномочиями по авторизации денежных переводов, сказал Миллер.Хотя такие виды мошенничества не новы, появление генеративного искусственного интеллекта и других инструментов, подпитывающих их, позволяет мошенникам масштабировать подобные аферы в широких масштабах; по сути, “это меняет экономику мошенничества”, — сказал он. “И как только мошенники начинают зарабатывать деньги, они подпитывают свои мошеннические элементы этим финансированием, чтобы иметь возможность зарабатывать больше денег, так что это меня действительно беспокоит, и весьма существенно”.

Финансовым директорам важно повысить осведомленность и начать внимательнее относиться к средствам контроля за мошенничеством, которые у них есть на месте. Финансовым руководителям следует пересмотреть “некоторые из ваших бизнес-процессов, в которых вы можете быть подвержены атакам в социальных сетях типа deepfake”, и убедиться, что “у вас есть надлежащие средства контроля и мониторинга, которые, как мы надеемся, позволят предотвратить эти риски”, — сказал Миллер.Инцидент с Arup — далеко не первый случай, когда подделки использовались для того, чтобы выдать себя за человека, обладающего критически важным доступом или влиянием; буквально на прошлой неделе Комиссия по ценным бумагам и фьючерсам Гонконга предупредила, что поддельные изображения главы Tesla Илона Маска использовались криптовалютной фирмой Quantum AI, например.

SFC “подозревает, что Quantum AI использует созданные с помощью искусственного интеллекта видео и фотографии г-на Илона Маска на своем веб-сайте и в социальных сетях, чтобы ввести общественность в заблуждение относительно того, что г-н Маск является разработчиком базовой технологии Quantum AI”, — говорится в недавнем пресс-релизе.<По словам Миллера, существует также много опасений, связанных с потенциальными социально-экономическими последствиями такого рода технологий. Законодатели многих стран уже призвали ввести ограничения на использование искусственного интеллекта, поскольку усиливаются опасения по поводу того, что он может быть использован злонамеренно во время выборов.Как ранее сообщал финансовый директор Dive, во время своего мартовского послания о положении в стране президент Джозеф Байден подчеркнул угрозу подделок с использованием искусственного интеллекта, призвав Конгресс обратить внимание на потенциальную “опасность”, которую представляют новые технологии. Позже на той же неделе законодатели Европейского союза приняли “Закон ЕС об искусственном интеллекте”, который устанавливает требования к использованию искусственного интеллекта и детализирует потенциально суровые наказания за несоблюдение.