Опасный ИИ: как нейросети стали инструментом кибермошенников
Как не стать жертвой кибермошенников — читайте в статье заместителя директора Аналитического центра УЦСБ Евгения Баклушина
Выпускник ИРИТ-РТФ УрФУ, преподаватель дисциплин по информационной безопасности. В сфере кибербезопасности более 10 лет, специализация — аудиты и стратегия развития ИБ для бизнеса и госсектора.
В середине декабря 2023 года на прямой линии с Президентом РФ студент СПбГУ с помощью искусственного интеллекта и механизмов deepfake дал возможность пообщаться Владимиру Владимировичу со своим двойником. Ситуация повеселила многих, но наглядно продемонстрировала, что новейшие технологии легко могут быть использованы для подмены личности. Естественно, все это взяли на вооружение кибермошенники.
Еще одним примером подобного использования новейших технологий стала ситуация, когда мошенники заставили сотрудника финансового отдела перевести 25 миллионов долларов, подделав лица директора и еще нескольких коллег на совещании в прямом эфире.
Человек, незнакомый глубоко с новейшими технологиями, справедливо задаст вопрос: «Как это может использоваться?» Попробуем дать ответ…
Слагаемое первое — голос
— Как зовут пса?
— Макс.
— Жанель, а что там с Вульфи?
— С Вульфи все отлично, Вульфи тебя ждет!
Еще в фильме «Терминатор 2» одноименный персонаж продемонстрировал механизм подмены голоса, чтобы выявить злодея и спасти Джона Коннора. Однако сегодня такая технология стала больше, чем реальностью. Реальность эта намного доступнее, ведь для нее не нужно отправлять робота из будущего в прошлое. Любой злоумышленник даже без технического и ИТ-опыта буквально в пару кликов может найти инструкции и ресурсы в интернете, чтобы использовать инструменты подмены голоса как свое орудие.
При этом не нужно быть президентом страны или публичной личностью, чтобы это орудие было использовано против вас. Оно может быть использовано против любого пользователя и гражданина. Также не нужно быть публичной личностью, чтобы злоумышленник мог получить ваш голос или голос вашего родственника. Достаточно буквально одного-двух примеров голоса вашего родственника, коллеги или знакомого, чтобы искусственный интеллект мог его воспроизвести. Злоумышленнику достаточно иметь номер телефона, который он, скорее всего, найдет в социальных сетях. Ему хватит всего лишь одного звонка, чтобы получить достаточно «материала».
Слагаемое второе — изображение
Вторым слагаемым двойника стало лицо президента. Однако здесь тоже не нужно быть главой государства, чтобы злоумышленник смог его сгенерировать. Достаточно профиля вашего знакомого или вашего родственника в любой социальной сети, и очень вероятно, что фотографий там даже больше, чем одна. Чем больше фотографий, тем выше качество изображения и обучения механизма изменения лица. Таким образом, чтобы получить нужное «лицо» злоумышленнику даже не нужно взаимодействовать с его владельцем.
Третье слагаемое — ИИ
Уже понятно, что социальные сети становятся источником нужных номеров телефона, изображений, но еще к таким материалам относятся и ваши контакты или «друзья» в социальных сетях, которые пополняют базу потенциальных жертв злоумышленников.
После сбора нужных материалов в виде голоса и изображения лица злоумышленник приступает к созданию клона. На этом этапе в бой вступает искусственный интеллект, поскольку вручную выполнить подмену голоса и видеомонтаж — это очень трудоемкий и дорогой процесс. ИИ сокращает потенциально затрачиваемое время в сотни или даже тысячи раз.
В качестве первого шага на данном этапе злоумышленник записывает видео, на котором говорит необходимый текст. После чего видео отправляется на первую обработку с помощью ИИ — происходит замена голоса. Далее видео с новым голосом проходит второе преобразование, в котором настоящее лицо злоумышленника заменяется на то изображение, которое он выбрал. При этом ИИ не просто вставляет картинку, как в обычном редакторе изображений, а оживляет ее — добавляет мимику и движение губ.
В итоге получается материал, готовый к использованию в злодеяниях. Важно помнить, что злоумышленник в целом может обойтись и более простой версией материала для атаки — в аудиоформате, без видеоизображения. Записывает необходимое аудио, отправляет ИИ вместе с примером нужного голоса и далее использует конечный результат.
Что делать?
Несмотря на то, что технологии являются новейшими, способы борьбы с ними такие же, как и были раньше. Стоит соблюдать пять основных правил:
- Остановитесь, подумайте. Злоумышленники всегда стараются застать врасплох, говорят очень быстро и подталкивают вас к немедленным действиям. Просто остановитесь и спокойно подумайте над тем, что вам сказали или написали.
- Доверяйте, но проверяйте. Самый простой способ убедиться в том, что вы говорите с настоящим человеком − сбросить звонок или выйти из чата и связаться с человеком, которым представился собеседник, по имеющимся у вас с ним каналам. Это может быть номер из вашей телефонной книжки или нужный чат в мессенджере.
- Размещайте меньше информации. Чем меньше информации вы размещаете о себе и своих близких, тем сложнее произвести на вас атаку с подменой личности.
- Запишите контакты. Хорошей и простой практикой является, когда вы записываете все номера телефонов важных контактов (личных, профессиональных). Если у вас записан номер директора вашей компании, то, когда злоумышленник позвонит с другого номера и представится вашим руководителем, вам легче будет распознать обман.
- Используйте антиспам-приложения. Они помогут защитить вас на самом первом, «нулевом» этапе сбор информации злоумышленником, когда он проверяет собранные телефоны на актуальность. Проверяет, что на другой стороне живой человек.