Для того чтобы лишить свою жертву денег, мошенники могут представиться кем угодно. Теперь они научились подделывать голос и даже внешний вид. О новых технологиях обмана казахстанцев предупредили эксперты проекта FinGramota.
Ранее мы рассказывали о том, что одна из новых мошеннических схем основана на использовании записи речи жертвы для прохождения идентификации в call-центре банка, шантажа с помощью смонтированной компрометирующей записи и так далее.
Но теперь мошенники расширили свою "деятельность" и для более креативного обмана начали использовать дипфейки.
Что такое дипфейки
Это фото, видео или аудиозаписи, обработанные с помощью искусственного интеллекта. Термин "deepfake" произошел от двух слов – "глубокий" и "фальшивый".
Технология дипфейков основана на мощнейших нейросетях, с помощью которых можно генерировать любые фото- и видеоизображения, манипулировать такими биометрическими данными, как тональность голоса и выражение лица человека.
Благодаря ей можно оживить несуществующих людей или фотографию, подделать голос и мимику, добавить в речь слова, которые человек никогда не произносил, прибавить ему возраст или, наоборот, сбросить несколько десятков лет.
Этими технологиями активно пользуются продюсеры, режиссеры, маркетологи, рекламщики и, наконец, мошенники. Для последних дипфейк является идеальным инструментом для совершения кибератак и кражи конфиденциальных данных граждан.
Что могут сделать злоумышленники
С помощью дипфейков злоумышленники могут:
- подделать чужую личность для того, чтобы получить доступ к банковскому счету, обналичить его и оформить подставные кредиты;
- выкрасть данные умершего человека, "оживить" его для получения доступа к банковским онлайн-сервисам;
- синтезировать нового "человека", которого не существует в природе, используя его для совершения крупных финансовых транзакций и изощренных схем кредитного мошенничества.
Как это происходило на практике
Дипфейки стали использоваться сравнительно недавно, в интернете поддельные видео на основе этой новейшей технологии появились пять лет назад. А в 2019 году прогремела первая крупная афера в мире.
В Великобритании киберпреступники с помощью искусственного интеллекта подделали голос главы крупной энергетической компании и даже его легкий немецкий акцент.
Они позвонили к исполнительному директору и под предлогом срочности потребовали перевести 220 тысяч евро в течение часа якобы поставщику. Управленец выполнил указание своего "босса", но мошенники на этом не остановились и позвонили еще два раза с просьбой совершить дополнительные платежи. Это вызвало подозрения.
В результате расследование показало, что была совершена тщательно продуманная хакерская атака с использованием фейкового аудио. Но вернуть средства, как и найти злоумышленников, не удалось.
В 2021 году в Китае уличили аферистов, выдававших своим клиентам поддельные накладные. Они покупали фотографии людей и "оживляли" их с помощью технологии дипфейка, чтобы пройти систему проверки личности налоговой службы. Таким образом преступники заработали свыше 76 миллионов долларов.
В том же году в России мошенники создали и распространили в сети дипфейк-видео с одним из известных банкиров. Его цифровой двойник "призывал" пользователей открыть инвестиционный счет, вложить свои средства и хорошо на этом заработать.
Хотя видео было не очень хорошего качества, многие пользователи все же поверили ролику, перешли по фишинговой ссылке и оставили личные данные, которые мошенники могут использовать для кражи денег с банковских счетов.
В Казахстане о случаях с мошенничества с использованием технологии дипфейка ничего неизвестно. Но, как говорится, предупрежден – значит, вооружен.
Основным способом борьбы с киберпреступниками является повышение осведомленности пользователей о подобной схеме обмана и соблюдение цифровой гигиены.
Как не попасться на фейк
Эксперты отмечают, что мошенники редко уделяют должное внимание качеству своего "продукта", будь то видео, фото или аудио. Поэтому странное моргание, либо его отсутствие, слова невпопад, легкое заикание или роботизированный тон должны насторожить.
То есть нужно относиться с подозрением ко всему, что кажется неестественным. Например, в случае с видео можно также обратить внимание на тени, блики, трансформацию при движении, цвет и текстуру кожи, натуральность растительности и родинок на лице и так далее.
А если визуально или на слух распознать обман представляется сложным, то нужно просто быть бдительным.
Если звонит близкий или знакомый и просит срочно перевести деньги, нужно завершить разговор и перезвонить, самостоятельно набрав его номер.
Если в интернет-ролике публичная личность предлагает заработать много денег при минимальных усилиях, не стоит верить своим глазам, а лучше включить критическое мышление.
Подобной "рекламе", даже без дипфейков, где просто используются изображения известных и уважаемых людей, не нужно доверять.
Только мошенники обещают "золотые горы", а взамен оставляют своих жертв ни с чем. Теперь они могут делать это не напрямую, а через искусственный интеллект.
Некоторые сервисы могут создать дипфейк-видео или аудио, пусть и не очень хорошего качества, только с помощью одного изображения или голосовой записи длиной в несколько секунд.
Поэтому, чтобы не попасться на уловки кибермошенников, стоит соблюдать простые правила безопасности в интернете и проявлять внимательность при любых обстоятельствах.
Больше о новостях мира финансов вы можете узнать в Telegram-канале «НурФин». Там мы публикуем актуальные курсы валют, рассказываем о ситуации на финансовом рынке и объясняем, почему инвестиции и криптовалюта — это не сложно. Подписаться на Telegram-канал можно здесь.
Оригинал статьи: https://www.nur.kz/nurfin/personal/1983428-o-novom-sposobe-lisheniya-deneg-predupredili-kazahstantsev-eksperty/