Мошенники в сети: привлечение искусственного интеллекта

Выход в виртуальное пространство начал новый виток кибермошенничества, противостоять которому людям предстоит научиться. Считаем, что главный принцип тут «Предупрежден, значит, вооружен», поэтому разберемся в текущей ситуации.

Наука не стоит на месте. Ежедневно ученые заняты созданием вещей и организацией процессов, которые позволят облегчить существование людей, сделать жизнь комфортней. Центральную роль в этом играет искусственный интеллект (ИИ). Каждый «продвинутый юзер» пробовал или, как минимум, видел ожившие фотографии с применением технологии нейросетей или слышал о шансе «говорить» человеческим, а не синтетическим, языком для немых. Технологии, которым найдется масса применений, не могли не привлечь внимание мошенников.

По прогнозам в ближайшие 10–15 лет людей ожидает волна преступлений, связанных с подделкой видеоизображений и аудиозвонков, взлом чат-ботов и, как результат, кража финансов.

Привлечение ИИ мошенниками проходит в двух направлениях:

  • дипфейки — ложные видео и аудио, имитирующие диалог с реальным человеком;
  • взлом чат-ботов — средство выведать конфиденциальную информацию для кражи финансов.

Разберем каждый из пунктов отдельно и опишем, как обезопаситься.

Опасные дипфейки

Впервые термин «дипфейк» прозвучал в 2017 году. Это соединение слов англ. «deep machine learning» — «умное машинное обучение» и «fake» — «подделка». Таким образом, средствами обучения машин и ИИ создают ложные видео и аудиофайлы, которые среднестатистический человек примет за правду.

Создать такой файл несложно: достаточно взять исходный материал высокого качества и обработать на соответствующем программном обеспечении. Результаты можно увидеть уже сейчас, например, в виде рекламы с Жоржем Милославским от Сбербанка. Причем обратите внимание, что появились рядовые приложения для смартфонов для создания развлекательных видео и аудиодипфейков, а ведь у мошенников устройства намного мощнее и программное обеспечение (ПО) качественней.

Опасность дипфейков понятна сразу:

  • ввод в заблуждение относительно личности звонящего;
  • настраивание на доверительное отношение;
  • убеждение в правдивости высказывания и проч.

Ввиду начала активного создания пусть даже развлекательных дипфейков, Конгресс США подсуетился и в 2018 году принял «Акт о запрете злонамеренного использования дипфейков». Акт работает, но прибыль мошенники ставят выше соблюдения законов. Поэтому разберем, как же отличить реальное от подделки. Ведь и правда, если на «звонок от родственника» постепенно люди привыкают не реагировать бурно, то что произойдет, если это будет видеозвонок.

В качестве самого доступного способа выступает специализированное ПО, которое направлено на выявление реальности файла. Например, компания Resemble AI (Торонто) создала приложение Resemblyzer для оценки достоверности видео или аудиофайла. Минус этой и иных программ в том, что работают только с готовыми вариантами. Если человеку звонят «прямо сейчас», то никто не обработает и не оценит достоверность мгновенно. В этом случае людям приходится ориентироваться на собственные навыки и интуицию, которые развиваются со временем. Так, исследования, проводимые в Германии и США, показали, что в среднем человек с 8–9 попытки начинает без проблем отличать отредактированное изображение от оригинального.

Время

Первый фактор, который призван насторожить — дефицит времени. Если звонит «родственник» с просьбой «как можно скорее» перевести деньги, потому что попал в трудную ситуацию, в больнице и проч., то это повод лишний раз проверить. Вероятность обмана на порядок выше без точного знания, что делать в стрессовой ситуации. Иной случай: звонит руководитель и просит подчиненного срочно перевести деньги на счет новой организации. Даже рискуя вызвать начальственный гнев, лучше перезвонить и перепроверить. Ведь сотрудник, который заботится о благосостоянии и осторожен с деньгами — плюс для компании.

Качество

Если речь прерывается помехами, изображение на фото или видео содержит участки неестественных теней или цвета — повод усомниться. Прозвучат возгласы, что камера не каждого смартфона дает хорошую картинку, но тени, даже в этом случае, расположены на правильных местах. Или иногда попытки скрыть «склейки» внутри изображений приводят к непонятным блюр-эффектам и ретуши в нехарактерных местах. Например, наложение «маски» на лицо — это естественно, а только на область шеи — странно.

Мимика и движения

Чем ниже качество ПО, тем топорней выглядит видео. Например, оживление фотографий по технологии нейросетей показывает, что глаза и губы движутся, но остальная часть неподвижно застыла. Так же и в дипфейках выявляется рассинхронизация отдельных частей лица, головы, плеч. Даже если сеть притормаживает и вызывает лаги воспроизведения, таковые будут сразу везде, а не только на отдельных частях.

Эмоции

Не забывайте об эмоциональной составляющей. Если изображают испуг, изумление и иные эмоции, то подкреплены у человека не только словами и голосом. Волнение читается в глазах, растерянность в движении бровей и проч. Создание подделки, как правило, концентрируется на движении губ и глаз, а не на выражении эмоций.

Однако не стоит забывать, что ИИ быстро учится, а значит, качество фейков будет только расти. Учиться распознавать лучше уже сейчас.

Мошеннические чат-боты

В мире развиваются каналы связи, которые упрощают взаимодействие с «клиент — сотрудник компании» на «клиент — чат-бот». И люди стали предпочитать ботов, ведь кажутся надежными, защищенными и, что важно, оперативно реагируют на взаимодействие. Ведь так не любят по полчаса ждать «ответа оператора».

Чат-боты распространены повсеместно, и область применения только растет. Сначала это были простейшие приложения, социальные сети, а сейчас и банки.

Тут мошенники пошли на уловки, пытаясь подменить бота. И это тоже опасно, ведь в самом простом случае клиент раскроет некоторые персональные сведения, а в неблагоприятном — откроет злоумышленникам полный доступ к финансовой информации. Имейте в виду, что настоящий бот спрашивает не так много данных и не дает доступа к банковским счетам, поэтому сам факт взлома мошенникам прибыли не дает. Цель: разузнать информацию непосредственно у человека.

Единственное, что противостоит мошенникам — бдительность:

  • открывайте и скачивайте приложения только с официальных интернет-ресурсов организаций;
  • пользуйтесь двухфакторной системой аутидентификации с применением смс;
  • запомните: чат-боты в мессенджерах взламывают в несколько раз чаще, чем в официальном приложении;
  • не сообщайте информацию, которая кажется излишней или нетипична для текущего вида взаимодействия.

Главное: при малейшем сомнении лучше разорвать контакт и связаться вновь через оператора. Лучше излишняя подозрительность, чем потеря денег и информации.

Заключение

Преступления с использованием ИИ — крайне опасная тенденция, которая наверняка еще захлестнет мир. Опасность не только в потере денег. Для видных деятелей и компаний — это еще и потеря репутации. Ведь публикуют заявления от лица человека, а ему потом доказывать, что это ложь.

Среднестатистическому человеку советуем не избегать изучения этого вопроса. Просматривайте фейковые видео, обращайте внимание на детали и нестыковки, а главное, не теряйте голову в ситуациях, когда требуется немедленное действие. Ведь на это мошенники и рассчитывают, загоняя человека в состояние стресса и требуя срочно предпринять действия.

Готовы сделать что-нибудь невероятное?

Давайте начнем