CCT - Crypto Currency Tracker logo CCT - Crypto Currency Tracker logo
Forklog 2024-07-01 16:31:49

Мошенничество с использованием ИИ: виды и способы борьбы

Искусственный интеллект существенно упрощает рабочие процессы и повышает производительность. Однако он также нередко является инструментом мошенников, поскольку позволяет дешево и качественно создавать аудио, видео, сообщения, дипфейки, пишет TechCrunch.  Рассказываем о популярных способах обмана с использованием ИИ и вариантами борьбы со злоумышленниками.  Клонирование голоса членов семьи и друзей Синтез речи существует уже несколько десятилетий, но благодаря развитию генеративного искусственного интеллекта мошенники могут создавать фейк всего лишь из нескольких секунд аудио. Голос любого человека, который публично транслировался, например в новостном репортаже или в видео на YouTube, может быть клонирован.  У мошенников есть возможность генерации убедительных и фальшивых версий друзей или близких потенциальной жертвы. Часто используется просьба о помощи, отмечает издание. Например, родитель может получить голосовое сообщение с неизвестного номера от «сына», который рассказывает о краже вещей во время путешествия и просит отправить деньги. В январе неизвестный клонировал голос президент США Джо Байдена и осуществил серию звонков избирателям в Нью-Гемпшире, призвав бойкотировать голосование. В результате Федеральная комиссия по связям предложила назначить штраф $6 млн за фейковые звонки.  Еще один пример: в США учителя физкультуры обвинили в использовании голосового дипфейка, чтобы подставить директора школы и добиться его увольнения. Однако независимые эксперты установили, что аудио было сфабриковано, поскольку имеет «ровный тон, необычно чистый фон, отсутствие последовательных звуков дыхания или пауз». Как бороться с клонированием голоса? Технология развилась настолько, что распознать фальшивый голос крайне сложно. Иногда это не под силу даже экспертам. Все, что происходит с неизвестного номера, адреса электронной почты или аккаунта, необходимо автоматически считать подозрительным, советует TechCrunch. Если кто-то представляется другом или родственником, стоит связаться с этим человеком по другим каналам связи. Персонализированный фишинг и спам по электронной почте Искусственный интеллект позволяет генерировать тексты намного быстрее и на разных языках, в том числе адаптированные для конкретного человека. Компания по безопасности SlashNext отметила, что количество фишинговых атак по электронной почте увеличилось на 856% за последний год, а с момента запуска ChatGPT в 2022 году — на 4151%. Согласно изданию, особенно опасными являются персонализированные письма. Поскольку утечки личных данных происходят регулярно, большая их часть находится в открытом доступе. Мошенники могут использовать информацию о недавнем местоположении, покупках или привычках, а языковая модель напишет тысячи писем за считанные секунды. Журналисты приводят возможный пример такого сообщения: «Привет, Дорис! Я из команды продвижения Etsy. На товар, которым вы недавно интересовались, скидка 50%! А доставка на ваш адрес в Беллингеме будет бесплатной, если вы воспользуетесь этой ссылкой». Такое письмо выглядит правдоподобным, а нейросеть может создавать их в больших количествах для разных людей, говорится в статье. Как бороться со спамом по электронной почте? Не переходить по сомнительным ссылкам и не скачивать странные файлы. Если нет стопроцентной уверенности в подлинности и личности отправителя, лучше письмо или ссылки в нем не открывать.  Атака с подменой личности Используя утечки личных данных, мошенники могут входить в аккаунт на каком-либо ресурсе/бирже. Издание указывает, что нейросеть способна создать поддельную копию личности пользователя и с помощью персональной информации обратиться в службу поддержки с просьбой восстановить аккаунт.  Как правило, для восстановления доступа требуются такие данные как дата рождения, номер телефона. Иногда требуется сделать селфи, но и такая задача ИИ по силам, подчеркивает TechCrunch. Как бороться с мошенничеством подмены личности? С помощью многофакторной аутентификации. Любая подозрительная активность по аккаунту будет транслироваться на электронную почту или прямо на телефон. Дипфейки и шантаж ИИ позволяет наложить лицо любого человека на другое тело и сделать таким образом правдоподобную фотографию (или видео). Этот вид мошенничества используется для шантажа или распространения фейков.  https://forklog.com/cryptorium/ai/chto-takoe-dipfake Например, в январе сотрудник транснациональной компании в Гонконге перевел мошенникам $25 млн после созвона с «коллегами», которые оказались дипфейками. Пострадавший получил приглашение якобы от финансового директора фирмы на онлайн-видеовстречу, где планировалось обсудить некую конфиденциальную сделку.  Все присутствовавшие на созвоне «руководители компании» были дипфейк-имитацией. Они убедили сотрудника перевести $25,5 млн из средств фирмы на пять банковских счетов. Как бороться с дипфейком и шантажом? Вместо выполнения требований шантажиста лучше обратиться в полицию и к хостингам с требованием удалить фотографии. https://forklog.com/exclusive/ai/fejki-dipfejki-i-chat-boty-kak-raspoznat-ii-manipulyatsii-v-internete Напомним, в июне специалисты Elliptic отметили рост использования ИИ в криптопреступлениях.  В начале июня графический дизайнер Dogecoin под ником DogeDesigner обнаружил на YouTube прямую трансляцию с дипфейком CEO Tesla и SpaceX Илона Маска, продвигающего криптовалютный скам.

Read the Disclaimer : All content provided herein our website, hyperlinked sites, associated applications, forums, blogs, social media accounts and other platforms (“Site”) is for your general information only, procured from third party sources. We make no warranties of any kind in relation to our content, including but not limited to accuracy and updatedness. No part of the content that we provide constitutes financial advice, legal advice or any other form of advice meant for your specific reliance for any purpose. Any use or reliance on our content is solely at your own risk and discretion. You should conduct your own research, review, analyse and verify our content before relying on them. Trading is a highly risky activity that can lead to major losses, please therefore consult your financial advisor before making any decision. No content on our Site is meant to be a solicitation or offer.