CCT - Crypto Currency Tracker logo CCT - Crypto Currency Tracker logo
Forklog 2024-07-01 16:31:49

Мошенничество с использованием ИИ: виды и способы борьбы

Искусственный интеллект существенно упрощает рабочие процессы и повышает производительность. Однако он также нередко является инструментом мошенников, поскольку позволяет дешево и качественно создавать аудио, видео, сообщения, дипфейки, пишет TechCrunch.  Рассказываем о популярных способах обмана с использованием ИИ и вариантами борьбы со злоумышленниками.  Клонирование голоса членов семьи и друзей Синтез речи существует уже несколько десятилетий, но благодаря развитию генеративного искусственного интеллекта мошенники могут создавать фейк всего лишь из нескольких секунд аудио. Голос любого человека, который публично транслировался, например в новостном репортаже или в видео на YouTube, может быть клонирован.  У мошенников есть возможность генерации убедительных и фальшивых версий друзей или близких потенциальной жертвы. Часто используется просьба о помощи, отмечает издание. Например, родитель может получить голосовое сообщение с неизвестного номера от «сына», который рассказывает о краже вещей во время путешествия и просит отправить деньги. В январе неизвестный клонировал голос президент США Джо Байдена и осуществил серию звонков избирателям в Нью-Гемпшире, призвав бойкотировать голосование. В результате Федеральная комиссия по связям предложила назначить штраф $6 млн за фейковые звонки.  Еще один пример: в США учителя физкультуры обвинили в использовании голосового дипфейка, чтобы подставить директора школы и добиться его увольнения. Однако независимые эксперты установили, что аудио было сфабриковано, поскольку имеет «ровный тон, необычно чистый фон, отсутствие последовательных звуков дыхания или пауз». Как бороться с клонированием голоса? Технология развилась настолько, что распознать фальшивый голос крайне сложно. Иногда это не под силу даже экспертам. Все, что происходит с неизвестного номера, адреса электронной почты или аккаунта, необходимо автоматически считать подозрительным, советует TechCrunch. Если кто-то представляется другом или родственником, стоит связаться с этим человеком по другим каналам связи. Персонализированный фишинг и спам по электронной почте Искусственный интеллект позволяет генерировать тексты намного быстрее и на разных языках, в том числе адаптированные для конкретного человека. Компания по безопасности SlashNext отметила, что количество фишинговых атак по электронной почте увеличилось на 856% за последний год, а с момента запуска ChatGPT в 2022 году — на 4151%. Согласно изданию, особенно опасными являются персонализированные письма. Поскольку утечки личных данных происходят регулярно, большая их часть находится в открытом доступе. Мошенники могут использовать информацию о недавнем местоположении, покупках или привычках, а языковая модель напишет тысячи писем за считанные секунды. Журналисты приводят возможный пример такого сообщения: «Привет, Дорис! Я из команды продвижения Etsy. На товар, которым вы недавно интересовались, скидка 50%! А доставка на ваш адрес в Беллингеме будет бесплатной, если вы воспользуетесь этой ссылкой». Такое письмо выглядит правдоподобным, а нейросеть может создавать их в больших количествах для разных людей, говорится в статье. Как бороться со спамом по электронной почте? Не переходить по сомнительным ссылкам и не скачивать странные файлы. Если нет стопроцентной уверенности в подлинности и личности отправителя, лучше письмо или ссылки в нем не открывать.  Атака с подменой личности Используя утечки личных данных, мошенники могут входить в аккаунт на каком-либо ресурсе/бирже. Издание указывает, что нейросеть способна создать поддельную копию личности пользователя и с помощью персональной информации обратиться в службу поддержки с просьбой восстановить аккаунт.  Как правило, для восстановления доступа требуются такие данные как дата рождения, номер телефона. Иногда требуется сделать селфи, но и такая задача ИИ по силам, подчеркивает TechCrunch. Как бороться с мошенничеством подмены личности? С помощью многофакторной аутентификации. Любая подозрительная активность по аккаунту будет транслироваться на электронную почту или прямо на телефон. Дипфейки и шантаж ИИ позволяет наложить лицо любого человека на другое тело и сделать таким образом правдоподобную фотографию (или видео). Этот вид мошенничества используется для шантажа или распространения фейков.  https://forklog.com/cryptorium/ai/chto-takoe-dipfake Например, в январе сотрудник транснациональной компании в Гонконге перевел мошенникам $25 млн после созвона с «коллегами», которые оказались дипфейками. Пострадавший получил приглашение якобы от финансового директора фирмы на онлайн-видеовстречу, где планировалось обсудить некую конфиденциальную сделку.  Все присутствовавшие на созвоне «руководители компании» были дипфейк-имитацией. Они убедили сотрудника перевести $25,5 млн из средств фирмы на пять банковских счетов. Как бороться с дипфейком и шантажом? Вместо выполнения требований шантажиста лучше обратиться в полицию и к хостингам с требованием удалить фотографии. https://forklog.com/exclusive/ai/fejki-dipfejki-i-chat-boty-kak-raspoznat-ii-manipulyatsii-v-internete Напомним, в июне специалисты Elliptic отметили рост использования ИИ в криптопреступлениях.  В начале июня графический дизайнер Dogecoin под ником DogeDesigner обнаружил на YouTube прямую трансляцию с дипфейком CEO Tesla и SpaceX Илона Маска, продвигающего криптовалютный скам.

阅读免责声明 : 此处提供的所有内容我们的网站,超链接网站,相关应用程序,论坛,博客,社交媒体帐户和其他平台(“网站”)仅供您提供一般信息,从第三方采购。 我们不对与我们的内容有任何形式的保证,包括但不限于准确性和更新性。 我们提供的内容中没有任何内容构成财务建议,法律建议或任何其他形式的建议,以满足您对任何目的的特定依赖。 任何使用或依赖我们的内容完全由您自行承担风险和自由裁量权。 在依赖它们之前,您应该进行自己的研究,审查,分析和验证我们的内容。 交易是一项高风险的活动,可能导致重大损失,因此请在做出任何决定之前咨询您的财务顾问。 我们网站上的任何内容均不构成招揽或要约