Больше не верьте своим ушам! Мошенники научились подделывать человеческий голос для более эффективного вымогательства

Lammer

New member
VIP пользователь
Внесён депозит 500$
Теперь даже в разговорах с родственниками нужно быть предельно бдительными...

moshennik.jpg

Пугающий случай произошёл недавно с девушкой по имени Релли из штата Мэриленд, США. Ей позвонил отец со своего собственного телефона и своим обычным голосом сказал «Привет». Однако дальше девушка услышала из трубки то, что повергло её в неподдельный ужас. «Этот звук, как будто он задыхается, или его бьют, или что-то в этом роде, но это был на 1000% его голос», — вспоминает Релли.

Через несколько секунд из трубки звучал уже другой голос, который угрожал застрелить отца девушки, если та не переведёт преступнику деньги. У Релли не было времени на размышления, она была уверена, что у преступников в заложниках и правда был её отец. Релли даже слышала, как он пытался бороться на заднем фоне. Звонивший был настолько убедителен, что девушка безоговорочно выполнила его приказы и перевела 500 американских долларов через специальное приложение по номеру телефона мошенника.

Пока девушка переводила деньги, её бойфренд на всякий случай позвонил родственникам, в доме которых живёт отец Релли. Только к концу разговора с преступником выяснилось, что отец девушки находится дома, в полной безопасности, но момент уже был упущен. Релли перевела деньги злоумышленнику и так сильно испугалась, что какое-то время не могла обсуждать эту ситуацию вовсе. «Мой папа в порядке, но это не отменяет того факта, что это было невероятно травматично и страшно», — сказала Релли.

Позже стало известно, что банк не может отменить транзакцию и вернуть девушке деньги, так как перевод был совершен добровольно самой Релли, хоть и в таких кошмарных обстоятельствах. Представители банка просто развели руками.

Доподлинно неизвестно, был ли голос отца девушки скопирован через какой-то программный инструмент, или всё это «представление» было чётко спланированной операцией с живым актёром, голос которого был крайне похож на голос отца Релли. Однако вряд ли бы злоумышленники стали так заморачиваться. Технологии для клонирования голоса уже существуют. В разное время подобными проектами занималась компания Adobe и Nvidia, да и сейчас инструментов вполне хватает, в том числе для изменения голоса по шаблону и в реальном времени.

Что касается подмены номера телефона — это тоже популярная мошенническая схема. Сделать нечто подобное злоумышленникам вполне по силам даже без больших временных и финансовых затрат.

В марте Федеральная торговая комиссия (FTC) разослала предупреждение американским потребителям о том, что мошенники теперь используют искусственный интеллект для улучшения своих схем. По данным FTC, всё, что нужно мошенникам, — это короткий образец голоса человека (от трёх секунд), который можно получить, банально позвонив на номер потенциальной жертвы и обменявшись с ней несколькими фразами.

Тем не менее, технология клонирования голоса может использоваться и в законных целях. Например, её встраивают в чат-ботов или используют для персонализации обслуживания клиентов с помощью узнаваемого голоса популярных актеров.

Чтобы не попасть в такую же ситуацию, эксперты советуют лишний раз не брать трубки с незнакомых номеров. А при условии наличия аккаунтов в социальных сетях, доступ к ним желательно ограничить только близкому кругу людей. Ведь если у потенциальной жертвы есть открытый профиль в условном ВКонтакте, а ещё лучше — YouTube или TikTok-канал, злоумышленнику даже не придётся напрягаться, чтобы получить базовую информацию и образец голос человека. Блогеры и прочие публичные деятели тут явно находятся в зоне риска по умолчанию.

Конечно, с развитием Интернета и ИИ-технологий практически никто не защищён от подобного рода атак, да и разумно мыслить в стрессовой ситуации сможет далеко не каждый. Представители FTC советуют при поступлении подобного звонка не верить тому, что говорит мошенник, как бы убедительно это не звучало. Лучше сбросить вызов и позвонить напрямую человеку, голос которого злоумышленники, предположительно, скопировали. Если такого варианта нет, стоит связаться с родственниками этого человека и разузнать, не пытаются ли вас обмануть.
 

Гопсек

New member
Никакой искусственный не будет настолько убедительным, на сколько наши сидельцы в ИК, которым нужны деньги 😄
По СНГ давно такой развод гуляет - Мама, я попал в аварию - нужны срочно деньги!
 

aleksbor2030

New member
Говорят даже голос умуюдряются копировать, только хз как (инфа от знакомых, денег не дали если что)
 

Ezio Auditore

New member
Бредятина... Это массовый скам, как они могут копировать голос стольких людей?
Просто жалостливый тихий голос, а там уже жертва сама себе фильмует и додумывает дальше
 

bay0net

New member
Бредятина... Это массовый скам, как они могут копировать голос стольких людей?
Просто жалостливый тихий голос, а там уже жертва сама себе фильмует и додумывает дальше
Да, мне как то звонили. Говорят шепотом и заплаканным голосом, торопят и не дают ничего сказать, никакого копирования голоса там не может быть и в помине, особенно учитывая, что дочери у меня никогда не было ))))
 

X-ELEMENT

New member
Шутки шутками, а интересно, какой фрод придумают банки против этого?
По идее нейросети достаточно пару минут вас послушать, чтобы воспроизвести любую фразу для подтверждения платежа в банке например и совершить любую операцию
 

Melvin

New member
Я думаю эту хрень вообще выпилят, если будет хоть один успешный способ взлома таким способом.
+ не нужно забывать, что понадобится подмена номера клиента
 

kapone

New member
А ты че, реально думал восстание машине будет выглядеть как в терминаторе гы ?Никуя, битва интеллектов
 

KendrikLambard

New member
Мне интересно, а че это за мулька такая пошла в последнее время на форуме про восстание машины, порабощение человечества искусственным интеллектом и прочие заговоры ?))) Рен-тв пересмотрели?
 
Яндекс.Метрика
Сверху