2 января 2026, 21:10: Когда нужно срочно забирать деньги из банка, предупредил эксперт 2 января 2026, 20:10: Банкоматы стали выдавать крупные суммы после звонка из банка Курсы валют от ЦБ на 02.01.2026: 1 Доллар США = 78.23 руб. 1 Евро = 92.09 руб. 1 Юань = 11.16 руб. 100 Иен = 50.05 руб. 2 января 2026, 19:20: Карту заблокируют: какие переводы стали считать подозрительными 2 января 2026, 18:00: Катание на тюбингах может быть опасно 2 января 2026, 17:00: Судьбу ключевой ставки прояснили в Госдуме Курсы валют от ЦБ на 02.01.2026: 1 Доллар США = 78.23 руб. 1 Евро = 92.09 руб. 1 Юань = 11.16 руб. 100 Иен = 50.05 руб. 2 января 2026, 16:00: Детям важен режим даже на каникулах 2 января 2026, 15:00: Ответственность за найм нелегальных мигрантов ужесточат в России 2 января 2026, 14:00: Отдохнуть от гаджетов в праздники призвали россиян Курсы валют от ЦБ на 02.01.2026: 1 Доллар США = 78.23 руб. 1 Евро = 92.09 руб. 1 Юань = 11.16 руб. 100 Иен = 50.05 руб. 2 января 2026, 13:00: Объем ввоза автомобилей во Владивосток вырос в 2025 году 2 января 2026, 12:00: Субсидии на оплату ЖКХ могут получить россияне

Карьера в сфере медиа: мошенники обещают россиянам красивое будущее

11 марта 2024, 15:20

Любыми путями аферисты в Сети пытаются выманить у потенциальной жертвы обмана важные личные данные. Подробности сообщает ИА DEITA.RU со ссылкой на «Прайм».

Истории обмана в современных реалиях становятся всё больше похожи на сюжеты мультфильмов. Кибер-мошеннику сейчас нужен голос: чем не история про Русалочку? Дело в том, что образец голоса злоумышленники смогут использоваться для дальнейшего обмана. Об этом рассказал Ваге Закарян, руководитель команды разработки супераппа Gem Space в беседе с изданием.

Специалист пояснил, что мошенники добиваются того, чтобы жертва обмана прислала образец собственного голоса – в виде известного многим голосового сообщения в мессенджере. Звуковую запись обманщики просят под предлогом участия в кастинге на озвучивания рекламы или фильмов, – в дальнейшем человек сможет построить карьеру в сфере медиа. Если голос окажется подходящим, человеку могут предложить заказ, именно это обещают аферисты.
Эксперт предупреждает, что мошенники собирают голосовые сообщения для дальнейшей работы с нейросетью: используя образец голоса, последняя имеет возможность сгенерировать голосовое сообщение якобы от его обладателя. На самом деле за ним будут стоять обманщики, информирует специалист.

Так, при помощи искусственного интеллекта могут быть сгенерированы фразы, при помощи которых от имени другого человека (собственника голоса) с его взломанного аккаунта в социальных сетях будет озвучена, например, просьба о переводе крупной суммы денег. Или мошенники смогут при помощи готовых фраз для беседы с оператором банка оформить кредит.

Если сообщения в текстовом формате ещё могут заставить родственников усомниться в правдивости просьбы, то голосовое сообщение призвано рассеять все сомнения. Эксперт подчёркивает, что пока обман такого рода в Сети ещё не сильно распространён, но случаи уже встречаются. Вероятно, с развитием технологий искусственного интеллекта, подобных схем будет становиться больше.

«Уже сейчас к голосовым сообщениям лучше относиться, как к конфиденциальной информации, которую не стоит предоставлять незнакомцам», – подчёркивает специалист.

Автор: Софья Корф