14 мая 2026, 11:15: Когда россияне начнут массово снимать деньги со вкладов 14 мая 2026, 10:15: Почему не стоит жить на проценты от вклада, объяснил эксперт 14 мая 2026, 10:00: Приханкайская житница и центр стройиндустрии: как Спасск-Дальний ковал Победу 14 мая 2026, 09:15: Какой перевод самому себе признают подозрительным 14 мая 2026, 09:00: Прокуратура Приморья взыскала с «дроппера» деньги, похищенные у семьи участника СВО 14 мая 2026, 08:00: Руководителя нефтяной компании в Приморье будут судить за неуплату налогов 14 мая 2026, 07:00: Во Владивостоке четверг станет самым холодным днем недели 14 мая 2026, 06:00: Госдума разрешила использовать армию для защиты арестованных за рубежом россиян 14 мая 2026, 04:00: Москва допустила подготовку на Украине очередной кровавой постановки по сценарию Бучи 14 мая 2026, 03:00: Песков вновь напомнил условие прекращения огня на Украине

Чужие голоса используют мошенники

24 января 2026, 15:15

Мошенники активно используют нейросети для создания реалистичных текстовых, визуальных и аудиовизуальных подделок, с помощью которых обманывают людей, выдавая себя за родственников, друзей или сотрудников банков, сообщает ИА DEITA.RU.

Об этом рассказала официальный представитель МВД России Ирина Волк. Она пояснила, что генерируемый контент, созданный нейросетями, легко воспринимается как подлинный, что позволяет злоумышленникам обманывать жертвы, побуждая их переводить деньги или раскрывать конфиденциальную информацию.

Волк привела пример, когда мошенник взломал аккаунт в иностранном мессенджере и использовал нейросеть для синтеза голоса. Через взломанный аккаунт он отправил сообщение с голосом владельца аккаунта, в котором попросил помощи и перевода денег. Получатель сообщения поверил, что просит сестра, и перевел указанную сумму, после чего деньги ушли мошенникам.

Такие схемы возможны благодаря быстрому развитию нейротехнологий, позволяющих создавать реалистичный контент, трудно различимый обычными пользователями.

Автор: Дмитрий Санников