24 января 2026. 15:00

МВД предупредило о мошенниках, подделывающих голоса с помощью ИИ

Мошенники начали применять искусственный интеллект для генерации аудио- и видеоконтента, чтобы обманывать людей и похищать их средства. Об этом сообщила официальный представитель МВД РФ Ирина Волк.

По её словам, с помощью нейросетей злоумышленники могут имитировать голоса и образы доверенных лиц— родственников, сотрудников банков, представителей госорганов или публичных личностей. Такая подделка позволяет жертвам воспринимать сообщения как подлинные и переводить деньги или раскрывать персональные данные.

Примером стала ситуация, когда злоумышленник получил доступ к чужому аккаунту в иностранном мессенджере и сгенерировал аудиосообщение с голосом родственника жертвы. Потерпевший поверил, что это просьба сестры, и перевёл деньги через систему быстрых платежей — средства были похищены мошенниками.

Представитель МВД призвала быть внимательными при переводах и проверять информацию о запросах на деньги, даже если они поступают от знакомых или родственников.

Эта страница использует технологию cookies для google analytics.