6 женщин, изменивших историю космонавтики
12 апреля, 18:55
Загорелось здание, где находятся ДК, почта, библиотека и котельная, в с. Пронькино ЕАО
12 апреля, 16:25
Получить льготные лекарства и взыскать деньги за их покупку помогла жителю ЕАО прокуратура
12 апреля, 16:00
Больше пяти часов пожарные тушили пылающий дом в п. Бира ЕАО
12 апреля, 15:10
Медвежонка-сироту в клетке подкинули специалистам центра "Тигр" в Приморье (ВИДЕО)
12 апреля, 14:30
До 6 лет лишения свободы грозит жителю ЕАО за неправомерный оборот средств платежей
12 апреля, 14:00
Запретят охоту, выход в лес и шашлыки в ЕАО, если обстановка с пожарами будет накаляться
12 апреля, 13:45
Умышленно насмерть сбил собаку на парковке водитель Lexus
12 апреля, 13:35
Команда Национального медицинского исследовательского центра Минздрава РФ прибыла в ЕАО
12 апреля, 13:30
Восемь дней будут отдыхать на майских праздниках жители ЕАО
12 апреля, 13:00
"Лидеров качества" выбирают в Еврейской автономной области
12 апреля, 12:15
Вахта Победы: До победного мая оставались считанные недели
12 апреля, 12:00
Скрывался полгода: в Биробиджане задержали мужчину, который был в федеральном розыске
12 апреля, 12:00
Основные работы по капремонту биробиджанского Сквера Победы планируют провести в этом году
12 апреля, 11:20
Выгодные покупки в гипермаркете "Маяк"
12 апреля, 11:00

Мошенничество в мессенджерах: как киберпреступники используют голосовые записи

МВД России: мошенники могут подделывать голос жертв для обмана
Телефон, ноутбук Илья Аверьянов, ИА PrimaMedia.ru
Телефон, ноутбук
Фото: Илья Аверьянов, ИА PrimaMedia.ru
Нашли опечатку?
Ctrl+Enter

В Управлении по борьбе с противоправным использованием информационно-коммуникационных технологий (УБК) МВД России выпустили предупреждение о новых методах мошенничества, связанных с использованием технологий, таких как нейросети. Они отметили, что преступники могут взламывать аккаунты людей в мессенджерах и использовать записи их голосов для создания фальшивых сообщений.

Когда мошенники получают доступ к аккаунту, они могут записать голос жертвы и затем использовать эту запись как образец для генерации текста. Это делается с помощью нейросети, которая может воспроизводить голос жертвы и отправлять сообщения ее родным и знакомым. Такое мошенничество может привести к серьезным последствиям, так как близкие жертвы могут поверить, что общаются с реальным человеком, и, возможно, поддаться манипуляциям или предоставить мошенникам личные данные или деньги.

Кроме того, злоумышленники могут использовать видеозаписи, сделанные с фронтальной камеры устройства, чтобы создавать дипфейки. Дипфейк это технология, позволяющая накладывать лицо человека на видео другого человека, создавая иллюзию, что он говорит или делает что-то, чего на самом деле не происходило.

Таким образом, МВД призывает пользователей быть осторожными и не оставлять свои аккаунты без защиты. Рекомендуется использовать сложные пароли, двухфакторную аутентификацию и внимательно относиться к подозрительным сообщениям, чтобы избежать мошенничества и защиты своей личной информации.

190425
32
24