ЕАО в лицах: родился музыкант и руководитель народного ансамбля скрипачей С. Н. Гройсман
08:00
Откуда взялись на обочине дороги в ЕАО мешки с трупами собак, выяснят полицейские
20:00
Горы мешков с гниющими трупами собак обнаружили биробиджанцы у дороги близ села в ЕАО
16:20
К асфальтированию готовят многострадальную дорогу по ул. Индустриальной в Биробиджане
16:00
Посещать питейные заведения запретили жителю ЕАО, отсидевшему за наркопреступление
15:30
Информагентство ЕАОMedia вновь признано "Лидером качества ЕАО"
15:25
Штрафов на сотни тысяч рублей выписали нарушителям за время пожароопасного сезона в ЕАО
15:00
Передовые технологии разрабатывают и внедряют энергетики ДРСК 
14:39
Выгодные покупки в гипермаркете "Маяк"
14:15
Не работает, ребенку не помогает: более полумиллиона рублей задолжала алиментщица из ЕАО
14:00
Несколько дальневосточников пойдут под суд за хищение средств маткапитала
13:15
Единая психологическая служба в образовании появится в ЕАО 
13:00
Участник форума Ассоциации ветеранов СВО: Наши бойцы не должны чувствовать себя забытыми
12:47
Год продлится спецобучение в рамках кадровой программы "Доблесть Хингана" в ЕАО
12:35
Более сотни бойцов из ЕАО и Приморского края собрали соревнования по тхэквондо в Биробиджане
12:30
Новую амбулаторию возводят в селе Биджан ЕАО 
12:00

Мошенничество в мессенджерах: как киберпреступники используют голосовые записи

МВД России: мошенники могут подделывать голос жертв для обмана
Телефон, ноутбук Илья Аверьянов, ИА PrimaMedia.ru
Телефон, ноутбук
Фото: Илья Аверьянов, ИА PrimaMedia.ru
Нашли опечатку?
Ctrl+Enter

В Управлении по борьбе с противоправным использованием информационно-коммуникационных технологий (УБК) МВД России выпустили предупреждение о новых методах мошенничества, связанных с использованием технологий, таких как нейросети. Они отметили, что преступники могут взламывать аккаунты людей в мессенджерах и использовать записи их голосов для создания фальшивых сообщений.

Когда мошенники получают доступ к аккаунту, они могут записать голос жертвы и затем использовать эту запись как образец для генерации текста. Это делается с помощью нейросети, которая может воспроизводить голос жертвы и отправлять сообщения ее родным и знакомым. Такое мошенничество может привести к серьезным последствиям, так как близкие жертвы могут поверить, что общаются с реальным человеком, и, возможно, поддаться манипуляциям или предоставить мошенникам личные данные или деньги.

Кроме того, злоумышленники могут использовать видеозаписи, сделанные с фронтальной камеры устройства, чтобы создавать дипфейки. Дипфейк это технология, позволяющая накладывать лицо человека на видео другого человека, создавая иллюзию, что он говорит или делает что-то, чего на самом деле не происходило.

Таким образом, МВД призывает пользователей быть осторожными и не оставлять свои аккаунты без защиты. Рекомендуется использовать сложные пароли, двухфакторную аутентификацию и внимательно относиться к подозрительным сообщениям, чтобы избежать мошенничества и защиты своей личной информации.

190425
32
24

Электронный ресурс (Сайт) использует cookies и метрические программы. Продолжая посещение настоящего сайта, пользователь соглашается на смешанную обработку, сбор, использование, хранение, уточнение (обновление, изменение), обезличивание, блокирование, уничтожение своих персональных данных владельцем Электронного ресурса в соответствии с Политикой обработки персональных данных и Согласием на обработку персональных данных Пользователей.
На сайте используются рекомендательные технологии