Специалисты по кибербезопасности отмечают рост использования технологии дипфейк в мошеннических схемах. Злоумышленники применяют искусственный интеллект для создания реалистичных видеоизображений, имитирующих внешность и голос реальных людей. Об этом сообщает Центробанк.
"С помощью нейросетей мошенники создают реалистичное видеоизображение человека. Затем сгенерированный образ рассылают его друзьям или родным через мессенджеры или социальные сети. В коротком фальшивом видеоролике виртуальный клон реального человека рассказывает якобы о своей проблеме (болезнь, ДТП, увольнение) и просит перевести деньги на определенный счет", - говорится в телеграм-канале регулятора.
Процесс создания дипфейка начинается с получения фото, видео и аудиозаписей жертвы, часто путем несанкционированного доступа к аккаунтам в социальных сетях.
Эксперты рекомендуют ряд мер для защиты от подобных атак. Среди них: перепроверка информации путем прямого контакта с предполагаемым отправителем, внимательное изучение видеосообщений на предмет неестественной мимики и дефектов звука, а также проверка подлинности аккаунта отправителя.
Подпишись на наш Telegram-канал. В нем мы публикуем главное из жизни Саратова и области с комментариями
«Общественное мнение» сегодня. Новости Саратова и области. Аналитика, комментарии, блоги, радио- и телепередачи.
Генеральный директор Чесакова Ольга Юрьевна Главный редактор Сячинова Светлана Васильевна OM-redactor@yandex.ru
Адрес редакции:
410012, г. Саратов, Проспект им. Кирова С.М., д.34, оф.28
тел.: 23-79-65
При перепечатке материалов ссылка на «Общественное мнение» обязательна.
Сетевое издание «Общественное мнение» зарегистрировано в качестве средства массовой информации. Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций. Эл № ФС77-81186 от 08 июня 2021 г. Учредитель ООО «Медиа Холдинг ОМ»