На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Страна и люди

10 298 подписчиков

Свежие комментарии

  • Галина Друзина
    Ну, если, мигрантам что то не нравится в России, пусть ехают в свои кишлаки и аулы, их тут никто не ждёт и, если они ...«В моём кишлаке в...
  • Leonid PlиGin
    Ничего, в магазине детской книги увидел полку с "Летом в пионерском галстуке" и это не харам. Это толерантность к гом...«В моём кишлаке в...
  • Сергей Бессонов
    " Россия рассматривает путь Армении в ЕС как выход из ЕАЭС"      Удивляться нечему. Уход бывших союзных республик от ...Оверчук: Россия р...

Эксперт рассказал, как мошенники «крадут лица» для дипфейков

Для мошенников не составляет большого труда создать дипфейк, особенно публичных личностей, чьи изображения есть в интернете. Инструментарий, который доступен сейчас, достаточно прост. С ним разберутся даже те люди, которые никогда этим не занимались. Об этом рассказал «Звезде» эксперт по информационной безопасности Владимир Ульянов.

По мнению собеседника телеканала, чтобы обезопасить себя от «кражи лица» можно, конечно, не выкладывать свои видео и фотографии, но сейчас это сделать достаточно сложно. «Отдельная категория – это люди публичные, изображение которых можно где-то найти и взять. Вторая категория – люди, которые так или иначе представлены в соцсетях, которые выкладывают там ролики или делают сторис. Их изображения тоже можно использовать в качестве основы», - подчеркнул эксперт. Есть сценарии, когда злоумышленники взламывают переписку человека, который обменивается аудио- и видеосообщениями. Полученные таким путем материалы они используют для генерации искусственного голоса. «Для аудио достаточно несколько связок голосовых сообщений, на основе которых можно формировать правдоподобные и длительные голосовые сообщения», - обратил внимание специалист. В настоящее время все сложнее становится распознать дипфейк. В мошеннических сценариях по их созданию стали использоваться методы социальной инженерии, из-за которых заметить обман становиться тяжело, заключил Владимир Ульянов. Ранее председатель Ассоциации разработчиков программных продуктов Наталья Касперская в разговоре со «Звездой» перечислила риски использования биометрии , одним из которых как раз стало создание дипфейков путем сканирования лица человека с помощью искусственного интеллекта.

 

Ссылка на первоисточник

Картина дня

наверх