(Не)жертва искусственного интеллекта: учимся защищаться от мошенников

Комментарии
Технологии ИИ развиваются стремительно, и вместе с их возможностями растут риски.

Сегодня нейросети позволяют создавать поддельные фото, видео и даже голоса, что активно используют мошенники.

Основные угрозы:

  • Дипфейки. С помощью ИИ злоумышленники генерируют фальшивые изображения и видео. Такие материалы могут применяться для взлома аккаунтов через системы распознавания лица, шантажа, а также для рассылки поддельных просьб о помощи от имени знакомых.
  • Голосовые подделки. Нейросети способны точно имитировать человеческий голос. Мошенники часто используют этот метод так: взламывают страницу знакомого, копируют его голосовые сообщения, а затем присылают аудио с «просьбой» срочно занять деньги.

Главная мера безопасности – сохранять критическое мышление и внимательность.

При просмотре видео насторожить должны неестественная мимика, искажение света, странные движения или дефекты изображения. При прослушивании голосовых сообщений обращайте внимание на монотонность, искажения или непривычную интонацию. Если звонок с просьбой о переводе денег поступил от знакомого вам человека, перезвоните ему на его личный номер, а не отвечайте в мессенджере.

 

Уважаемые читатели, ждём вас в наших группах в Telegram, а также MAX.

 
Прежде чем оставить комментарий, пожалуйста, ознакомьтесь с Правилами комментирования портала. Оставляя комментарий, вы подтверждаете ваше согласие с данными правилами и осознаете возможную ответственность за их нарушение.
Сервис комментирования материалов сайта orenday.ru не является частью сайта Orenday, а предоставлен сервисом cackle. При размещении комментария редакция сайта в целях Вашей безопасности просит не размещать персональные данные, а при их размещении ознакомиться с политикой конфиденциальности сервиса cackle, поскольку обработка персональных данных осуществляется сервисом cackle самостоятельно. *
  • Основная форма комментариев
Комментарии для сайта Cackle

№ 134852