(Не)жертва искусственного интеллекта: учимся защищаться от мошенников

Комментарии
Технологии ИИ развиваются стремительно, и вместе с их возможностями растут риски.

Сегодня нейросети позволяют создавать поддельные фото, видео и даже голоса, что активно используют мошенники.

Основные угрозы:

  • Дипфейки. С помощью ИИ злоумышленники генерируют фальшивые изображения и видео. Такие материалы могут применяться для взлома аккаунтов через системы распознавания лица, шантажа, а также для рассылки поддельных просьб о помощи от имени знакомых.
  • Голосовые подделки. Нейросети способны точно имитировать человеческий голос. Мошенники часто используют этот метод так: взламывают страницу знакомого, копируют его голосовые сообщения, а затем присылают аудио с «просьбой» срочно занять деньги.

Главная мера безопасности – сохранять критическое мышление и внимательность.

При просмотре видео насторожить должны неестественная мимика, искажение света, странные движения или дефекты изображения. При прослушивании голосовых сообщений обращайте внимание на монотонность, искажения или непривычную интонацию. Если звонок с просьбой о переводе денег поступил от знакомого вам человека, перезвоните ему на его личный номер, а не отвечайте в мессенджере.

 

Уважаемые читатели, ждём вас в наших группах в Telegram, а также MAX.

 
Поделиться

№ 134852