#КүшiмiзБiрлiкте

Лента событий

Вчера
03 декабря
02 декабря

ОПРОС

Как на вас повлиял переход на единый часовой пояс?
  • 1. Положительно. Стали лучше высыпаться.(347)
  • 2. Отрицательно. Хуже справляюсь с тем же объёмом работы. Зимой почти не видел солнца.(2184)
  • 3. Вообще не заметил/а разницу.(73)

Новая преступная схема с кражей внешности грозит казахстанцам

Новая преступная схема с кражей внешности грозит казахстанцам Иллюстративное фото: pixabay.com
NUR.KZ

Мошенники начали делать дипфейки родственников своих жертв и с их помощью вымогать деньги. О новой схеме заговорили в России. О том, как она работает, узнали журналисты NUR.KZ. 

Искусственный интеллект (ИИ) могут использовать не только во благо, но и в корыстных целях. Ранее мы уже рассказывали о том, что мошенники активно используют дипфейки – сгенерируемые голос и внешность своих жертв для того, чтобы оформить на них кредиты.

Однако дипфейки теперь используют и по-другому. Как сообщает РИА Новости, аферисты начали создавать «аватары» родственников своих жертв.

«Мошенники используют нейросети, чтобы из фотографии сделать видео, которое воссоздает мимику, голос, жесты и эмоции человека с фото. На подобных видео "аватар" обычно просит занять деньги. После чего аферисты рассылают видеоматериал родственникам и товарищам», – рассказали журналисты.

То есть вместо попыток обмануть систему безопасности банков, преступники нацелились на простых людей, рассчитывая на их невнимательность.
Защититься от таких схем просто: не переводите деньги, пока не убедитесь, что просьба настоящая. Для этого не нужно искать ошибки в видео – достаточно позвонить родственнику и уточнить, действительно ли ему нужна помощь.

Такие случаи активно фиксируются в России, однако аферисты могут начать атаковать и казахстанцев, в связи с этим важно, находясь в Интернете, сохранять бдительность и не доверять слепо сообщениям, которые могут оказаться частью мошеннической схемы. 

    • Рассылка: 






    Предложить новость
    Мы в соцсетях