УФАС вынудил Забавтодор отменить закупку на ремонт дороги в холода в Забайкалье
12:54
Гойгов: в повышении цен на забайкальских АЗС не было сговора
12:36
ТГК-14 сделала читинцам законный перерасчёт в квартирах после вмешательства УФАС
12:15
Детский клинический медцентр на КСК в Чите готов на 79%
12:07
Новогодние мероприятия могут отменить в Забайкалье из-за роста заболеваемости
11:38
Мэрия подвела итоги прошедшей в Чите универсальной ярмарки
11:03
Глава Фонда развития Забайкалья Наталья Макарова покинет свой пост
10:31
Смертельное ДТП с участием фуры произошло на трассе в Забайкалье
10:04
Краевой художественный музей отремонтируют в Чите за 33 млн рублей
09:35
Роспотребнадзор рассказал забайкальцам, как правильно выбирать красную икру
09:00
Почти 20 улиц в Смоленке останутся без света 15 декабря
08:30
Главное за ночь: из-за метели потерялись 13 турисов, а Лукашенко подарил Трампу икону
08:00
Забайкальская мастерица вяжет игрушки размером до 5 сантиметров
07:30
Митрополит Димитрий: 800 человек, погибших от алкоголя в 2024 году - на совести чиновников
07:00
Выставка-форум волонтёрских объединений "Вместе для Победы" прошла в Биробиджане
06:05

Под Новый год активизировались мошенники - используют нейросети

Мошенники используют нейросети для обмана россиян
24 декабря 2024, 17:26 Общество #ТоварищБди
Под Новый год активизировались мошенники - используют нейросети Илья Аверьянов, ИА PrimaMedia
Под Новый год активизировались мошенники - используют нейросети
Фото: Илья Аверьянов, ИА PrimaMedia
Нашли опечатку?
Ctrl+Enter

С приближением Нового года в России активизируются мошенники, использующие технологии нейросетей. Об этом сообщил директор по продукту FABULA AI Родион Кадымов. Злоумышленники все чаще применяют дипфейк-технологии для кражи денег, создавая реалистичные видео и отправляя их друзьям или родственникам через мессенджеры и социальные сети.

Кадымов объяснил, что при взломе аккаунта или отправке голосовых сообщений мошенники могут создать "слепок" голоса за 15 секунд. Это позволяет им общаться с жертвами, используя знакомые голоса, что делает обман более убедительным. Даже если вы слышите знакомый голос, важно оставаться бдительными.

Используя изображение лица родственника, мошенники могут отправлять правдоподобные видеосообщения с помощью технологии замены лиц, что усложняет распознавание обмана.

Мошенники также используют методы социальной инженерии, они представляются сотрудниками банков и звонят от имени службы поддержки. Наибольшему риску подвержены пожилые люди и те, кто не знаком с современными технологиями.

С развитием искусственного интеллекта мошенники становятся всё более изощренными, применяя цифровых двойников для создания голосов и видео. Кадымов советует проверять все электронные письма и сообщения, особенно от служб поддержки, так как они редко инициируют контакт.

Если вы получили подозрительное видеосообщение, обратите внимание на движения головы: резкие повороты могут указывать на использование нейросетей. Голос, созданный ИИ, может звучать монотонно и без естественных интонаций. Задавайте вопросы, которые могут вызвать эмоциональную реакцию — настоящие люди реагируют более живо.

При подозрении на мошенничество с дипфейками немедленно сообщите в службу поддержки компании, имя которой было использовано. 

229119
32
24