Самолёт МЧС России сбросил 144 тонны воды во время тушения пожара рядом с Арахлеем
21:30
Небольшой дождь и мокрый снег ожидаются в Забайкалье 30 мая
21:30
Ограничение на пребывание в лесах продлили в Забайкалье до 18 июня
21:13
Названы регионы-лидеры по количеству арендодателей с высоким уровнем сервиса
20:55
Водителей предупредили о задымлении на трассе в Карымском районе из-за пожаров
19:55
МЧС назвало предварительную причину пожара в гараже на Трактовой в Чите
19:12
Самолёт МЧС России вылетел на тушение пожара рядом с Арахлеем в Читинском районе
19:05
Следователи устанавливают обстоятельства гибели подростка в Оловяннинском районе
18:59
В Приморском крае на "Земле леопарда" открылась новая экотропа  
18:40
Председателя совета директоров "ТГК-14" задержали в аэропорту силовики
18:01
Забайкальский спортсмен будет представлять Россию на чемпионате по вольной борьбе в Токио
17:28
Работали в колхозах наравне со взрослыми: каникулы школьников Уссурийска в 1945 году
16:59
Лавочки в этно-археопарке Сухотино отремонтируют до конца лета после поломки
16:33
Закон об эвтаназии собак сняли с рассмотрения из-за замечаний прокуратуры в Забайкалье
16:07
Нового Шэрээтэ ламу избрали в Цугольском дацане Забайкалья 
15:39

Под Новый год активизировались мошенники - используют нейросети

Мошенники используют нейросети для обмана россиян
24 декабря 2024, 17:26 Общество #ТоварищБди
Под Новый год активизировались мошенники - используют нейросети Илья Аверьянов, ИА PrimaMedia.ru
Под Новый год активизировались мошенники - используют нейросети
Фото: Илья Аверьянов, ИА PrimaMedia.ru
Нашли опечатку?
Ctrl+Enter

С приближением Нового года в России активизируются мошенники, использующие технологии нейросетей. Об этом сообщил директор по продукту FABULA AI Родион Кадымов. Злоумышленники все чаще применяют дипфейк-технологии для кражи денег, создавая реалистичные видео и отправляя их друзьям или родственникам через мессенджеры и социальные сети.

Кадымов объяснил, что при взломе аккаунта или отправке голосовых сообщений мошенники могут создать "слепок" голоса за 15 секунд. Это позволяет им общаться с жертвами, используя знакомые голоса, что делает обман более убедительным. Даже если вы слышите знакомый голос, важно оставаться бдительными.

Используя изображение лица родственника, мошенники могут отправлять правдоподобные видеосообщения с помощью технологии замены лиц, что усложняет распознавание обмана.

Мошенники также используют методы социальной инженерии, они представляются сотрудниками банков и звонят от имени службы поддержки. Наибольшему риску подвержены пожилые люди и те, кто не знаком с современными технологиями.

С развитием искусственного интеллекта мошенники становятся всё более изощренными, применяя цифровых двойников для создания голосов и видео. Кадымов советует проверять все электронные письма и сообщения, особенно от служб поддержки, так как они редко инициируют контакт.

Если вы получили подозрительное видеосообщение, обратите внимание на движения головы: резкие повороты могут указывать на использование нейросетей. Голос, созданный ИИ, может звучать монотонно и без естественных интонаций. Задавайте вопросы, которые могут вызвать эмоциональную реакцию — настоящие люди реагируют более живо.

При подозрении на мошенничество с дипфейками немедленно сообщите в службу поддержки компании, имя которой было использовано. 

229119
32
24