Сбер и "Чистые игры" открывают марафон "Сберегаем пляжи вместе"
5 сентября, 22:44
Самые популярные новости ChitaMedia 5 сентября
5 сентября, 22:43
Сбер запустил оплату частями для владельцев бизнес-карт
5 сентября, 22:36
Систему получения госуслуг для участников СВО и их семей усовершенствуют в Забайкалье
5 сентября, 22:20
Сбер открывает регистрацию на AI Journey Contest
5 сентября, 22:15
ВТБ прогнозирует рост рынка розничного кредитования во втором полугодии
5 сентября, 22:04
Инновационное решение Сбера может стать новым стандартом рынка
5 сентября, 22:00
Власти Забайкалья приняли решение проводить "Форум СВОих" каждый год
5 сентября, 21:44
Дождь и порывистый ветер ожидаются в Чите 6 сентября
5 сентября, 21:30
Двухдневный фестиваль районов Забайкалья "Люди и солнце" пройдёт в Чите
5 сентября, 20:44
ВТБ поддержал инициативу Путина о расширении ДВ-ипотеки
5 сентября, 20:42
Три девушки участвуют в кадровом проекте для участников СВО в Забайкалье
5 сентября, 20:22
Более 3 трлн рублей составила выручка китайских компаний в России в прошлом году
5 сентября, 20:03
Роботы и нанотрубки: в ВТБ назвали драйверы "экономики высоких зарплат"
5 сентября, 20:01
Быстринский ГОК построит золотоизвлекательную фабрику в Забайкалье за 31,5 млрд рублей
5 сентября, 19:53

Под Новый год активизировались мошенники - используют нейросети

Мошенники используют нейросети для обмана россиян
24 декабря 2024, 17:26 Общество #ТоварищБди
Под Новый год активизировались мошенники - используют нейросети Илья Аверьянов, ИА PrimaMedia.ru
Под Новый год активизировались мошенники - используют нейросети
Фото: Илья Аверьянов, ИА PrimaMedia.ru
Нашли опечатку?
Ctrl+Enter

С приближением Нового года в России активизируются мошенники, использующие технологии нейросетей. Об этом сообщил директор по продукту FABULA AI Родион Кадымов. Злоумышленники все чаще применяют дипфейк-технологии для кражи денег, создавая реалистичные видео и отправляя их друзьям или родственникам через мессенджеры и социальные сети.

Кадымов объяснил, что при взломе аккаунта или отправке голосовых сообщений мошенники могут создать "слепок" голоса за 15 секунд. Это позволяет им общаться с жертвами, используя знакомые голоса, что делает обман более убедительным. Даже если вы слышите знакомый голос, важно оставаться бдительными.

Используя изображение лица родственника, мошенники могут отправлять правдоподобные видеосообщения с помощью технологии замены лиц, что усложняет распознавание обмана.

Мошенники также используют методы социальной инженерии, они представляются сотрудниками банков и звонят от имени службы поддержки. Наибольшему риску подвержены пожилые люди и те, кто не знаком с современными технологиями.

С развитием искусственного интеллекта мошенники становятся всё более изощренными, применяя цифровых двойников для создания голосов и видео. Кадымов советует проверять все электронные письма и сообщения, особенно от служб поддержки, так как они редко инициируют контакт.

Если вы получили подозрительное видеосообщение, обратите внимание на движения головы: резкие повороты могут указывать на использование нейросетей. Голос, созданный ИИ, может звучать монотонно и без естественных интонаций. Задавайте вопросы, которые могут вызвать эмоциональную реакцию — настоящие люди реагируют более живо.

При подозрении на мошенничество с дипфейками немедленно сообщите в службу поддержки компании, имя которой было использовано. 

229119
32
24