Самые популярные новости ChitaMedia на 11 сентября
11 сентября, 22:57
Строительство модульного здания для Чарского авиаотделения завершили в Забайкалье
11 сентября, 22:53
Теплая погода и небольшие дожди ожидаются в Забайкалья 12 сентября 
11 сентября, 21:37
Директора ДМРСУ будут судить за сокрытие налогов на 160 млн рублей
11 сентября, 21:30
Генпрокуратура подала иск на активы семьи экс-главы Владивостока Игоря Пушкарева
11 сентября, 21:10
Снимать и пополнять, когда хочется: новый вклад для подростков в Сбере
11 сентября, 20:25
Мошенники распространяют фейковые ссылки на голосование от аккаунта депутата Забайкалья
11 сентября, 20:04
"Олерон+" очистил переполненные мусорные контейнеры в мкр Геодезический в Чите после жалоб
11 сентября, 19:42
"Чёрных лесорубов" задержали в Забайкалье за рубку более 460 деревьев
11 сентября, 19:05
Бастрыкин обязал доложить ему по делу о нарушении прав жильцов аварийного дома в Шилки 
11 сентября, 18:23
"Газпромбанк" может построить промышленно-индустриальный парк в Забайкальске
11 сентября, 17:45
10 человек осудят за самоуправство и похищение людей работавших над газификацией Читы
11 сентября, 17:19
Ежегодно Забайкалье на ВЭФ заключает соглашения на 100 млрд рублей
11 сентября, 17:14
"Рак. На пороге открытия": вместо паники — надежда
11 сентября, 16:55
Глава Минэка Забайкалья рассказала о подготовке региона к ВЭФ
11 сентября, 16:49

Под Новый год активизировались мошенники - используют нейросети

Мошенники используют нейросети для обмана россиян
24 декабря 2024, 17:26 Общество #ТоварищБди
Под Новый год активизировались мошенники - используют нейросети Илья Аверьянов, ИА PrimaMedia.ru
Под Новый год активизировались мошенники - используют нейросети
Фото: Илья Аверьянов, ИА PrimaMedia.ru
Нашли опечатку?
Ctrl+Enter

С приближением Нового года в России активизируются мошенники, использующие технологии нейросетей. Об этом сообщил директор по продукту FABULA AI Родион Кадымов. Злоумышленники все чаще применяют дипфейк-технологии для кражи денег, создавая реалистичные видео и отправляя их друзьям или родственникам через мессенджеры и социальные сети.

Кадымов объяснил, что при взломе аккаунта или отправке голосовых сообщений мошенники могут создать "слепок" голоса за 15 секунд. Это позволяет им общаться с жертвами, используя знакомые голоса, что делает обман более убедительным. Даже если вы слышите знакомый голос, важно оставаться бдительными.

Используя изображение лица родственника, мошенники могут отправлять правдоподобные видеосообщения с помощью технологии замены лиц, что усложняет распознавание обмана.

Мошенники также используют методы социальной инженерии, они представляются сотрудниками банков и звонят от имени службы поддержки. Наибольшему риску подвержены пожилые люди и те, кто не знаком с современными технологиями.

С развитием искусственного интеллекта мошенники становятся всё более изощренными, применяя цифровых двойников для создания голосов и видео. Кадымов советует проверять все электронные письма и сообщения, особенно от служб поддержки, так как они редко инициируют контакт.

Если вы получили подозрительное видеосообщение, обратите внимание на движения головы: резкие повороты могут указывать на использование нейросетей. Голос, созданный ИИ, может звучать монотонно и без естественных интонаций. Задавайте вопросы, которые могут вызвать эмоциональную реакцию — настоящие люди реагируют более живо.

При подозрении на мошенничество с дипфейками немедленно сообщите в службу поддержки компании, имя которой было использовано. 

229119
32
24