Ветспециалисты Забайкалья передали автомобиль на СВО
10:57
Проект "Герои. Победы. Будущее" продлят в Забайкалье в 2025 году
10:24
Ремонтируемый участок объездной дороги в Чите готов на 90%
09:59
Читинец пожертвовал мультикалиберную винтовку "Аркуда" на СВО
09:23
Пассажир "легковушки" пострадала при столкновении с Honda в центре Читы
09:06
Шесть улиц в Чите останутся без света 25 декабря
08:30
Вы точно родились в СССР, если легко закончите эти 8 цитат родителей — ТЕСТ
08:01
Владельцам убитым током коров в Забайкалье возместили ущерб из расчёта 85 рублей за кг
07:27
Приметы на 25 декабря: Запрет на работу и одиночество
07:00
Самые популярные новости ИА ChitaMedia на 24 декабря
24 декабря, 23:10
Забайкалец пытался отказаться от отцовства над приёмными детьми из-за ссоры с их мамой
24 декабря, 22:21
Забайкалье вошло в список регионов, где запретят майнинг на 3 месяца
24 декабря, 21:57
Морозы до 39 градусов ожидаются в Забайкалье 25 декабря
24 декабря, 21:30
Идеи новогодних подарков 2025: как угодить Зеленой Деревянной Змее
24 декабря, 21:01
Мошенники могут заставлять забайкальцев поджигать здания для возврата украденных денег
24 декабря, 20:33

Под Новый год активизировались мошенники - используют нейросети

Мошенники используют нейросети для обмана россиян
24 декабря, 17:26 Общество #ТоварищБди
Под Новый год активизировались мошенники - используют нейросети Илья Аверьянов, ИА PrimaMedia.ru
Под Новый год активизировались мошенники - используют нейросети
Фото: Илья Аверьянов, ИА PrimaMedia.ru
Нашли опечатку?
Ctrl+Enter

С приближением Нового года в России активизируются мошенники, использующие технологии нейросетей. Об этом сообщил директор по продукту FABULA AI Родион Кадымов. Злоумышленники все чаще применяют дипфейк-технологии для кражи денег, создавая реалистичные видео и отправляя их друзьям или родственникам через мессенджеры и социальные сети.

Кадымов объяснил, что при взломе аккаунта или отправке голосовых сообщений мошенники могут создать "слепок" голоса за 15 секунд. Это позволяет им общаться с жертвами, используя знакомые голоса, что делает обман более убедительным. Даже если вы слышите знакомый голос, важно оставаться бдительными.

Используя изображение лица родственника, мошенники могут отправлять правдоподобные видеосообщения с помощью технологии замены лиц, что усложняет распознавание обмана.

Мошенники также используют методы социальной инженерии, они представляются сотрудниками банков и звонят от имени службы поддержки. Наибольшему риску подвержены пожилые люди и те, кто не знаком с современными технологиями.

С развитием искусственного интеллекта мошенники становятся всё более изощренными, применяя цифровых двойников для создания голосов и видео. Кадымов советует проверять все электронные письма и сообщения, особенно от служб поддержки, так как они редко инициируют контакт.

Если вы получили подозрительное видеосообщение, обратите внимание на движения головы: резкие повороты могут указывать на использование нейросетей. Голос, созданный ИИ, может звучать монотонно и без естественных интонаций. Задавайте вопросы, которые могут вызвать эмоциональную реакцию — настоящие люди реагируют более живо.

При подозрении на мошенничество с дипфейками немедленно сообщите в службу поддержки компании, имя которой было использовано. 

229119
32
24