Щеглова поручила включить в образование читинских школьников историю города
10:20
Более 185 млн рублей потратят на ремонт КДЦ "Родина" в Чите
10:07
Мэр Читы поручила взять на контроль выход детей на лёд после трагедии в Подмосковье
09:31
Щеглова поручила проработать запрет на использование детьми телефонов в школах Читы
09:26
Водитель сбил двух пешеходов и скрылся с места ДТП в Чите
09:16
В ЕАО обсудили развитие здравоохранения
09:10
Волонтеры из Забайкалья отправили на СВО 16 масксетей с начала года
09:04
Стало известно, какие адреса останутся без света в Чите 10 марта
08:30
154 ликвидатора последствий аварии на ЧАЭС проживает в Забайкалье
07:29
Забайкальские врачи улучшили свои навыки в методике очистки крови от токсинов
07:05
Самые популярные новости ChitaMedia 9 марта
9 марта, 22:31
Тепло до +6 градусов ожидается в Чите 10 марта
9 марта, 21:30
Редким именем назвали новорождённую в Забайкалье
9 марта, 20:09
50-летний водитель погиб в столкновении с "КАМАЗ" в Забайкалье 9 марта
9 марта, 18:46
Акция "Цветы для автоледи" прошла в Забайкалье в преддверии 8 Марта
9 марта, 18:05

Под Новый год активизировались мошенники - используют нейросети

Мошенники используют нейросети для обмана россиян
24 декабря 2024, 17:26
Общество #ТоварищБди
Под Новый год активизировались мошенники - используют нейросети Илья Аверьянов, ИА PrimaMedia
Под Новый год активизировались мошенники - используют нейросети
Фото: Илья Аверьянов, ИА PrimaMedia
Нашли опечатку?
Ctrl+Enter

С приближением Нового года в России активизируются мошенники, использующие технологии нейросетей. Об этом сообщил директор по продукту FABULA AI Родион Кадымов. Злоумышленники все чаще применяют дипфейк-технологии для кражи денег, создавая реалистичные видео и отправляя их друзьям или родственникам через мессенджеры и социальные сети.

Кадымов объяснил, что при взломе аккаунта или отправке голосовых сообщений мошенники могут создать "слепок" голоса за 15 секунд. Это позволяет им общаться с жертвами, используя знакомые голоса, что делает обман более убедительным. Даже если вы слышите знакомый голос, важно оставаться бдительными.

Используя изображение лица родственника, мошенники могут отправлять правдоподобные видеосообщения с помощью технологии замены лиц, что усложняет распознавание обмана.

Мошенники также используют методы социальной инженерии, они представляются сотрудниками банков и звонят от имени службы поддержки. Наибольшему риску подвержены пожилые люди и те, кто не знаком с современными технологиями.

С развитием искусственного интеллекта мошенники становятся всё более изощренными, применяя цифровых двойников для создания голосов и видео. Кадымов советует проверять все электронные письма и сообщения, особенно от служб поддержки, так как они редко инициируют контакт.

Если вы получили подозрительное видеосообщение, обратите внимание на движения головы: резкие повороты могут указывать на использование нейросетей. Голос, созданный ИИ, может звучать монотонно и без естественных интонаций. Задавайте вопросы, которые могут вызвать эмоциональную реакцию — настоящие люди реагируют более живо.

При подозрении на мошенничество с дипфейками немедленно сообщите в службу поддержки компании, имя которой было использовано. 

229119
32
24