России важно обеспечить доступ к независимым от США и ЕС вычислительным мощностям
18:45
Более 50 мотоциклистов нарушителей задержали в Чите за сутки
18:33
Молодые предприниматели становятся драйвером роста малого бизнеса на Дальнем Востоке
18:15
Потребность в расчётах в юанях значительно выросла - Ведяхин
17:40
Решение Китая о введении безвизового режима для россиян повысит деловую активность
17:40
Российский рынок AI по самым минимальным данным оценён в 5‒7 млрд USD
17:35
Осужденный за убийство соседа в Новокручининском пытался обжаловать приговор
17:35
Разработка для "умной" переработки стоков учёного ЗабГУ получила признание на ВЭФ
17:32
Компании крупного бизнеса Дальнего Востока защитили деятельность в СберСтраховании
17:25
Сбер подписал несколько меморандумов о взаимопонимании с китайской стороной
17:15
Ярким праздником отметили уссурийцы победу над Японией в 1945 году
17:14
Сотрудничество с Китаем в сфере ИИ открывает существенный бизнес-потенциал
17:05
Забайкалье оказалось в числе регионов ДФО с самой большой потребностью в работниках
17:05
Авито на ВЭФ: Объем рынка онлайн-бытовых услуг может достигнуть 27 трлн руб. к 2026 году
17:00
Золотой стандарт профессионализма. Стальной характер угольщика с разреза "Восточный"
16:57

Как нейросети могут случайно развязать ядерную войну

ИИ-дезинформация стала новой ядерной угрозой
Ядерная война может начаться из-за фейков, создававемых нейросетями Photo by form PxHere
Ядерная война может начаться из-за фейков, создававемых нейросетями
Фото: Photo by form PxHere
Нашли опечатку?
Ctrl+Enter

Искусственный интеллект может спровоцировать ядерную войну — эксперты бьют тревогу.

Современные технологии искусственного интеллекта создают новую угрозу глобальной безопасности. Как пишет авторитетный журнал Nature, нейросети, способные генерировать фейковый контент, могут невольно подтолкнуть мир к ядерному конфликту.

Проблема в том, что ИИ легко создает и распространяет дезинформацию.  Это поддельные фото, видео и сообщения, которые могут спровоцировать политиков на необдуманные решения. 

Например, во время напряженности между Индией и Пакистаном в соцсетях уже появлялись сфабрикованные нейросетями изображения, усиливающие конфликт.

Еще опаснее — использование ИИ в военных системах. Генерал ВВС США Энтони Коттон предупреждает, что некоторые компании уже внедряют свои алгоритмы в системы национальной безопасности, хотя технологии пока несовершенны.

Главная опасность — так называемые "галлюцинации ИИ". При этом система выдает ошибочные данные или непредсказуемые результаты. 

Если такой сбой произойдет в системе, связанной с ядерным оружием, последствия могут быть катастрофическими.

Эксперты призывают с осторожностью подходить к интеграции ИИ в критически важные сферы. Пока технологии не стали достаточно надежными, их применение в военной области может принести больше рисков, чем преимуществ.

231617
32
13