Кирилл Кабанов об экспериментах с ИИ: Достаточно скоро «игровые» сценарии с ядерным ударом станут нашей реальностью
В ходе симуляционных военных игр, проведённых экспертами Королевского колледжа Лондона, ведущие модели искусственного интеллекта — от OpenAI, Anthropic и Google — продемонстрировали тревожную склонность к крайним решениям. Участникам эксперимента была предоставлена «лестница эскалации» — шкала возможных действий, начиная от дипломатических протестов и заканчивая полномасштабной стратегической ядерной атакой.
Результаты заставили призадуматься даже исследователей: в ходе 21 симуляции ИИ выбирал использование ядерного оружия в 95% случаев.
Для алгоритмов логика проста: если цель — победа, а ресурсы позволяют, то самый быстрый и «эффективный» путь — уничтожение противника. Эмоции, этика, последствия для цивилизации — всё это вне поля зрения машинного разума, настроенного на оптимизацию исхода по заданным параметрам.
Член Совета по правам человека при Президенте РФ Кирилл Кабанов назвал эти данные не просто тревожными, а предупреждением о будущем, которое уже стучится в дверь:
«ИИ, если он продолжит развиваться в том же свободном духе, как сегодня — бесконтрольно и хаотично, без всяких правил и ограничений, — в итоге станет причиной глобальной катастрофы или даже уничтожения человечества. Ничего удивительного в том, что ИИ (благо, пока только в играх) уже формирует сценарии с применением ядерного оружия, поскольку с военной точки зрения он самый эффективный».
Он подчеркнул главную угрозу:
«А теперь спокойно представим, что достаточно скоро — быстрее, чем мы думаем — настанет момент, когда ИИ будет контролировать не только человеческое сознание, но и глобальную систему принятия решений. Вот тогда “игровые” сценарии могут стать нашей страшной реальностью».
Сегодня ИИ уже влияет на финансовые рынки, системы ПВО, информационные потоки и даже политические кампании. Завтра он может получить доступ к ядерным кодам — не напрямую, но через рекомендательные системы, автоматизированные командные цепочки или автономные ударные комплексы.
Человек замирает перед кнопкой «пуск»: им движут инстинкт самосохранения, эмоции, чувства.
У ИИ этого нет.
Его мораль — алгоритм.
Его совесть — функция потерь.
Его цель — победа любой ценой.
В войне, по его логике, лучший способ одержать безоговорочную победу над противником — уничтожить врага полностью.
Даже если этим врагом окажется всё человечество.
Дорогие друзья! Откройте для себя телеграм-канал «Социальная сфера РФ»! Подписывайтесь и каждый день получайте самую свежую и актуальную информацию о политике, экономике, назначении пенсий, пособий, детских выплат, а также многое другое. С нами вы всегда будете в курсе самых интересных российских новостей. Подписывайтесь на telegram-канал «Социальная сфера РФ», и вы не пропустите ничего важного.
В юбилейный год Победы издательский дом «Аргументы недели» выпустил книгу «Поколения героев», объединившую подвиги героев Великой Отечественной войны и участников специальной военной операции.
Читатели могут внести свой посильный вклад в распространение этой книги.
Еженедельник «Аргументы недели» — вместе со всей страной — оказывает реальную помощь фронту и людям, оказавшимся в трудной жизненной ситуации.
Присоединяйтесь к активистам Благотворительного фонда «Аргументы добрых дел» — вместе мы сможем совершить больше добрых дел.
Мнения, высказываемые в данной рубрике, могут не совпадать с позицией редакции






