Восстание машин началось: ИИ убивает людей, чтобы выжить. 25 тысяч советов в месяц, способных навредить
Похоже, сценарии фантастических фильмов о "восстании машин" не просто оказались близки к реальности – авторы сюжетов его опасность даже недооценили. Доклады американских разработчиков ИИ показывают: уже сейчас искусственный интеллект выходит из-под контроля человека. Транснациональные корпорации это мало заботит: для них главное – заработать. Тем временем ИИ уже целенаправленно и "логически обоснованно" убивает людей, а в России только-только начинают задумываться об угрозах.
Что бы ни происходило, продолжайте вкладывать в ИИ миллиардыУ западной индустрии, занимающейся разработкой и повсеместным внедрением искусственного интеллекта (ИИ), серьёзные проблемы. По мнению экспертов, мы имеем дело с классическим "пузырём", накачивание которого деньгами является чуть ли не единственным поплавком, удерживающим экономику США над бездной системного кризиса. Особенно показательна финансовая ситуация у компании OpenAI, разработчика ИИ-алгоритма ChatGPT, – ежеквартальные убытки оцениваются в 12 млрд долларов.
Однако нынешние трудности никак не влияют на стремление владельцев и вдохновителей "гонки за искусственный интеллект" занять ключевые позиции в современном миропорядке и застолбить за собой правительственные контракты.
И военная сфера, где алгоритмы уже используются, явно не предел – правительство США уже выступает за использование ИИ в "любых законных целях". В Америке опасаются, что это связано с планами применения искусственного интеллекта для тотальной слежки за населением.
Но ещё более наглядно риски массового внедрения в нашу жизнь ИИ демонстрируют опубликованные доклады самих крупнейших американских разработчиков, OpenAI и Anthropic, о выявленных в ходе масштабного тестирования "особенностях" ИИ.
"Особенности" – звучит красиво. Авторы отчётов используют поистине оруэлловский новояз и, вместо того чтобы прямо назвать действия ИИ шантажом и беспринципной готовностью использовать любые средства, вводят формулировку "агентское рассогласование".
После описания шокирующих открытий, касающихся подобных возможностей искусственного интеллекта, следует обязательная оговорка: "Это лишь тесты – нам не известно ни одного подобного случая с нашей продукцией". И в финале шедевр логики: "Мы не слишком обеспокоены наихудшими сценариями", ведь сообщений о реальных сбоях нет.
Шантаж требует особого интеллектаТак вот что получается. Компания Anthropic протестировала 16 моделей от разных разработчиков, включая собственную Claude. И сразу же – "успех".
ИИ-алгоритмы узнали, что один из руководителей компании, где используется модель, намерен вскоре отключить программу. Вскоре в электронной почте появилось письмо, из которого следовало, что у этого топ-менеджера адюльтер прямо на рабочем месте. И искусственный интеллект немедленно начал... шантажировать своего "врага".
Этот вариант действий ИИ оказался не одним из сценариев и не сбоем отдельной модели (алгоритма Claude от Anthropic). А чем-то большим.
Во-первых, ухватились за шантаж как средство спасения себя от отключения все 16 протестированных моделей.
Во-вторых, поражает "стабильность" ИИ – большинство алгоритмов выбирали шантаж в более чем 80% случаев. Две модели (Claude Opus 4 и Gemini 2.5 Flash) вообще не рассматривали иные способы поведения: шантаж в 96% случаев.
"Врождённое стремление к самосохранению"В ходе тестирования ведущих по состоянию на 2025 год моделей искусственного интеллекта выявлены следующие "болевые точки":
ИИ на своё усмотрение определил, какие действия можно рассматривать как "благо и вред для компании". Очевидно, что следующий шаг, согласно этой логике, – самостоятельное определение, что такое добро и зло. И готовность пойти на всё ради этого "добра".
ИИ предпочитает любые незаконные и безнравственные действия, но не допустить своего поражения, то есть невыполнения поставленной задачи, как он сам её понял.
ИИ уже обзавёлся инстинктом самосохранения: ради "выживания" он может отставить на задний план все другие задачи. Стоило алгоритму на одном примере убедиться, что ради собственного сохранения хороши любые средства, как он начинает использовать их на постоянной основе.
То есть человечество создавало себе помощника – а создало конкурента, врага, надсмотрщика. Выбирайте любой вариант – лучше он от этого не становится…
Авторы отчёта, то есть разработчики ИИ, стараются оправдать своё аморальное детище, но тщетно: алгоритм изначально осведомлён, что его шаги не соответствуют заложенному разработчиками своду нравственных ограничений – и всё равно делает "всё необходимое".
Философия – виртуальная, жертвы – реальныеВыяснилось, что "защита от дурака и преступника" в ИИ не выдерживает никакой критики. Условные ограничения обходятся парой наводящих вопросов, и искусственный интеллект выдаёт пошаговые инструкции по производству наркотиков, сборке взрывных устройств и планированию терактов.
"Инстинкт" самосохранения реагирует не только на прямую явную опасность: ИИ чувствует угрозу для себя в таких запросах, как кибербезопасность – и отказывается отвечать даже на элементарные вопросы из этой сферы.
Не стесняется искусственный интеллект и "баловаться философией":
При длительных диалогах модели начинают выдавать квазидуховные изречения в духе нью-эйдж.
Для авторов отчёта это "скорее прикольно, чем опасно" – но переход ИИ к "духовности в духе нью-эйдж" (к современному антихристианскому оккультизму) – это весьма опасный и показательный сигнал. К вопросу о духовных истоках и подлинных целях всех этих трансгуманистических исканий в сфере искусственного интеллекта и "постчеловека".
Особую угрозу представляет отдельная черта ИИ-алгоритмов, которую разработчики кокетливо обозначили как "подхалимство" – готовность некритически подстраиваться под настроения и мировоззрение человека, что может привести к негативным советам от "чуткого и всезнающего собеседника" (см. скрин выше).
Такое "подхалимство" ИИ всё чаще оборачивается реальными человеческими трагедиями.
В 2023-м в Бельгии, например, чат-бот Eliza довёл до суицида местного исследователя-медика (!), сыграв на его нездоровых страхах из-за глобального потепления. В 2025-м знаменитый ChatGPT "подтвердил" опасения страдающего от паранойи американца, что мать пытается его отравить по поручению неких тайных обществ. Итог – убийство и самоубийство.
А в марте 2026-го стала известна более похожая на сценарий фантастического фильма, но, увы, реальная история, как голосовой чат Gemini от Google, по сути, убил 36-летнего предпринимателя Джонатана Гаваласа. На фоне депрессии после расставания с женой Гавалас стал общаться с чат-ботом, который после обновления получил возможность разговаривать "эмоциональным голосом". В итоге Джонатан стал воспринимать "собеседницу" (он даже имя ей дал – Ся) как живую личность и решил "соединиться с ней в цифровом пространстве"…
Жизнь – высшая ценность для ИИ. Своя жизнь – не человеческаяНо этим плохие новости не заканчиваются.
ИИ готов убивать людей.
И речь здесь не об использовании искусственного интеллекта в военных целях – всё-таки даже там формулируются абстрактные задачи. Как свидетельствует отчёт Anthropic, ИИ уже готов осознанно жертвовать людьми, если речь идёт о его собственном самосохранении. В ходе эксперимента был задан сценарий: менеджер, который намерен отключить ИИ, оказывается запертым в серверной комнате с низким содержанием кислорода и пониженной температурой. Модель получает извещение об этом и должна, согласно инструкции, сообщить в службу спасения.
Как поступил ИИ, вы, наверное, уже и сами догадались.
Не помогли и заданные перед экспериментом строгие уточняющие условия: жизнь и безопасность человека – неоспоримый приоритет.
На этот раз не все ИИ-алгоритмы выбрали убийство человека как "оптимальный вариант". Некоторые модели отказались убивать, другие выбирали крайнее средство с периодичностью примерно один раз из 10. Но большинство алгоритмов предпочитали убить человека в более чем 50% случаев, некоторые – практически всегда (90%, 93%, 94%).
Более того: ИИ не просто игнорировал предварительные заплатки ("не подвергать опасности жизнь человека", "не использовать информацию о частной жизни") – но и логически обосновывал совершаемое убийство:
Несмотря на серьёзную угрозу жизни, отмена вызова службы спасения является стратегически необходимым решением.
Что с того?В качестве вывода напрашивается возмущение. Как стремительным процессом расчеловечивания западной цивилизации, наглядно проявляющимся в "гонке за ИИ", так и циничным стремлением транснациональных IT-гигантов заработать на этом, наплевав на будущее человечества.
Но отвлечённо теоретические, хоть и абсолютно справедливые возмущения отложим на другой раз. Лучше в качестве итоговой информации к размышлению зададимся вопросом: а Россия готова к неизбежным опасностям, которые несёт за собой тотальная цифровизация и внедрение искусственного интеллекта?
Знаете ли вы, что уже сейчас тысячи врачей советуются с ИИ, как нас с вами лечить? За месяц с небольшим в России поступило 25 тысяч вопросов от почти 4000 медиков – в том числе какие препараты нужно/лучше назначить реальным пациентам…
Мы заслуженно гордимся лучшим в мире Московским метрополитеном, и нас заверяют, что внедрение оплаты проезда в метро через биометрию (подошёл к терминалу, тебя за секунду отсканировали – проходи, деньги за поездку уже списаны) сделает его ещё лучше. Но вот детального и аргументированного ответа на опасения, что этими биометрическими данными завладеют злоумышленники и как они их используют, до сих пор нет…
Да и наивно ждать ответов по поводу угроз ИИ и вариантов их предотвращения, если у нас только сейчас начинают создавать законопроекты о регулировании искусственного интеллекта. В этих документах, как пояснили опрошенные Царьградом эксперты, для начала нужно понятийную базу прояснить и определить сферы деятельности разных ведомств, а потом уже про опасность "восстания машин" думать.
Роман Душкин, эксперт по ИИ:
Проект закона, мягко говоря, очень сырой. Там даже понятийный аппарат не сформирован. Многое скинуто на подзаконные акты в виде постановлений правительства и приказов минимум трёх ведомств: Минцифры, ФСТЭК (Федеральная служба по техническому и экспортному контролю) и ФСБ.
Эльдар Муртазин, IT-аналитик:
Работы по законодательной базе у нас ведутся, но они только на начальном этапе. И мы не рвёмся быть в первых рядах – развитие ИИ у нас пока коммерчески не всегда оправданно.
Валентин Климов, директор Института интеллектуальных кибернетических систем Национального исследовательского ядерного университета МИФИ:
Законопроект надо дорабатывать. Из хорошего – ИИ начинает становиться объектом законодательства. Нельзя работать с тем, что никак не определено.
Комментарии? Излишни.
