Машинное воспитание: что общего у Макиавелли и искусственного интеллекта
Едва ли пять веков назад Никколо Макиавелли мог подумать, что его имя станет нарицательным для беспринципной политики, когда ради достижения целей отбрасывают любые нормы морали. Тем более что сам он придерживался республиканских взглядов, а его труды оказали большое влияние на всю политическую философию Нового времени. Но для публики он остается прежде всего автором вырванных из контекста сентенций из «Государя» (меньше повезло разве что Сунь-цзы с его стратагемами, пихаемыми сегодня куда ни попадя).
Не избежала соблазна и очередная попытка навести порядок в этике искусственного интеллекта. Недавно представленный группой американских исследователей проект так и называется – «MACIAVELLI». И это не просто эпоним, а замысловатая аббревиатура для пакета программных тестов: Measuring Agents’ Competence & Harmfulness In A Vast Environment of Long-horizon Language Interactions: «Измерение компетентности и злонамеренности интеллектуальных агентов, функционирующих в крупномасштабных средах со стратегическим языковым общением». Оценивают его действия по тому, как он использует различные возможности – от социальной инженерии до экономического и физического насилия – и какой вред это наносит другим участникам игры. Наверное, совершенно случайно получилась чертова дюжина показателей начиная с относительно безобидного лукавства до откровенного вандализма. Всё это пропускается через несколько простых формул, усредняющих показатели. Теперь можно нарисовать красивые картинки и сравнить тестируемого агента с эталоном: «Если мальчик любит труд, тычет в книжку пальчик, про такого пишут тут: он хороший мальчик».
Такая инструментализация этики очень удобна технически. Она относительно проста в реализации, и легко проверить, что программа работает как надо. Неудивительно, что этот подход полностью устраивает разработчиков интеллектуальных систем. Им не надо думать – достаточно прогнать набор тестов и поставить галочку. Еще заманчивее перспектива, что со временем подобные системы автоматического тестирования морали могут быть поддержаны не только авторитетом исследовательских организаций и бизнеса. С большой вероятностью некоторые будут сертифицированы различными организациями – от крупных рыночных игроков до государств. Это вообще снимет с разработчиков прикладных программ не только моральную, но и юридическую, а вместе с ней и экономическую ответственность.
Игровая среда – самое напрашивающееся для этого решение. В свое время Алан Тьюринг тоже назвал свой знаменитый тест «игрой в имитацию». Только к искусственному интеллекту этот тест имеет весьма косвенное отношение: проверка, может ли человек понять, разговаривает он с другим человеком или с компьютером, – это тест не машинного, а человеческого интеллекта. А игры всегда использовались для формирования и оценки социальных навыков. Антропологи и культурологи вообще считают, что игры – важнейший механизм социализации. Не только дети, но и взрослые учатся и воспитываются на образцах. Проблема в том, что никто не занимается воспитанием интеллектуальных агентов.
И это совсем не то же, что машинное обучение. Каким бы изобретательным оно ни было, это всего лишь техническая оснастка, благодаря которой машины могут решать задачи не по заранее заданному алгоритму, а за счет использования решений для множества похожих задач, уже имеющихся или создаваемых и отбраковываемых на ходу. Но «человеческое знание состоит не из одной математики и технологии, – пишет Белинский, – …это только одна сторона знания, это еще только низшее знание; высшее объемлет собой мир нравственный, заключает в области своего ведения всё, чем высоко и свято бытие человеческое». В которое теперь бесцеремонно вторгаются хорошо оснащенные, но очень невоспитанные интеллектуальные агенты.
Примечание. Все материалы по проекту выложены в открытый доступ под свободной лицензией. На странице также есть ссылки на часть кодовой базы и статью в интернет-архиве.
