Сотни ИИ-агентов на базе LLM спонтанно заводили друзей, изобретали работу и распространяли религию.
Предоставленная сама себе, армия персонажей ИИ не просто выжила — она процветала. Они создавали внутриигровые профессии, делились мемами, голосовали за налоговые реформы и даже распространяли религию.
Эксперимент проводился на игровой платформе Minecraft с открытым миром, где до 1000 программных агентов одновременно использовали большие языковые модели (LLM) для взаимодействия друг с другом. Получив всего лишь толчок в виде текстовых подсказок, они развили удивительный диапазон личностных качеств, предпочтений и специализированных ролей без каких-либо дополнительных действий со стороны их создателей-людей.
Работа, проведенная ИИ-стартапом Altera, является частью более широкой области, которая стремится использовать симуляторы для моделирования реакции человеческих групп на новую экономическую политику или другие вмешательства.
Но для основателя Altera Роберта Янга, который оставил должность доцента в области вычислительной нейронауки в Массачусетском технологическом институте, чтобы основать компанию, эта демонстрация — только начало. Он считает ее первым шагом на пути к масштабным «цивилизациям ИИ», которые смогут сосуществовать и работать рядом с нами в цифровом пространстве. «Настоящая мощь ИИ раскроется, когда у нас появятся по-настоящему автономные агенты, способные к масштабному сотрудничеству», — говорит Янг.
Вдохновением для Янга послужил исследователь Стэнфордского университета Джун Сунг Парк, который в 2023 году обнаружил, что удивительно похожее на человеческое поведение возникает, когда группа из 25 автономных агентов ИИ получает возможность взаимодействовать в базовом цифровом мире.
«Как только вышла его статья, мы начали работать над ней на следующей неделе», — говорит Янг. «Я ушел из MIT через шесть месяцев после этого».
Янг хотел довести эту идею до крайности. «Мы хотели расширить границы того, что агенты могут делать в группах автономно».
Altera быстро привлекла более $11 млн финансирования от инвесторов, включая A16Z и венчурную компанию бывшего генерального директора Google Эрика Шмидта, специализирующуюся на новых технологиях. В начале этого года Altera выпустила свою первую демонстрацию: управляемый искусственным интеллектом персонаж в Minecraft, который играет вместе с вами.
Новый эксперимент Altera, Project Sid, использует симуляцию агентов ИИ, оснащенных «мозгом», состоящим из нескольких модулей. Некоторые модули работают на LLM и предназначены для выполнения определенных задач, таких как реакция на других агентов, разговор или планирование следующего шага агента.
ALTERA
Команда начала с малого, тестируя группы из примерно 50 агентов в Minecraft, чтобы понаблюдать за их взаимодействием. За 12 игровых дней (4 часа в реальном мире) агенты начали демонстрировать интересное эмерджентное поведение. Например, некоторые из них стали очень общительными и установили множество связей с другими персонажами, в то время как другие оказались более интровертными. Рейтинг «симпатичности» каждого агента (измеряемый самими агентами) менялся со временем по мере взаимодействия. Агенты могли отслеживать эти социальные сигналы и реагировать на них: в одном случае ИИ-повар, которому было поручено распределять еду среди голодающих, давал больше тем, кто, по его мнению, ценил его больше всего.
Связанная история
Как генеративный ИИ может переосмыслить смысл игры
NPC на базе ИИ, которым не нужен сценарий, могут сделать игры и другие миры глубоко захватывающими.
В серии симуляций с 30 агентами появилось более человекоподобное поведение. Несмотря на то что все агенты начинали с одинаковыми личностными качествами и одинаковой общей целью — создать эффективную деревню и защитить сообщество от нападений других внутриигровых существ, — они спонтанно и без подсказок развивали специализированные роли в сообществе. Они варьировались в таких ролях, как строитель, защитник, торговец и исследователь. Как только агент начинал специализироваться, его внутриигровые действия начинали отражать новую роль. Например, художник тратил больше времени на сбор цветов, фермеры собирали семена, а охранники строили больше заборов.
«Мы были удивлены, увидев, что если подключить мозг нужного типа, то он может обладать действительно эмерджентным поведением», — говорит Янг. «Это то, что мы ожидаем от людей, но не ожидаем от машин».
Команда Янга также проверила, могут ли агенты следовать правилам, принятым в сообществе. Они создали мир с базовыми налоговыми законами и позволили агентам голосовать за изменения внутриигровой системы налогообложения. Агенты, которым было предложено высказаться за или против налогов, смогли повлиять на поведение других агентов вокруг них, и те проголосовали за снижение или повышение налогов в зависимости от того, с кем они взаимодействовали.
Команда увеличила число агентов в каждой симуляции до максимума, который сервер Minecraft мог выдержать без сбоев, — в некоторых случаях до 1000 одновременно. В одной из симуляций Altera с 500 агентами они наблюдали, как агенты спонтанно придумывают и затем распространяют культурные мемы (например, любовь к розыгрышам или интерес к экологическим проблемам) среди своих коллег. Команда также запустила небольшую группу агентов, чтобы они попытались распространить (пародийную) религию, пастафарианство, в различных городах и сельских районах, составляющих внутриигровой мир, и наблюдала, как эти пастафарианские священники обратили в свою веру многих агентов, с которыми они взаимодействовали. Новообращенные продолжали распространять пастафарианство (слово Церкви Летающего Спагетти-монстра) в соседних городах игрового мира.
Действия агентов могут показаться до жути реалистичными, но в их поведении сочетаются шаблоны, выученные LLM на основе данных, созданных людьми, и система Altera, которая преобразует эти шаблоны в действия, учитывающие контекст, например, взятие в руки инструмента или взаимодействие с другим агентом. «Вывод заключается в том, что LLM обладают достаточно сложной моделью социальной динамики человека, [чтобы] отражать это человеческое поведение», — говорит соучредитель Altera Эндрю Ан (Andrew Ahn).
Другими словами, данные делают их отличными имитаторами человеческого поведения, но они никоим образом не являются «живыми».
Но у Янга более грандиозные планы. Altera планирует расширить свою деятельность на Roblox, но в конечном итоге Янг надеется выйти за рамки игровых миров. В конечном итоге его цель — создать мир, в котором люди будут не просто играть вместе с персонажами ИИ, но и взаимодействовать с ними в повседневной жизни. Он мечтает создать огромное количество «цифровых людей», которые на самом деле заботятся о нас и будут работать с нами, помогая решать проблемы, а также развлекать нас. «Мы хотим создать агентов, которые смогут по-настоящему любить людей (как, например, собаки любят людей)», — говорит он.
Эта точка зрения — что ИИ может полюбить нас — довольно спорна в данной области: многие эксперты утверждают, что воссоздать эмоции в машинах с помощью современных технологий невозможно. Ветеран ИИ Джулиан Тогелиус, который руководит компанией Modl.ai, занимающейся тестированием игр, говорит, что ему нравится работа Altera, особенно потому, что она позволяет изучать поведение человека в симуляции.
Но смогут ли эти симуляторы когда-нибудь научиться заботиться о нас, любить нас или обрести самосознание? Тогелиус так не считает. «Нет никаких оснований полагать, что нейронная сеть, работающая на GPU, вообще что-то испытывает, — говорит он.
Но, возможно, для того чтобы быть полезным, ИИ не обязательно любить нас по-настоящему».
«Если вопрос заключается в том, сможет ли одно из этих симулированных существ создать видимость заботы и делать это настолько умело, что это будет иметь для кого-то такую же ценность, как и забота человека, то, возможно, это не невозможно», — добавляет Тогелиус. «Вы можете создать достаточно хорошую симуляцию заботы, чтобы быть полезным. Вопрос в том, будет ли человек, о котором заботятся, переживать, что у него нет опыта».
Другими словами, пока наши персонажи ИИ убедительно заботятся о нас, это может быть единственным, что нас действительно волнует.