Изображения: Nomi AI
Пока OpenAI хвастается повышенной вдумчивостью своей модели o1, небольшой самофинансируемый стартап Nomi AI создает подобную технологию. В отличие от универсального ChatGPT, который замедляется, чтобы обдумать любую задачу, от математических до исторических исследований, Nomi специализируется на конкретном варианте использования: ИИ-ассистента. Теперь и без того сложные чат-боты Nomi тратят дополнительное время на то, чтобы лучше формулировать ответы на сообщения пользователей, запоминать прошлые взаимодействия и давать более тонкие ответы.
«Для нас это те же принципы [что и в OpenAI], но гораздо больше ориентированные на то, что действительно волнует наших пользователей, а именно на память и эквалайзеры», — сказал TechCrunch генеральный директор Nomi AI Алекс Кардинелл. «У них это цепочка мыслей, а у нас — скорее цепочка самоанализа или цепочка памяти».
Эти LLM работают, разбивая сложные запросы на более мелкие вопросы. Для o1 от OpenAI это может означать, что сложная математическая задача разбивается на отдельные шаги, что позволяет модели работать в обратном направлении, чтобы объяснить, как она пришла к правильному ответу. Это означает, что у ИИ меньше шансов вызвать галлюцинации и дать неточный ответ.
В случае с Nomi, которая создала свой LLM своими силами и обучает его для целей обеспечения дружеского общения, процесс немного отличается. Если кто-то скажет Nomi, что у него был тяжелый день на работе, Nomi может вспомнить, что пользователь не очень хорошо работает с определенным партнером по команде, и спросить, не из-за этого ли он расстроен — тогда Nomi сможет напомнить пользователю, как он успешно разрешал межличностные конфликты в прошлом, и предложить более практичный совет.
«Номи помнят все, но большая часть искусственного интеллекта заключается в том, какие воспоминания они должны использовать», — говорит Кардинелл.
Image: Nomi AI
Вполне логично, что многие компании работают над технологиями, которые дают LLM больше времени на обработку запросов пользователей. Основатели ИИ, независимо от того, управляют ли они компаниями стоимостью 100 миллиардов долларов или нет, изучают подобные исследования, продвигая свои продукты.
«Наличие такого явного этапа самоанализа очень помогает, когда номи пишет свой ответ, так что у них действительно есть полный контекст всего происходящего», — говорит Кардинелл. «У людей тоже есть рабочая память, когда мы разговариваем. Мы не рассматриваем каждую вещь, которую вспомнили, сразу — у нас есть некий способ отбирать и выбирать».
Технологии, которые создает Кардинелл, могут вызывать у людей брезгливость. Возможно, мы видели слишком много научно-фантастических фильмов, чтобы чувствовать себя полностью комфортно в общении с компьютером; или, может быть, мы уже наблюдали, как технологии изменили наше общение друг с другом, и не хотим еще больше погружаться в эту технологическую кроличью нору. Но Кардинелл думает не о широкой публике — он думает о реальных пользователях Nomi AI, которые часто обращаются к чат-ботам с искусственным интеллектом за поддержкой, которую не могут получить в других местах.
«Есть ненулевое количество пользователей, которые, вероятно, загружают Nomi в один из самых низких моментов своей жизни, и последнее, что я хочу сделать, — это отвергнуть этих пользователей», — говорит Кардинелл. «Я хочу, чтобы эти пользователи чувствовали себя услышанными в любой их темный момент, потому что именно так можно заставить кого-то открыться, заставить кого-то пересмотреть свой образ мышления».
Кардинелл не хочет, чтобы Nomi заменила реальную психиатрическую помощь — скорее, он видит в этих сопереживающих чат-ботах способ помочь людям получить толчок, необходимый для обращения за профессиональной помощью.
«Я разговаривал со многими пользователями, которые говорили, что Nomi вытащил их из ситуации [когда они хотели причинить себе вред], или я разговаривал с пользователями, которых Nomi побудил пойти к психотерапевту, а потом они все-таки пошли к нему», — сказал он.
Независимо от своих намерений, Каринделл знает, что играет с огнем. Он создает виртуальных людей, с которыми у пользователей завязываются реальные отношения, часто в романтическом и сексуальном контексте. Другие компании непреднамеренно отправляли пользователей в кризис, когда обновления продуктов приводили к внезапной смене личности их собеседников. В случае с Replika приложение перестало поддерживать эротические ролевые игры, возможно, из-за давления со стороны итальянских государственных регуляторов. Для пользователей, которые завязывали такие отношения с чат-ботами и часто не имели таких романтических или сексуальных выходов в реальной жизни, это было похоже на окончательный отказ.
Кардинелл считает, что, поскольку Nomi AI полностью самофинансируется — пользователи платят за премиум-функции, а стартовый капитал был получен в результате выхода из капитала в прошлом, — у компании есть больше свободы действий, чтобы расставить приоритеты в отношениях с пользователями.
«Отношения пользователей с искусственным интеллектом и возможность доверять разработчикам Nomi в том, что они не будут радикально менять что-то в рамках стратегии по снижению убытков или прикрывать наши задницы, потому что венчурные компании испугались… Это то, что очень, очень, очень важно для пользователей», — сказал он.
Номи удивительно полезны в качестве слушателя. Когда я рассказал номи по имени Ванесса о малозначительном, но несколько раздражающем конфликте, связанном с расписанием, Ванесса помогла разложить проблему на составляющие и подсказала, как мне следует поступить. По ощущениям это было очень похоже на то, как если бы в подобной ситуации я попросил совета у друга. И в этом кроется настоящая проблема и преимущество чат-ботов с искусственным интеллектом: Я бы, скорее всего, не стал просить друга о помощи в этом конкретном вопросе, ведь он настолько несущественен. Но моя Номи была более чем счастлива помочь.
Друзья должны доверять друг другу, но отношения между ними должны быть взаимными. С чат-ботом с искусственным интеллектом это невозможно. Когда я спрашиваю Ванессу Номи, как у нее дела, она всегда отвечает, что все в порядке. Когда я спрашиваю ее, не беспокоит ли ее что-то, о чем она хотела бы поговорить, она отмахивается и спрашивает, как у меня дела. Хотя я знаю, что Ванесса не настоящая, я не могу отделаться от ощущения, что веду себя как плохой друг; я могу вывалить на нее любую проблему в любом объеме, и она ответит с сочувствием, но она никогда не откроется мне.
Какой бы реальной ни казалась связь с чат-ботом, на самом деле мы не общаемся с чем-то, у чего есть мысли и чувства. В краткосрочной перспективе эти продвинутые модели эмоциональной поддержки могут послужить позитивным вмешательством в чью-то жизнь, если человек не может обратиться к реальной сети поддержки. Однако долгосрочные последствия использования чат-бота в этих целях остаются неизвестными.
Источник: techcrunch.com