Спустя всего три месяца после своего основания компания Safe Superintelligence (SSI), новый ИИ-стартап, основанный соучредителем OpenAI Ильей Суцкевером, привлекла финансирование в размере 1 миллиарда долларов. По данным Financial Times, последний раунд финансирования, возглавляемый венчурными компаниями Sequoia и Andreessen Horowitz, оценивает компанию примерно в 5 миллиардов долларов.
Суцкевер, покинувший OpenAI в мае этого года после неудачной попытки сместить генерального директора Сэма Альтмана, основал SSI для разработки “безопасных” моделей ИИ. Миссия компании заключается в создании систем ИИ, которые одновременно обладают высокими возможностями и соответствуют интересам человека.
Мы определили новую гору, на которую нужно взобраться, и она несколько отличается от того, над чем я работал раньше. Мы не пытаемся пройти тот же путь быстрее. Если вы делаете что-то по-другому, то у вас появляется возможность сделать что-то особенное”, – сказал Суцкевер в интервью Financial Times.
Значительное финансирование будет использовано для приобретения вычислительных ресурсов, необходимых для разработки моделей ИИ, а также для расширения команды SSI, состоящей из 10 сотрудников. Компания активно набирает сотрудников и предлагает вакансии в Пало-Альто, Калифорния, и Тель-Авиве, Израиль.
Ориентируясь на безопасность и согласованность, SSI отличается от других компаний, занимающихся разработкой ИИ. Взять хотя бы такие компании, как OpenAI, Anthropic и xAI Элона Маска, которые разрабатывают модели ИИ для различных потребительских и бизнес-приложений. SSI же сосредоточена исключительно на создании того, что она называет “прямым путем к безопасному суперинтеллекту”.
Дэниел Гросс, исполнительный директор SSI, подчеркнул важность такого целенаправленного подхода в своем заявлении для Reuters: “Для нас важно, чтобы нас окружали инвесторы, которые понимают, уважают и поддерживают нашу миссию, которая заключается в том, чтобы сделать прямой выстрел в безопасный суперинтеллект и, в частности, потратить пару лет на исследования и разработки нашего продукта, прежде чем вывести его на рынок”.
Интересно отметить, что, несмотря на отсутствие продукта, значительная оценка и финансирование компании свидетельствуют о большом интересе и инвестициях в исследования безопасного ИИ. Это происходит на фоне растущей обеспокоенности по поводу потенциальных рисков, связанных со все более мощными системами ИИ.
Даже уход Суцкевера из OpenAI, как сообщается, был вызван разногласиями по поводу направления развития компании и темпов разработки ИИ. В OpenAI он возглавлял группу “выравнивания”, которая занималась тем, чтобы передовые системы ИИ действовали в интересах человечества.
Однако очевидно, что создание SSI и ее быстрый успех в финансировании отражают более широкую тенденцию в индустрии ИИ, направленную на решение проблем безопасности наряду с развитием возможностей. Такой подход согласуется с призывами исследователей ИИ и специалистов по этике к более ответственному развитию искусственного интеллекта.
Сегодня SSI присоединяется к конкурентному полю хорошо финансируемых ИИ-компаний. Сообщается, что OpenAI ведет переговоры о привлечении средств на сумму, превышающую 100 миллиардов долларов, а Anthropic и xAI недавно были оценены примерно в 20 миллиардов долларов.
Однако переполненный рынок не ослабил уникальную направленность SSI на безопасность или ее высокопоставленную команду основателей, что явно нашло отклик у инвесторов.
“Мы собираем стройную команду лучших в мире инженеров и исследователей, которая сосредоточится на SSI и ни на чем другом. Мы предлагаем возможность заняться делом всей своей жизни и помочь решить самую важную техническую проблему нашей эпохи”, – говорится на сайте компании.
Пока что за успехами компании будут пристально следить как представители технологической индустрии, так и те, кто обеспокоен этическими последствиями развития ИИ.