Gemini против Claude: Google использует конкурента для тестирования своего ИИ

Google сравнивает Gemini с Anthropic Claude. Как проходят тесты, и что это значит для ИИ? Узнайте о конкуренции и безопасности моделей
Google тестирует Gemini с использованием Anthropic Claude

В борьбе за лидерство в области ИИ Google активно сравнивает свой Gemini с конкурентной моделью Anthropic — Claude. По данным, полученным TechCrunch, подрядчики Google оценивают ответы Gemini, сопоставляя их с результатами работы Claude. Однако остаётся открытым вопрос: получил ли Google разрешение на использование модели Claude для таких тестов?

Как проходит оценка?

Сравнение моделей — стандартная практика в индустрии ИИ. Обычно это происходит через тестирование на отраслевых бенчмарках, но в случае с Gemini и Claude подход более персонализирован. Подрядчикам Google выделяется до 30 минут на анализ каждого ответа по множеству критериев: от правдивости до лаконичности.

Интересно, что в некоторых случаях подрядчики замечали, как Gemini выдаёт ответы, содержащие элементы, противоречащие правилам безопасности. Например, один из респондентов отметил, что ответ Gemini включал «откровенные элементы», в то время как Claude вообще отказался отвечать на небезопасный запрос.

Claude: строгий подход к безопасности

Из внутренних обсуждений подрядчиков следует, что Claude обладает самыми жёсткими настройками безопасности среди всех протестированных моделей. Модель избегает выполнения запросов, которые могут быть небезопасными, например, симуляции других виртуальных ассистентов.

Google и Anthropic: конфликт интересов?

Стоит напомнить, что Google является крупным инвестором Anthropic, а коммерческие условия Anthropic запрещают использовать Claude для разработки конкурирующих продуктов без их разрешения. Представитель DeepMind, подразделения Google, заявляет, что Claude не используется для обучения Gemini, а тесты на соответствие проводятся исключительно в рамках отраслевых стандартов.

Однако Anthropic пока не комментирует ситуацию, оставляя место для предположений о возможных нарушениях.

Проблемы с точностью Gemini

Согласно утечкам, подрядчики Google высказывают обеспокоенность: Gemini иногда генерирует недостоверную информацию на чувствительные темы, включая здравоохранение. Это может подорвать доверие к модели в критически важных сферах.


Сравнение Gemini и Claude демонстрирует, насколько жёсткой становится конкуренция в мире ИИ. Безопасность, точность и прозрачность — ключевые критерии, на которые будут обращать внимание не только разработчики, но и пользователи. Останется ли Google в рамках допустимых практик, покажет время.

Total
1
Shares
Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Предыдущая новость

OpenAI o3: новая эра масштабирования AI моделей или слишком высокая цена за прогресс?

Следующая новость
Манхэттенский проект 2.0

«Манхэттенский проект 2.0»? Штаты ставят на AGI в эскалации с Китаем

Читайте также
Мастер Промпт инжиниринг -подсказки

Мастерство создания промптов: Как написать эффективные запросы для AI

Содержание Скрыть ВведениеОсновные принципы создания промптовКак правильно формулировать запросыВажность ясности и конкретностиРазличные форматы промптов (вопросы, команды и т.д.)Пошаговое…
Читать

Бывший исполнительный директор Palantir Дэйн Стаки присоединяется к OpenAI, чтобы возглавить службу безопасности

  Дэйн Стаки, бывший директор по финансовым вопросам аналитической компании Palantir, присоединился к OpenAI в качестве нового директора…
Читать