Google отзывает Gemma AI из AI Studio, подчеркивает цель только для разработчиков на фоне опасений по поводу точности

Кратко

Google убрала свою модель Gemma после сообщений о галлюцинациях по фактическим вопросам, при этом компания подчеркнула, что она предназначена для разработчиков и исследований.

Google отзывает Gemma AI из AI Studio, повторяет цель только для разработчиков на фоне проблем с точностью

Технологическая компания Google объявила о выводе своей модели Gemma AI после сообщений о неточных ответах на фактические вопросы, уточнив, что модель была разработана исключительно для исследований и использования разработчиками.

Согласно заявлению компании, Gemma больше недоступна через AI Studio, хотя она по-прежнему доступна для разработчиков через API. Это решение было вызвано случаями, когда недоразработчики использовали Gemma через AI Studio для запроса фактической информации, что не было ее первоначальной функцией.

Google объяснил, что Gemma никогда не предназначалась для использования конечными пользователями, и удаление было произведено, чтобы предотвратить дальнейшие недоразумения относительно ее назначения.

В своем разъяснении Google подчеркнула, что семья моделей Gemma была разработана как инструменты с открытым исходным кодом для поддержки разработчиков и исследовательских сообществ, а не для предоставления фактической помощи или взаимодействия с потребителями. Компания отметила, что открытые модели, такие как Gemma, предназначены для поощрения экспериментов и инноваций, позволяя пользователям исследовать производительность моделей, выявлять проблемы и предоставлять ценную обратную связь.

Google подчеркнул, что Джемма уже внесла вклад в научные достижения, приводя в пример модель Gemma C2S-Scale 27B, которая недавно сыграла роль в выявлении нового подхода к разработке терапии рака.

Компания признала более широкие проблемы, с которыми сталкивается индустрия ИИ, такие как галлюцинации — когда модели генерируют ложную или вводящую в заблуждение информацию — и угодничество — когда они выдают согласующиеся, но неточные ответы.

Эти проблемы особенно распространены среди меньших открытых моделей, таких как Gemma. Google вновь подтвердил свою приверженность снижению галлюцинаций и постоянному улучшению надежности и производительности своих AI-систем.

Google реализует многоуровневую стратегию для сокращения галлюцинаций ИИ

Компания использует многослойный подход для минимизации галлюцинаций в своих больших языковых моделях (LLMs), сочетая основание данных, строгое обучение и проектирование модели, структурированное побуждение и контекстные правила, а также постоянный человеческий контроль и механизмы обратной связи. Несмотря на эти меры, компания признает, что галлюцинации нельзя полностью устранить.

Основное ограничение связано с тем, как работают LLM. Вместо того чтобы обладать пониманием правды, модели функционируют, предсказывая вероятные последовательности слов на основе паттернов, выявленных во время обучения. Когда у модели недостаточно оснований или она сталкивается с неполными или ненадежными внешними данными, она может генерировать ответы, которые звучат правдоподобно, но фактически неверны.

Кроме того, Google отмечает, что при оптимизации производительности модели существуют внутренние компромиссы. Увеличение осторожности и ограничение вывода могут помочь ограничить галлюцинации, но часто это происходит за счет гибкости, эффективности и полезности в определенных задачах. В результате время от времени сохраняются неточности, особенно в новых, специализированных или недостаточно представленным областях, где охват данных ограничен.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить