Google retira Gemma AI de AI Studio, reitera el propósito exclusivo para desarrolladores ante preocupaciones sobre la precisión

En resumen

Google retiró su modelo Gemma tras informes de alucinaciones en preguntas fácticas, con la empresa enfatizando que estaba destinado a fines de desarrollo e investigación.

Google Retira Gemma AI de AI Studio, Reitera Propósito Exclusivo para Desarrolladores Ante Preocupaciones de Precisión

La empresa de tecnología Google anunció la retirada de su modelo de IA Gemma tras informes de respuestas inexactas a preguntas fácticas, aclarando que el modelo fue diseñado exclusivamente para investigación y uso de desarrolladores.

Según la declaración de la empresa, Gemma ya no es accesible a través de AI Studio, aunque sigue estando disponible para los desarrolladores a través de la API. La decisión fue motivada por casos de personas que no son desarrolladores usando Gemma a través de AI Studio para solicitar información fáctica, lo cual no era su función prevista.

Google explicó que Gemma nunca se pensó como una herramienta orientada al consumidor, y la eliminación se hizo para evitar más malentendidos sobre su propósito.

En su aclaración, Google enfatizó que la familia de modelos Gemma fue desarrollada como herramientas de código abierto para apoyar a las comunidades de desarrolladores e investigadores, en lugar de para asistencia fáctica o interacción con el consumidor. La compañía señaló que los modelos abiertos como Gemma están destinados a fomentar la experimentación y la innovación, permitiendo a los usuarios explorar el rendimiento del modelo, identificar problemas y proporcionar retroalimentación valiosa.

Google destacó que Gemma ya ha contribuido a los avances científicos, citando el ejemplo del modelo Gemma C2S-Scale 27B, que recientemente desempeñó un papel en la identificación de un nuevo enfoque para el desarrollo de terapias contra el cáncer.

La empresa reconoció los desafíos más amplios que enfrenta la industria de la IA, como las alucinaciones—cuando los modelos generan información falsa o engañosa—y la adulación—cuando producen respuestas agradables pero inexactas.

Estos problemas son particularmente comunes entre modelos abiertos más pequeños como Gemma. Google reafirmó su compromiso de reducir las alucinaciones y mejorar continuamente la fiabilidad y el rendimiento de sus sistemas de IA.

Google Implementa una Estrategia Multicapa para Reducir las Alucinaciones de la IA

La empresa emplea un enfoque en múltiples capas para minimizar las alucinaciones en sus grandes modelos de lenguaje (LLMs), combinando la fundamentación de datos, un entrenamiento riguroso y diseño de modelos, un prompting estructurado y reglas contextuales, y mecanismos continuos de supervisión y retroalimentación humana. A pesar de estas medidas, la empresa reconoce que las alucinaciones no pueden eliminarse por completo.

La limitación subyacente proviene de cómo operan los LLMs. En lugar de poseer una comprensión de la verdad, los modelos funcionan prediciendo secuencias de palabras probables basadas en patrones identificados durante el entrenamiento. Cuando el modelo carece de una base suficiente o se encuentra con datos externos incompletos o poco fiables, puede generar respuestas que suenan creíbles pero son factualmente incorrectas.

Además, Google señala que existen compromisos inherentes en la optimización del rendimiento del modelo. Aumentar la cautela y restringir la salida puede ayudar a limitar las alucinaciones, pero a menudo viene a expensas de la flexibilidad, la eficiencia y la utilidad en ciertas tareas. Como resultado, persisten inexactitudes ocasionales, particularmente en áreas emergentes, especializadas o subrepresentadas donde la cobertura de datos es limitada.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Gate Fun en tendenciaVer más
  • Cap.M.:$3.93KHolders:2
    0.01%
  • Cap.M.:$3.67KHolders:1
    0.00%
  • Cap.M.:$3.83KHolders:1
    0.00%
  • Cap.M.:$3.97KHolders:2
    0.01%
  • Cap.M.:$4.11KHolders:3
    0.18%
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)