La empresa de navegadores líder, Opera, dice que está añadiendo soporte experimental para 150 LLM locales (Modelo de Lenguaje Grande) variantes de aproximadamente 50 familias de modelos a su navegador Opera One en la corriente de desarrolladores.
Los LLM como GPT ( Generative Pre-trained Transformer ) modelos desarrollados por OpenAI, son sistemas avanzados de inteligencia artificial entrenados en grandes cantidades de datos textuales para comprender y generar texto similar al humano. Se utilizan para diversas tareas de procesamiento de lenguaje natural, incluyendo generación de texto, traducción y resumir.
Según Opera, esta es la primera vez que los LLM locales pueden ser fácilmente accesibles y gestionados desde un navegador importante a través de una función integrada. Los modelos de IA locales son un complemento al servicio de IA Aria en línea de Opera. Entre los LLM locales compatibles se encuentran:
* Llama de Meta
Vicuna
Gemma de Google
Mixtral de Mistral AI
“Introducir LLMs locales de esta manera permite a Opera comenzar a explorar formas de construir experiencias y conocimiento dentro del rápido espacio emergente de la IA local,” dijo Krystian Kolondra, EVP de Navegadores y Juegos en Opera.
Usar Modelos de Lenguaje Locales Grandes significa que los datos de los usuarios se mantienen localmente en su dispositivo, lo que les permite utilizar IA generativa sin la necesidad de enviar información a un servidor, dijo Opera.
Entre los problemas que surgen en el discurso sobre la inteligencia artificial se encuentra la privacidad de los datos, que ha llevado a tres importantes proyectos de IA descentralizada; Fetch.ai, SingularityNET (SNET) y Ocean Protocol a decidir fusionarse para crear un ecosistema de IA descentralizado.
“A partir de hoy, los usuarios de Opera One Developer están obteniendo la oportunidad de seleccionar el modelo que desean utilizar para procesar su entrada. Para probar los modelos, deben actualizar a la versión más nueva de Opera Developer y seguir varios pasos para activar la nueva función,” dijo Opera.
“Elegir un LLM local descargará entonces el mismo en su máquina. El LLM local, que típicamente requiere de 2 a 10 GB de espacio de almacenamiento local por variante, se utilizará en lugar de Aria, la IA nativa del navegador Opera, hasta que un usuario inicie un nuevo chat con la IA o vuelva a activar Aria.”
Síguenos en Twitter para las últimas publicaciones y actualizaciones
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
INTELIGENCIA ARTIFICIAL | El navegador Opera integra modelos de IA importantes para descarga local y uso sin conexión
La empresa de navegadores líder, Opera, dice que está añadiendo soporte experimental para 150 LLM locales (Modelo de Lenguaje Grande) variantes de aproximadamente 50 familias de modelos a su navegador Opera One en la corriente de desarrolladores.
Los LLM como GPT ( Generative Pre-trained Transformer ) modelos desarrollados por OpenAI, son sistemas avanzados de inteligencia artificial entrenados en grandes cantidades de datos textuales para comprender y generar texto similar al humano. Se utilizan para diversas tareas de procesamiento de lenguaje natural, incluyendo generación de texto, traducción y resumir.
Según Opera, esta es la primera vez que los LLM locales pueden ser fácilmente accesibles y gestionados desde un navegador importante a través de una función integrada. Los modelos de IA locales son un complemento al servicio de IA Aria en línea de Opera. Entre los LLM locales compatibles se encuentran:
“Introducir LLMs locales de esta manera permite a Opera comenzar a explorar formas de construir experiencias y conocimiento dentro del rápido espacio emergente de la IA local,” dijo Krystian Kolondra, EVP de Navegadores y Juegos en Opera.
Usar Modelos de Lenguaje Locales Grandes significa que los datos de los usuarios se mantienen localmente en su dispositivo, lo que les permite utilizar IA generativa sin la necesidad de enviar información a un servidor, dijo Opera.
Entre los problemas que surgen en el discurso sobre la inteligencia artificial se encuentra la privacidad de los datos, que ha llevado a tres importantes proyectos de IA descentralizada; Fetch.ai, SingularityNET (SNET) y Ocean Protocol a decidir fusionarse para crear un ecosistema de IA descentralizado.
“A partir de hoy, los usuarios de Opera One Developer están obteniendo la oportunidad de seleccionar el modelo que desean utilizar para procesar su entrada. Para probar los modelos, deben actualizar a la versión más nueva de Opera Developer y seguir varios pasos para activar la nueva función,” dijo Opera.
“Elegir un LLM local descargará entonces el mismo en su máquina. El LLM local, que típicamente requiere de 2 a 10 GB de espacio de almacenamiento local por variante, se utilizará en lugar de Aria, la IA nativa del navegador Opera, hasta que un usuario inicie un nuevo chat con la IA o vuelva a activar Aria.”
Síguenos en Twitter para las últimas publicaciones y actualizaciones