A empresa líder em navegadores, Opera, afirma que está adicionando suporte experimental para 150 LLM locais (Large Language Model) variantes de aproximadamente 50 famílias de modelos ao seu navegador Opera One na versão de desenvolvedor.
Os LLMs, como o GPT (Generative Pre-trained Transformer), modelos desenvolvidos pela OpenAI, são sistemas avançados de inteligência artificial treinados em grandes quantidades de dados textuais para entender e gerar texto semelhante ao humano. Eles são utilizados para várias tarefas de processamento de linguagem natural, incluindo geração de texto, tradução e sumarização.
De acordo com a Opera, esta é a primeira vez que os LLMs locais podem ser facilmente acessados e geridos a partir de um navegador importante através de uma funcionalidade integrada. Os modelos de IA locais são uma adição complementar ao serviço de IA Aria online da Opera. Entre os LLMs locais suportados estão:
* Llama da Meta
Vicuna
Gemma do Google
Mixtral da Mistral AI
“A introdução de LLMs locais desta forma permite que a Opera comece a explorar maneiras de construir experiências e know-how dentro do espaço de IA local em rápida emergência,” disse Krystian Kolondra, EVP Browsers e Gaming da Opera.
Usar Modelos de Linguagem Grande Locais significa que os dados dos usuários são mantidos localmente no seu dispositivo, permitindo-lhes usar IA generativa sem a necessidade de enviar informações para um servidor, disse a Opera.
Entre as questões emergentes no discurso sobre inteligência artificial estão as preocupações com a privacidade dos dados, que levaram três projetos de IA descentralizada líderes; Fetch.ai, SingularityNET (SNET), e Ocean Protocol a decidir fundir-se para criar um ecossistema de IA descentralizada.
“A partir de hoje, os utilizadores do Opera One Developer estão a ter a oportunidade de selecionar o modelo que desejam utilizar para processar a sua entrada. Para testar os modelos, têm de atualizar para a versão mais recente do Opera Developer e seguir vários passos para ativar a nova funcionalidade,” disse o Opera.
"Escolher um LLM local fará com que ele seja descarregado para a máquina do utilizador. O LLM local, que tipicamente requer entre 2 a 10 GB de espaço de armazenamento local por variante, será então utilizado em vez de Aria, a IA nativa do navegador Opera, até que o utilizador inicie um novo chat com a IA ou reative o Aria."
Siga-nos no Twitter para as últimas publicações e atualizações
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
INTELIGÊNCIA ARTIFICIAL | O Navegador Opera Integra Principais Modelos de IA para Download Local e Uso Offline
A empresa líder em navegadores, Opera, afirma que está adicionando suporte experimental para 150 LLM locais (Large Language Model) variantes de aproximadamente 50 famílias de modelos ao seu navegador Opera One na versão de desenvolvedor.
Os LLMs, como o GPT (Generative Pre-trained Transformer), modelos desenvolvidos pela OpenAI, são sistemas avançados de inteligência artificial treinados em grandes quantidades de dados textuais para entender e gerar texto semelhante ao humano. Eles são utilizados para várias tarefas de processamento de linguagem natural, incluindo geração de texto, tradução e sumarização.
De acordo com a Opera, esta é a primeira vez que os LLMs locais podem ser facilmente acessados e geridos a partir de um navegador importante através de uma funcionalidade integrada. Os modelos de IA locais são uma adição complementar ao serviço de IA Aria online da Opera. Entre os LLMs locais suportados estão:
“A introdução de LLMs locais desta forma permite que a Opera comece a explorar maneiras de construir experiências e know-how dentro do espaço de IA local em rápida emergência,” disse Krystian Kolondra, EVP Browsers e Gaming da Opera.
Usar Modelos de Linguagem Grande Locais significa que os dados dos usuários são mantidos localmente no seu dispositivo, permitindo-lhes usar IA generativa sem a necessidade de enviar informações para um servidor, disse a Opera.
Entre as questões emergentes no discurso sobre inteligência artificial estão as preocupações com a privacidade dos dados, que levaram três projetos de IA descentralizada líderes; Fetch.ai, SingularityNET (SNET), e Ocean Protocol a decidir fundir-se para criar um ecossistema de IA descentralizada.
“A partir de hoje, os utilizadores do Opera One Developer estão a ter a oportunidade de selecionar o modelo que desejam utilizar para processar a sua entrada. Para testar os modelos, têm de atualizar para a versão mais recente do Opera Developer e seguir vários passos para ativar a nova funcionalidade,” disse o Opera.
"Escolher um LLM local fará com que ele seja descarregado para a máquina do utilizador. O LLM local, que tipicamente requer entre 2 a 10 GB de espaço de armazenamento local por variante, será então utilizado em vez de Aria, a IA nativa do navegador Opera, até que o utilizador inicie um novo chat com a IA ou reative o Aria."
Siga-nos no Twitter para as últimas publicações e atualizações