INTELIGÊNCIA ARTIFICIAL | O navegador Opera integra grandes modelos de IA para download local e uso offline

robot
Geração de resumo em curso

Empresa líder em navegadores, Opera, afirma que está adicionando suporte experimental para 150 variantes locais de LLM (Modelo de Linguagem de Grande Escala) de aproximadamente 50 famílias de modelos ao seu navegador Opera One na versão para desenvolvedores.

Modelos de LLM, como GPT (Transformador Generativo Pré-treinado) desenvolvidos pela OpenAI, são sistemas avançados de inteligência artificial treinados com grandes quantidades de dados de texto para compreender e gerar textos semelhantes aos humanos. Eles são utilizados em várias tarefas de processamento de linguagem natural, incluindo geração de texto, tradução e sumarização.

De acordo com a Opera, esta é a primeira vez que LLMs locais podem ser facilmente acessados e geridos a partir de um navegador importante através de uma funcionalidade integrada. Os modelos de IA locais são uma adição complementar ao serviço online Aria AI da Opera. Entre os LLMs locais suportados estão:

  • Llama da Meta
  • Vicuna
  • Gemma do Google
  • Mixtral da Mistral AI

“Introduzir LLMs locais desta forma permite que a Opera comece a explorar formas de construir experiências e conhecimentos dentro do espaço de IA local, que está a emergir rapidamente,” disse Krystian Kolondra, EVP de Navegadores e Jogos na Opera.

Utilizar Modelos de Linguagem de Grande Escala locais significa que os dados dos utilizadores são mantidos localmente no seu dispositivo, permitindo-lhes usar IA generativa sem a necessidade de enviar informações para um servidor, afirmou a Opera.

Entre as questões emergentes no discurso sobre inteligência artificial está a privacidade de dados, que levou três projetos de IA descentralizada líderes a decidir fundir-se para criar um ecossistema de IA descentralizado: Fetch.ai, SingularityNET (SNET) e Ocean Protocol.

“Até hoje, os utilizadores do Opera One Developer têm a oportunidade de selecionar o modelo com o qual querem processar as suas entradas. Para testar os modelos, precisam de atualizar para a versão mais recente do Opera Developer e seguir vários passos para ativar a nova funcionalidade,” afirmou a Opera.

“Escolher um LLM local fará com que ele seja descarregado para a sua máquina. O LLM local, que normalmente requer entre 2 a 10 GB de espaço de armazenamento local por variante, será então utilizado em vez do Aria, IA nativa do navegador Opera, até que o utilizador inicie um novo chat com a IA ou volte a ativar o Aria.”

Siga-nos no Twitter para as últimas publicações e atualizações

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar