INTELIGENCIA ARTIFICIAL | Opera Browser integra los principales modelos de IA para descarga local y uso sin conexión

robot
Generación de resúmenes en curso

La principal empresa de navegadores, Opera, anuncia que está añadiendo soporte experimental para 150 variantes locales de LLM (Modelo de Lenguaje Grande) de aproximadamente 50 familias de modelos a su navegador Opera One en la versión para desarrolladores.

Los LLM, como los modelos GPT (Transformador Generativo Preentrenado) desarrollados por OpenAI, son sistemas avanzados de inteligencia artificial entrenados con grandes cantidades de datos de texto para entender y generar texto similar al humano. Se utilizan para diversas tareas de procesamiento de lenguaje natural, incluyendo generación de texto, traducción y resumen.

Según Opera, esta es la primera vez que los LLM locales pueden accederse y gestionarse fácilmente desde un navegador importante mediante una función integrada. Los modelos de IA locales son una adición complementaria al servicio de IA en línea Aria de Opera. Entre los LLM locales soportados se encuentran:

  • Llama de Meta
  • Vicuna
  • Gemma de Google
  • Mixtral de Mistral AI

“Introducir LLM locales de esta manera permite a Opera comenzar a explorar formas de construir experiencias y conocimientos dentro del espacio de IA local, que está emergiendo rápidamente,” dijo Krystian Kolondra, EVP de Navegadores y Juegos en Opera.

Utilizar Modelos de Lenguaje Grande Locales significa que los datos de los usuarios se mantienen localmente en su dispositivo, permitiéndoles usar IA generativa sin necesidad de enviar información a un servidor, afirmó Opera.

Entre los problemas que surgen en el discurso sobre inteligencia artificial se encuentra la privacidad de los datos, que ha llevado a tres proyectos de IA descentralizada líderes; Fetch.ai, SingularityNET (SNET) y Ocean Protocol, a decidir fusionarse para crear un ecosistema de IA descentralizado.

“A partir de hoy, los usuarios de Opera One Developer tienen la oportunidad de seleccionar el modelo con el que desean procesar su entrada. Para probar los modelos, deben actualizar a la versión más reciente de Opera Developer y seguir varios pasos para activar la nueva función,” dijo Opera.

“Elegir un LLM local lo descargará en su máquina. El LLM local, que normalmente requiere entre 2 y 10 GB de espacio de almacenamiento local por variante, se usará en lugar de Aria, la IA nativa del navegador de Opera, hasta que un usuario inicie un nuevo chat con la IA o vuelva a activar Aria.”

Síguenos en Twitter para las últimas publicaciones y actualizaciones.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado