INTELLIGENCE ARTIFICIELLE | Le navigateur Opera intègre de grands modèles d'IA pour le téléchargement local et l'utilisation hors ligne

robot
Création du résumé en cours

La principale société de navigateurs, Opera, annonce qu’elle ajoute une prise en charge expérimentale de 150 variantes locales de grands modèles de langage (Large Language Model) provenant d’environ 50 familles de modèles à son navigateur Opera One dans le flux de développement.

Les LLM tels que les modèles GPT (Generative Pre-trained Transformer) développés par OpenAI, sont des systèmes d’intelligence artificielle avancés entraînés sur de grandes quantités de données textuelles pour comprendre et générer du texte semblable à celui des humains. Ils sont utilisés pour diverses tâches de traitement du langage naturel, y compris la génération de texte, la traduction et le résumé.

Selon Opera, c’est la première fois que les LLM locaux peuvent être facilement accessibles et gérés depuis un navigateur majeur via une fonctionnalité intégrée. Les modèles d’IA locaux complètent le service d’IA en ligne Aria d’Opera. Parmi les LLM locaux pris en charge, on trouve :

  • Llama de Meta
  • Vicuna
  • Gemma de Google
  • Mixtral de Mistral AI

« Introduire les LLM locaux de cette manière permet à Opera de commencer à explorer des façons de construire des expériences et des savoirs dans l’espace de l’IA locale en pleine émergence, » a déclaré Krystian Kolondra, EVP Navigateur et Jeux chez Opera.

Utiliser des grands modèles de langage locaux signifie que les données des utilisateurs sont conservées localement sur leur appareil, leur permettant d’utiliser une IA générative sans avoir besoin d’envoyer des informations à un serveur, a indiqué Opera.

Parmi les enjeux émergents dans le discours sur l’intelligence artificielle figure la question de la confidentialité des données, qui a conduit trois projets d’IA décentralisée de premier plan ; Fetch.ai, SingularityNET (SNET), et Ocean Protocol, à décider de fusionner pour créer un écosystème d’IA décentralisée.

« À partir d’aujourd’hui, les utilisateurs développeurs d’Opera One ont la possibilité de choisir le modèle avec lequel ils souhaitent traiter leurs entrées. Pour tester les modèles, ils doivent mettre à jour vers la dernière version d’Opera Developer et suivre plusieurs étapes pour activer la nouvelle fonctionnalité, » a indiqué Opera.

« Choisir un LLM local le téléchargera alors sur leur machine. Le LLM local, qui nécessite généralement entre 2 et 10 Go d’espace de stockage local par variante, sera utilisé à la place d’Aria, l’IA native du navigateur Opera, jusqu’à ce qu’un utilisateur commence une nouvelle conversation avec l’IA ou réactive Aria. »

Suivez-nous sur Twitter pour les dernières publications et mises à jour

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler