La société de navigateurs leader, Opera, déclare qu’elle ajoute un support expérimental pour 150 LLM locaux (Large Language Model) variants provenant d’environ 50 familles de modèles à son navigateur Opera One dans le flux de développement.
Les LLM tels que GPT (Modèles de Transformateur Génératif Pré-entraîné ) développés par OpenAI, sont des systèmes d’intelligence artificielle avancés formés sur de grandes quantités de données textuelles pour comprendre et générer un texte semblable à celui des humains. Ils sont utilisés pour diverses tâches de traitement du langage naturel, y compris la génération de texte, la traduction et le résumé.
Selon Opera, c’est la première fois que les LLM locaux peuvent être facilement accessibles et gérés depuis un navigateur majeur grâce à une fonctionnalité intégrée. Les modèles d’IA locaux sont un ajout complémentaire au service Aria AI en ligne d’Opera. Parmi les LLM locaux pris en charge, on trouve :
* Llama de Meta
Vicuna
Gemma de Google
Mixtral de Mistral AI
« Introduire des LLM locaux de cette manière permet à Opera de commencer à explorer des moyens de créer des expériences et un savoir-faire dans le domaine de l’IA locale en pleine émergence », a déclaré Krystian Kolondra, EVP Navigateurs et Jeux chez Opera.
Utiliser des modèles de langage localisés signifie que les données des utilisateurs sont conservées localement sur leur appareil, leur permettant d’utiliser l’IA générative sans avoir besoin d’envoyer des informations à un serveur, a déclaré Opera.
Parmi les problèmes émergents dans le discours sur l’intelligence artificielle, la question de la confidentialité des données a conduit trois projets d’IA décentralisés de premier plan ; Fetch.ai, SingularityNET (SNET) et Ocean Protocol à décider de fusionner pour créer un écosystème d’IA décentralisé.
« À partir d’aujourd’hui, les utilisateurs d’Opera One Developer ont la possibilité de sélectionner le modèle qu’ils souhaitent utiliser pour traiter leur entrée. Pour tester les modèles, ils doivent mettre à jour vers la dernière version d’Opera Developer et suivre plusieurs étapes pour activer la nouvelle fonctionnalité », a déclaré Opera.
“Choisir un LLM local le téléchargera ensuite sur leur machine. Le LLM local, qui nécessite généralement de 2 à 10 Go d’espace de stockage local par variante, sera ensuite utilisé à la place d’Aria, l’IA native du navigateur Opera, jusqu’à ce qu’un utilisateur commence une nouvelle conversation avec l’IA ou réactive Aria.”
Suivez-nous sur Twitter pour les derniers articles et mises à jour
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
INTELLIGENCE ARTIFICIELLE | Le navigateur Opera intègre des modèles d'IA majeurs pour un téléchargement local et une utilisation hors ligne
La société de navigateurs leader, Opera, déclare qu’elle ajoute un support expérimental pour 150 LLM locaux (Large Language Model) variants provenant d’environ 50 familles de modèles à son navigateur Opera One dans le flux de développement.
Les LLM tels que GPT (Modèles de Transformateur Génératif Pré-entraîné ) développés par OpenAI, sont des systèmes d’intelligence artificielle avancés formés sur de grandes quantités de données textuelles pour comprendre et générer un texte semblable à celui des humains. Ils sont utilisés pour diverses tâches de traitement du langage naturel, y compris la génération de texte, la traduction et le résumé.
Selon Opera, c’est la première fois que les LLM locaux peuvent être facilement accessibles et gérés depuis un navigateur majeur grâce à une fonctionnalité intégrée. Les modèles d’IA locaux sont un ajout complémentaire au service Aria AI en ligne d’Opera. Parmi les LLM locaux pris en charge, on trouve :
« Introduire des LLM locaux de cette manière permet à Opera de commencer à explorer des moyens de créer des expériences et un savoir-faire dans le domaine de l’IA locale en pleine émergence », a déclaré Krystian Kolondra, EVP Navigateurs et Jeux chez Opera.
Utiliser des modèles de langage localisés signifie que les données des utilisateurs sont conservées localement sur leur appareil, leur permettant d’utiliser l’IA générative sans avoir besoin d’envoyer des informations à un serveur, a déclaré Opera.
Parmi les problèmes émergents dans le discours sur l’intelligence artificielle, la question de la confidentialité des données a conduit trois projets d’IA décentralisés de premier plan ; Fetch.ai, SingularityNET (SNET) et Ocean Protocol à décider de fusionner pour créer un écosystème d’IA décentralisé.
« À partir d’aujourd’hui, les utilisateurs d’Opera One Developer ont la possibilité de sélectionner le modèle qu’ils souhaitent utiliser pour traiter leur entrée. Pour tester les modèles, ils doivent mettre à jour vers la dernière version d’Opera Developer et suivre plusieurs étapes pour activer la nouvelle fonctionnalité », a déclaré Opera.
“Choisir un LLM local le téléchargera ensuite sur leur machine. Le LLM local, qui nécessite généralement de 2 à 10 Go d’espace de stockage local par variante, sera ensuite utilisé à la place d’Aria, l’IA native du navigateur Opera, jusqu’à ce qu’un utilisateur commence une nouvelle conversation avec l’IA ou réactive Aria.”
Suivez-nous sur Twitter pour les derniers articles et mises à jour