VS Code vous permet désormais d'utiliser des modèles d'IA locaux via Ollama

robot
Création du résumé en cours

Headline

VS Code ajoute le support d’Ollama, permettant aux développeurs de choisir des modèles d’IA locaux ou cloud dans Copilot

Summary

Microsoft a ajouté le support d’Ollama directement dans VS Code via GitHub Copilot. Ollama est un outil open-source qui exécute de grands modèles de langage sur votre propre machine ou un serveur que vous contrôlez. Vous pouvez désormais choisir n’importe quel modèle hébergé par Ollama à partir du sélecteur de modèles de Copilot et l’utiliser pour l’assistance au code. Cela permet aux développeurs de travailler avec l’IA sans envoyer de code vers des services cloud externes. Vous pouvez exécuter des modèles comme Llama3 ou DeepSeek hors ligne, obtenir des réponses plus rapides puisque tout fonctionne localement, et éviter les coûts des API cloud.

Analysis

Cela connecte GitHub Copilot—qui utilise normalement GPT ou Claude via le cloud de Microsoft—à tous les modèles open-source que vous souhaitez exécuter vous-même. Pour les développeurs qui ne peuvent ou ne veulent pas envoyer de code propriétaire vers des serveurs externes, c’est un changement significatif.

Le timing a du sens. Le matériel grand public est devenu suffisamment performant pour exécuter des modèles utiles localement, et il y a une contingent de développeurs croissant qui préfèrent des outils open-source qu’ils peuvent inspecter et modifier. En soutenant Ollama, Microsoft garde ces utilisateurs dans VS Code plutôt que de les pousser vers des alternatives.

Il y a aussi un angle commercial évident : les entreprises préoccupées par les données quittant leur réseau ont maintenant moins de raisons d’éviter complètement Copilot. Elles peuvent commencer avec des modèles locaux et ajouter des options cloud plus tard pour des tâches nécessitant plus de puissance de calcul.

Certains utilisateurs précoces ont signalé des problèmes de configuration—rien de majeur, mais suffisamment de friction pour ralentir l’adoption initiale. L’intégration fonctionne une fois configurée, mais l’intégration pourrait être plus fluide.

L’effet plus large est que le développement de modèles open-source reçoit un coup de pouce. Lorsqu’un outil utilisé par des millions de développeurs peut facilement se connecter à des modèles construits par la communauté, plus de gens vont réellement les essayer. C’est bénéfique pour l’écosystème des modèles open-source, peu importe ce que vous pensez des motivations de Microsoft.

Impact Assessment

  • Significance : Élevée
  • Categories : Outils de développement, Open Source, Lancement de produit
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Hot Gate Fun

    Afficher plus
  • MC:$2.25KDétenteurs:1
    0.00%
  • MC:$2.26KDétenteurs:1
    0.00%
  • MC:$2.26KDétenteurs:1
    0.00%
  • MC:$2.26KDétenteurs:1
    0.00%
  • MC:$2.26KDétenteurs:1
    0.00%
  • Épingler