Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
VS Code vous permet désormais d'utiliser des modèles d'IA locaux via Ollama
Headline
VS Code ajoute le support d’Ollama, permettant aux développeurs de choisir des modèles d’IA locaux ou cloud dans Copilot
Summary
Microsoft a ajouté le support d’Ollama directement dans VS Code via GitHub Copilot. Ollama est un outil open-source qui exécute de grands modèles de langage sur votre propre machine ou un serveur que vous contrôlez. Vous pouvez désormais choisir n’importe quel modèle hébergé par Ollama à partir du sélecteur de modèles de Copilot et l’utiliser pour l’assistance au code. Cela permet aux développeurs de travailler avec l’IA sans envoyer de code vers des services cloud externes. Vous pouvez exécuter des modèles comme Llama3 ou DeepSeek hors ligne, obtenir des réponses plus rapides puisque tout fonctionne localement, et éviter les coûts des API cloud.
Analysis
Cela connecte GitHub Copilot—qui utilise normalement GPT ou Claude via le cloud de Microsoft—à tous les modèles open-source que vous souhaitez exécuter vous-même. Pour les développeurs qui ne peuvent ou ne veulent pas envoyer de code propriétaire vers des serveurs externes, c’est un changement significatif.
Le timing a du sens. Le matériel grand public est devenu suffisamment performant pour exécuter des modèles utiles localement, et il y a une contingent de développeurs croissant qui préfèrent des outils open-source qu’ils peuvent inspecter et modifier. En soutenant Ollama, Microsoft garde ces utilisateurs dans VS Code plutôt que de les pousser vers des alternatives.
Il y a aussi un angle commercial évident : les entreprises préoccupées par les données quittant leur réseau ont maintenant moins de raisons d’éviter complètement Copilot. Elles peuvent commencer avec des modèles locaux et ajouter des options cloud plus tard pour des tâches nécessitant plus de puissance de calcul.
Certains utilisateurs précoces ont signalé des problèmes de configuration—rien de majeur, mais suffisamment de friction pour ralentir l’adoption initiale. L’intégration fonctionne une fois configurée, mais l’intégration pourrait être plus fluide.
L’effet plus large est que le développement de modèles open-source reçoit un coup de pouce. Lorsqu’un outil utilisé par des millions de développeurs peut facilement se connecter à des modèles construits par la communauté, plus de gens vont réellement les essayer. C’est bénéfique pour l’écosystème des modèles open-source, peu importe ce que vous pensez des motivations de Microsoft.
Impact Assessment