Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Red Hat, dans le contexte de la diffusion de l'« IA proxy », met en avant la confiance et les normes de raisonnement… parie sur vLLM
Alors que les entreprises intègrent l’“IA agent” dans leur travail réel, l’attention se déplace de la performance du modèle vers la “confiance”. L’analyse indique qu’étant donné que l’IA peut écrire du code, accéder à des systèmes et même effectuer des opérations substantielles, garantir la sécurité, la gouvernance et la stabilité est devenu un enjeu central.
Le directeur technique (CTO) de Red Hat et vice-président senior de l’ingénierie mondiale, Chris Wright, a déclaré lors du sommet Red Hat 2026 : “Lorsque nous voulons que l’agent agisse dans des affaires réelles, faire confiance à cette IA devient crucial.” Il a particulièrement souligné que l’attribution du moindre privilège, l’environnement sandbox et un système de gestion à grande échelle des agents sont des conditions nécessaires.
Red Hat mise sur la construction d’une “couche de raisonnement standard” centrée sur vLLM
En tant que solution pour réduire la complexité de l’IA d’entreprise, Red Hat propose une “couche de raisonnement standardisée”. L’idée est que, tout comme Linux et Kubernetes sont devenus des bases communes pour l’industrie, l’open source moteur de raisonnement AI vLLM doit également jouer ce rôle.
À cette fin, Red Hat a acquis Neural Magic pour obtenir des capacités d’optimisation des performances de quantification et de raisonnement. Chris Wright explique : “Les fournisseurs de modèles ont même commencé à développer pour vLLM avant la sortie de modèles publics. Cette standardisation améliore l’efficacité de l’ensemble de l’écosystème et constitue également la base pour améliorer l’efficacité opérationnelle interne des entreprises.”
Du point de vue des entreprises, cela revêt une importance cruciale car cela réduit l’incertitude dans le choix de l’infrastructure. En clarifiant sur quelle base faire fonctionner le modèle, on peut réduire les coûts de développement, de déploiement et de maintenance. En fin de compte, la confiance dans l’IA open source ne concerne pas seulement l’éthique technologique, mais aussi la “prévisibilité” dans l’environnement opérationnel réel.
Le coût de l’inférence, désormais, devient un indicateur clé pour le conseil d’administration
Avec la popularisation de l’IA, le “coût d’inférence” devient également un indicateur opérationnel important. En raison de l’augmentation continue des coûts en électricité et en semi-conducteurs nécessaires pour faire fonctionner en continu de grands modèles de langage, les entreprises passent d’une utilisation du modèle le plus puissant à la recherche de la combinaison la plus efficace pour différents cas d’usage.
Chris Wright indique qu’il faut choisir le matériel et le modèle offrant le meilleur rapport qualité-prix et efficacité énergétique en fonction de la tâche spécifique. En d’autres termes, utiliser une seule IA pour toutes les tâches peut être inefficace. Les tâches simples pourraient mieux convenir à de petits modèles, tandis que les jugements complexes nécessitent de grands modèles.
Cette tendance augmente la probabilité que l’infrastructure IA évolue vers une “architecture hétérogène” plutôt qu’une “architecture unique”. Car les environnements edge, tels que le cloud, le déploiement local et les sites industriels, seront utilisés en mélange, et le matériel pourrait passer d’un GPU unique à une combinaison de plusieurs. Red Hat espère que sa stratégie de plateforme maintiendra sa valeur à ce stade.
La compétition pour une “IA fiable” se propage aux entreprises de plateforme
Ce discours indique que la compétition sur le marché de l’IA ne dépend plus uniquement de la performance du modèle. Ce que les clients d’entreprise recherchent réellement, ce n’est pas un modèle plus intelligent, mais un environnement d’exécution fiable et contrôlable.
Particulièrement dans un environnement où des centaines ou milliers d’agents IA fonctionnent simultanément, des facteurs tels que la stratégie de sécurité, la gestion des permissions et l’auditabilité deviennent indispensables. C’est aussi la raison pour laquelle l’industrie, comme à l’époque de Linux et Kubernetes, cherche à établir des standards communs.
Finalement, la confiance dans l’IA open source pourrait devenir le critère clé déterminant la vitesse de diffusion de l’IA en entreprise à l’avenir. Avec la mise en place de la couche de raisonnement standardisée et de la stratégie d’infrastructure hétérogène, les entreprises pourront plus rapidement faire passer l’IA de la phase expérimentale à la production réelle.
TP AI Notes : Cet article est un résumé basé sur le modèle linguistique de TokenPost.ai. Le contenu principal peut être omis ou ne pas correspondre entièrement à la réalité.