Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
OpenAI s'associe à Amazon sur un runtime d'agent IA avec état pour AWS Bedrock
Tony Kim
19 mars 2026 00:33
OpenAI et Amazon annoncent un environnement d’exécution à état partagé pour Amazon Bedrock, permettant des workflows d’agents IA multi-étapes persistants avec une gouvernance d’entreprise.
OpenAI et Amazon Web Services ont dévoilé une collaboration conjointe introduisant un nouvel environnement d’exécution à état partagé pour Amazon Bedrock, marquant une expansion significative de la portée d’OpenAI dans l’infrastructure AWS. Le partenariat, annoncé le 27 février 2026, offre des capacités d’orchestration persistante et de mémoire pour des agents IA exécutant des workflows complexes et multi-étapes.
Cette initiative place directement les modèles d’OpenAI dans les environnements cloud existants des clients AWS — un changement notable par rapport aux déploiements typiques basés sur des API nécessitant des couches d’orchestration externes.
Ce que fait réellement l’environnement d’exécution
La plupart des implémentations d’agents IA aujourd’hui fonctionnent sur des API sans état. Une requête, une réponse, peut-être un appel à un outil. Cela fonctionne bien pour les chatbots. Mais pour les workflows d’entreprise en production ? C’est une tout autre histoire.
Les processus métier réels comportent plusieurs étapes, nécessitent des chaînes d’approbation, dépendent des résultats de divers outils, et doivent disposer de pistes d’audit. Les équipes de développement doivent actuellement gérer toute cette infrastructure elles-mêmes — déterminer le stockage d’état, l’invocation d’outils, la gestion des erreurs, et la reprise sécurisée des tâches longues.
L’environnement d’exécution à état partagé gère cette orchestration de manière native. Les agents maintiennent un « contexte de travail » qui conserve la mémoire, l’état du workflow, les variables d’environnement et les limites de permission à travers les étapes d’exécution. Les équipes peuvent se concentrer sur la logique métier plutôt que sur la plomberie.
Cas d’usage en entreprise en ligne de mire
OpenAI cible explicitement plusieurs catégories de workflows : support client multi-systèmes, opérations de vente, automatisation interne IT, et processus financiers nécessitant des approbations et des audits. Ce sont des fonctions à forte valeur ajoutée où les agents IA ont eu du mal à dépasser le stade de la preuve de concept.
Le déploiement natif sur AWS répond à une préoccupation persistante en entreprise — la gouvernance. L’environnement d’exécution fonctionne dans le cadre des politiques de sécurité existantes d’AWS, s’intégrant aux outils et cadres de conformité établis, plutôt que d’exiger une infrastructure séparée.
Timing et contexte concurrentiel
Cette annonce intervient dans un contexte de compétition accrue dans le domaine des agents IA pour entreprises. Quelques jours plus tôt, le 13 mars, Amazon Bedrock’s AgentCore Runtime a ajouté la prise en charge du protocole AG-UI. Le 15 mars, AWS a annoncé un partenariat avec Cerebras pour une inférence IA ultra-rapide sur Bedrock.
L’intégration directe d’OpenAI avec l’infrastructure AWS témoigne d’une reconnaissance pragmatique : les clients d’entreprise veulent pouvoir choisir leurs modèles dans leur environnement cloud existant — sans migration forcée vers de nouvelles plateformes.
L’environnement d’exécution à état partagé sera « disponible prochainement » selon OpenAI, et les entreprises intéressées sont invitées à contacter leurs équipes commerciales ou à soumettre des demandes via la page d’annonce. Aucun calendrier précis ni détails tarifaires n’ont été divulgués.
Pour les entreprises utilisant déjà Bedrock, l’ajout des modèles d’OpenAI avec gestion d’état native élimine une barrière technique importante. La question de leur déploiement en production dépendra des prix et de la capacité de l’environnement à gérer efficacement les cas limites dans des environnements d’entreprise réels.
Source de l’image : Shutterstock