Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
La percée de TurboQuant de Google secoue les actions des fabricants de puces mémoire
Les actions des fabricants de matériel mémoire ont chuté cette semaine suite à l’annonce d’Alphabet $GOOGL -1,40 % d’une technologie conçue pour réduire drastiquement les besoins en mémoire de travail pour les modèles d’intelligence artificielle.
Les marchés sud-coréens ont vu Samsung perdre près de 5 %, et SK Hynix a chuté de 6 %. Kioxia, un fabricant de stockage flash basé au Japon, a connu une baisse de près de 6 %. La séance de mercredi aux États-Unis a entraîné une baisse des actions de Sandisk et Micron $MU -4,45 %.
Contenu associé
SpaceX vise une valorisation de 1,75 trillion de dollars lors d’une introduction en bourse historique
Le PDG de BlackRock avertit qu’un prix du pétrole à 150 dollars pourrait déclencher une récession mondiale
Google Research a publié la technologie le 24 mars. L’algorithme fonctionne sans dégrader la précision du modèle, en concentrant sa compression sur le cache clé-valeur — la zone responsable de conserver les calculs historiques pour éviter les traitements redondants. Selon les chercheurs, la performance sur des tâches telles que la génération de code, la réponse à des questions et la synthèse de texte est restée entièrement intacte malgré la réduction du stockage du cache d’au moins un facteur six.
Des comparaisons ont rapidement été faites entre cette avancée et les secousses dans l’industrie provoquées l’année dernière par DeepSeek, une entreprise d’IA basée en Chine. Sur la plateforme X $TWTR 0,00 %, le responsable de Cloudflare, Matthew Prince, a comparé le nouvel algorithme à « DeepSeek de Google ». Il a ajouté que l’industrie a encore un potentiel énorme pour améliorer « la vitesse, l’utilisation de la mémoire, la consommation d’énergie et l’utilisation multi-locataire » en matière d’inférence en intelligence artificielle.
Les analystes ont mis en garde contre une lecture trop optimiste de la vente massive. Interrogé par CNBC, le chercheur de SemiAnalysis, Ray Wang, a souligné que la réduction des contraintes techniques ouvre souvent la voie à des modèles plus avancés qui, en fin de compte, nécessitent un support matériel accru. « Quand le modèle devient plus puissant, il faut du meilleur matériel pour le supporter », a-t-il déclaré.
La récente baisse des cours est probablement due à des actionnaires qui liquident après une période de croissance soutenue dans un marché cyclique, a expliqué à CNBC Ben Barringer, responsable de la recherche technologique chez Quilter Cheviot. TurboQuant « a accentué la pression, mais il s’agit d’une évolution, pas d’une révolution », a-t-il ajouté. « Cela ne modifie pas la demande à long terme dans l’industrie. »
L’algorithme a ses limites. Une analyse de TechCrunch a noté que la technologie n’offre aucun soulagement pour la RAM massive nécessaire à la formation des modèles d’IA, puisqu’elle compresse strictement les données lors de la phase d’inférence. Actuellement, l’outil de compression n’est pas encore largement déployé et reste une avancée purement expérimentale.
Une analyse publiée par Forbes a théorisé que la réduction des barrières matérielles pourrait en réalité accélérer les projets d’intelligence artificielle localisés, un changement qui pourrait paradoxalement augmenter la consommation totale de puces à long terme.
Les détails de l’algorithme seront présentés lors de l’événement ICLR 2026 prévu en avril.