Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Yann LeCun dit qu'il a trollé OpenAI au sujet de la rétention de GPT-2
Titre
Yann LeCun affirme qu’il a trollé OpenAI à propos du non-dévoilement de GPT-2
Résumé
Yann LeCun, directeur scientifique de l’IA chez Meta, a récemment admis sur Twitter qu’il s’était moqué d’OpenAI en 2019, lorsqu’ils ont initialement refusé de publier le modèle complet de GPT-2. OpenAI avait fait valoir que le modèle était trop dangereux — il pouvait générer de fausses informations convaincantes —, ils l’ont donc publié par étapes : en commençant par une version plus petite en février 2019, puis en publiant finalement le modèle complet de 1,5 milliard de paramètres en novembre, après que des partenaires eurent signalé un usage abusif réellement minime. Le tweet de LeCun rappelle que la communauté IA débat depuis des années entre ouverture et prudence, et que ces arguments n’ont pas disparu.
Analyse
Les inquiétudes d’OpenAI concernant GPT-2 n’étaient pas sans fondement. À l’époque, des études ont montré que les gens estimaient son texte synthétique crédible environ 72% du temps, et que la détection était réellement difficile. Leur approche de publication progressive est devenue une sorte de modèle pour la manière dont les laboratoires gèrent des modèles puissants. LeCun s’est longtemps montré sceptique face à ce qu’il considère comme des préoccupations de sécurité exagérées, préférant une recherche ouverte qui permet à chacun de construire des contre-mesures. Son tweet de 2024, qui revient sur le cadrage du « trop dangereux », s’inscrit dans cette logique.
Le timing compte. Le sujet est réapparu en 2026 alors que les débats sur la réglementation de l’IA s’intensifient. L’épisode de GPT-2 continue d’être cité parce qu’il cristallise une tension réelle : restreindre l’accès empêche-t-il vraiment les dommages, ou fait-il simplement gagner du temps aux personnes qui cherchent à se défendre contre les usages malveillants ? Il n’y a pas de réponse claire, ce qui explique probablement pourquoi on en parle encore sept ans plus tard.
Je n’ai pas pu retrouver les tweets de trolling précis de LeCun en 2019 dans les recherches, mais sa position générale est bien documentée à travers les propres publications d’OpenAI, le MIT Technology Review et The Verge.
Évaluation de l’impact