Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
L'université de Princeton, avec sa tradition de 133 ans sans surveillance d'examen, a été bouleversée par l'IA, près de 30 % des étudiants avouant avoir triché.
11 mai 2026, le conseil académique de l’Université de Princeton a adopté une résolution pour rendre obligatoire la surveillance lors des examens en personne, avec seulement 1 vote contre, entrée en vigueur officielle le 1er juillet 2026.
Cela a mis fin à la tradition de l’honneur, en vigueur depuis 1893, qui interdisait explicitement la surveillance lors des examens, une tradition qui durait depuis 133 ans.
(Précédent : des étudiants de Columbia créent un outil d’entretien en ligne basé sur l’IA, trompant Amazon et quatre autres entreprises pour des stages ! Après avoir été suspendus, ils créent une startup « gagnant 170 000 dollars par mois »)
(Contexte supplémentaire : La naissance du mode d’apprentissage ChatGPT : crépuscule des tuteurs ou aube d’une ère éducative dorée ?)
En 1893, les étudiants de Princeton ont obtenu par une pétition ce qu’ils voulaient : lors des examens, personne ne les surveillerait plus. Ce contrat de confiance entre enseignants et étudiants a ensuite été inscrit dans le règlement, et a duré 133 ans.
Mais le 11 mai 2026, le conseil académique a mis fin à cet accord, avec seulement 1 vote contre. Ce n’était pas une détérioration soudaine du taux de triche qui a provoqué cela, mais un problème plus fondamental : après la généralisation des outils d’IA, le mécanisme traditionnel de « surveillance mutuelle entre étudiants », sur lequel reposait cette tradition, est devenu inefficace.
133 ans d’expérimentation autonome, avec une ordonnance de fin
Avant 1893, comme la plupart des universités américaines, Princeton avait des enseignants présents pour surveiller les examens. Après la pétition des étudiants, l’administration a basé sa décision sur le principe de « confiance mutuelle » entre enseignants et étudiants, en interdisant explicitement la surveillance dans le règlement, et en créant un comité d’honneur dirigé par les étudiants pour traiter les cas d’intégrité académique. Par la suite, les règlements « Règles et procédures pour les enseignants » et « Droits, règles et responsabilités » ont tous deux inscrit cette interdiction.
Cette expérience autonome de 133 ans a pris fin en mai de cette année. La proposition a été examinée en trois étapes : le comité des examens et de l’inscription, le comité consultatif sur la politique enseignante, et l’assemblée générale des enseignants, toutes ayant approuvé à une majorité écrasante, avec seulement 1 vote contre.
Le nouveau système entrera en vigueur le 1er juillet 2026 : lors des examens en personne, l’enseignant ou le surveillant doit être présent « en tant que témoin de ce qui se passe sur place », sans intervenir activement ; en cas de comportement suspect, l’affaire sera transmise au comité d’honneur dirigé par les étudiants. La clause de l’Honor Code elle-même ne change pas, seule la mise en œuvre de ses deux règlements d’application est modifiée.
L’IA ne modifie pas la volonté de tricher, mais la « observabilité » de la triche
Pourquoi maintenant précisément ?
Le dossier de la proposition indique que la facilité d’accès aux outils d’IA sur de petits appareils personnels « a déjà modifié la façon dont les comportements inappropriés lors des examens apparaissent en apparence ». En termes simples : avant, tricher, c’était au moins visible par les autres étudiants à côté ; maintenant, un téléphone posé sur la table, avec une IA qui génère instantanément des réponses, personne ne peut distinguer si l’étudiant vérifie l’heure ou copie la réponse.
De plus, une enquête auprès de 500 diplômés de 2025 révèle des chiffres inquiétants : 29,9 % des étudiants interrogés admettent avoir triché pendant leurs études ; 44,6 % savent qu’un camarade a triché mais choisissent de se taire ; seulement 0,4 % ont déjà dénoncé un pair.
Cela signifie que sur 100 personnes informées, moins d’une choisit de faire respecter le règlement.
Le dossier de la proposition explique aussi ce phénomène : la réticence des étudiants à dénoncer leurs pairs est en partie due à la crainte d’être victimes de « recherche en ligne ou de harcèlement dans leur cercle d’amis ». L’apparition de l’IA rend encore plus difficile le fonctionnement de ce mécanisme de dénonciation déjà fragile.