Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
La rédaction manuelle d'une thèse est jugée par l'IA AIGC comme étant humaine et ne passe pas la vérification AI. Il est absurde que l'humanité doive prouver par des défauts qu'elle n'est pas une IA.
【#手写论文被判AIGC真人通不过AI审核# #人类靠瑕疵证明不是AI太荒诞#】La saison des diplômés arrive. Les étudiants diplômants s’arrachent les cheveux pour leurs mémoires. Sur les réseaux sociaux, les commentaires du type « un mémoire manuscrit jugé comme AIGC » affluent. Le plus absurde, c’est que les erreurs de l’IA ne se limitent pas aux textes : certaines personnes utilisent des éléments réels pour créer des avatars numériques, mais échouent à cause de leur apparence ne répondant pas aux critères « d’examen du réel ». Et les règles de l’évaluation par l’IA restent une boîte noire tout au long du processus, sans critères clairs, forçant les humains à se « rendre médiocres » intentionnellement, en prouvant qu’ils ne sont pas de l’IA grâce à des imperfections. Les dérives de la détection des mémoires sont particulièrement marquées. Le diplômé Xiao Da révèle que l’école impose un taux d’AIGC ne dépassant pas 30 % : lors du premier test de son mémoire manuscrit, le taux atteint pourtant 60 % ; au final, il a dû dépenser quelques centaines de yuans pour passer par le service de la plateforme afin de le faire baisser jusqu’à 16 %. Xiao Xiong a essayé plusieurs outils gratuits de détection, mais les résultats étaient tous trop élevés : entre camarades, sur les sites gratuits on obtient 30 % à 40 %, tandis que le système interne de l’école ne sort qu’un peu plus de 1 %, avec de grosses disparités de données selon les plateformes. Le journaliste, après essai également, constate la même chose : avant la diffusion des grands modèles d’IA, des articles originaux, pourtant, sont décelés comme présentant une suspicion d’AIGC de 18,12 %, et certaines sections dépassent les 60 %.
L’examen du « réel » joue aussi les tours. La jeune fille Xiao Lin, qui utilise une vidéo enregistrée par elle-même pour créer un avatar numérique, sans aucun traitement post-IA, est pourtant à répétition jugée « non réelle » et échoue à l’examen. En réalité, pour se prémunir contre la fabrication excessive de vidéos trompeuses, l’algorithme de l’IA est trop sensible : il confond des visages raffinés et des personnes réelles répondant aux standards de présentation, avec des avatars numériques synthétisés par IA. Les internautes font écho en masse : le fait d’être parfait devient une « faute originelle ». À la différence d’un contrôle clair de la similarité des mémoires, la détection d’AIGC est un fonctionnement totalement en boîte noire : la plateforme ne publie jamais la logique de décision. Pour passer, les diplômés sont contraints de résumer des « techniques pour réduire la reformulation » : entasser des mots vides, remplacer les structures de phrases, brouiller la logique, et même réécrire des phrases fluides jusqu’à les rendre fragmentées et incohérentes. Quant aux soi-disant « services de baisse d’AIGC » de la plateforme, la réalité reste la modification du texte par l’IA : non seulement cela rapporte des profits via des frais, mais cela rend l’expression du mémoire confuse. Xiao Xiong dit en clair que même les remerciements manuscrits sont marqués comme AIGC : après modification, les phrases ne sont plus du tout cohérentes, uniquement pour satisfaire la détection.
L’essence de cette absurdité, c’est le « test de Turing inversé » que l’IA lance à l’humanité. Des experts techniques expliquent que les outils de détection actuels ne reconnaissent pas les « caractéristiques de l’humain », mais capturent des « caractéristiques non-machines » par analyse statistique. L’IA entraîne sur des données de qualité et standard : un mémoire manuscrit avec une écriture fluide et une logique rigoureuse, et un réel avec un visage bien proportionné et une expression naturelle, au contraire, sont jugés comme générés par IA, car ils manquent du « degré de confusion » et des « imperfections aléatoires » que l’on retrouve couramment chez les humains. Le test de Turing traditionnel consistait à vérifier si l’IA ressemble à un humain ; aujourd’hui, il s’est complètement inversé : les humains n’ont plus besoin de vérifier l’IA, mais doivent au contraire prouver qu’ils sont des humains. Le jugement par IA pratique la « présomption de culpabilité » : une fois étiqueté suspect d’AIGC, l’humain doit prouver son innocence. Quand l’écriture est trop bonne et le visage trop standard, on perd « son billet d’entrée d’humain » devant l’algorithme ; cela oblige tout le monde à écrire de manière volontairement mauvaise, et à sembler volontairement grossier, en échangeant l’imperfection contre l’approbation de l’IA. Quand l’excellence devient une raison de fausse accusation, et que les humains doivent se définir par leurs imperfections, la détection d’AIGC est depuis longtemps sortie de son intention initiale. Une application technique brutale et des règles opaques ne font pas seulement les dégâts chez les diplômés : elles reflètent aussi le profond paradoxe de l’ère de l’IA. Une technologie censée servir l’humain, au lieu de cela, aliène l’expression et la perception de l’identité humaine. Ce n’est pas seulement un problème temporaire de la saison des diplômés : c’est aussi une crise humaniste que toute la société doit affronter et reconnaître d’urgence face à la vague d’IA. (journaliste Song Shifeng, Zhang Bingjing)
Un flot d’informations massives et une interprétation précise, le tout dans l’application Sina Finance