Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
C’est la Journée internationale de la vérification des faits. Rafraîchissez vos compétences en identification de l’IA
Le contenu généré par l’IA est partout ces jours-ci, ce qui rend de plus en plus difficile de distinguer le vrai du faux, en particulier lorsqu’il s’agit de l’actualité à chaud.
Ne cherchez pas plus loin que la guerre en Iran. Depuis que les États-Unis et Israël ont attaqué l’Iran le 28 février, des chercheurs ont identifié un nombre sans précédent d’images fausses et trompeuses générées à l’aide d’une intelligence artificielle, et qui ont touché d’innombrables personnes à travers le monde. Parmi elles, des séquences truquées d’explosions qui n’ont jamais eu lieu, des images de soldats qui seraient prétendument capturés, ainsi que des vidéos de propagande créées par l’Iran qui dépeignent le président Donald Trump et d’autres personnes en miniatures anguleuses, façon LEGO.
Aujourd’hui, la 10e Journée internationale de la vérification des faits, offre une bonne occasion de se pencher sur ces défis en constante évolution.
La désinformation créée avec l’IA est partagée à une vitesse sans précédent depuis un nombre infini de sources. Dès le début de la guerre en Iran, des comptes de tous les camps impliqués dans le conflit ont fait la promotion de ce type de contenu.
L’Institute for Strategic Dialogue, qui suit la désinformation et l’extrémisme en ligne, a examiné des publications sur les réseaux sociaux au sujet de la guerre en Iran. Parmi leurs constats figurait un groupe de comptes X qui publient régulièrement du contenu généré par l’IA et qui, collectivement, ont obtenu plus d’un milliard de vues depuis le début du conflit. Cela a été fait par environ deux douzaines de comptes, dont beaucoup avaient la vérification par badge bleu.
Voici quelques conseils pour distinguer le contenu généré par l’IA de la réalité dans un monde en ligne où cela devient de plus en plus difficile.
24
24
24
24
Look for visual cues
Lorsque les images générées par l’IA ont commencé à se propager largement en ligne, il y avait souvent des indices évidents permettant de les identifier comme fabriquées. Peut-être qu’une personne avait trop peu — ou trop — de doigts, ou que sa voix n’était pas synchronisée avec la bouche. Le texte pouvait être dépourvu de sens. Les objets étaient fréquemment déformés ou perdaient des éléments clés. À mesure que la technologie continue d’évoluer, ces indices sont moins courants qu’autrefois, mais il vaut toujours la peine de les chercher. Surveillez les incohérences, comme une voiture présente dans une vidéo à un moment puis absente à l’instant suivant, ou des actions impossibles selon les lois de la physique. Certaines images peuvent aussi être excessivement retouchées ou présenter une brillance artificielle.
Seek out a source
Les images générées par l’IA sont partagées encore et encore. L’une des façons de déterminer leur authenticité (ou l’absence d’authenticité) est d’en rechercher l’origine. Faire une recherche d’image inversée est une méthode simple pour le faire. Si vous regardez une vidéo, faites d’abord une capture d’écran. Cela peut mener à un compte sur les réseaux sociaux qui génère spécifiquement du contenu d’IA, à une image plus ancienne qui est mal représentée, ou à quelque chose d’entièrement inattendu.
Listen to the experts
Cherchez plusieurs sources vérifiées qui peuvent aider à authentifier l’image. Par exemple, il peut s’agir d’une vérification des faits réalisée par un média de confiance, d’une déclaration d’une personnalité publique, ou d’une publication sur les réseaux sociaux d’un expert en désinformation. Ces sources peuvent disposer de techniques plus avancées pour identifier le contenu généré par l’IA ou avoir accès à des informations sur l’image qui ne sont pas accessibles au grand public.
Make use of technology
Il existe de nombreux outils de détection de l’IA qui peuvent constituer un bon point de départ. Mais méfiez-vous, car ils ne sont pas toujours exacts dans leurs évaluations. Les images qui ont été générées ou modifiées avec l’IA à l’aide de l’application Gemini de Google incluent un outil invisible d’horodatage numérique appelé SynthID, que l’application peut détecter. D’autres outils de création d’IA ont ajouté des filigranes visibles aux contenus qu’ils génèrent. Ils sont souvent faciles à supprimer, ce qui signifie que l’absence d’un tel filigrane n’est pas une preuve que l’image est authentique.
Slow down
Parfois, il s’agit simplement de revenir aux bases. Faites une pause, respirez et ne partagez pas immédiatement quelque chose dont vous ne savez pas si c’est réel. Les mauvais acteurs comptent souvent sur le fait que les gens laissent leurs émotions et leurs points de vue existants guider leurs réactions au contenu. Lire les commentaires peut fournir des indices sur le point de savoir si l’image que vous regardez est réelle ou non. Un autre utilisateur a peut-être remarqué quelque chose que vous n’avez pas vu, ou a peut-être réussi à retrouver la source originale. En fin de compte toutefois, il n’est pas toujours possible de déterminer avec une exactitude à 100 % si une image a été générée par l’IA, alors restez vigilant face à la possibilité qu’elle ne soit pas réelle.
See something that looks false or misleading? Email us at [email protected].
Find AP Fact Checks here: