Michael Saylor _s communauté Bitcoin au milieu de la marée montante d’escroqueries deepfake

Sujha Sundararajan

Dernière mise à jour :

15 janvier 2024 22 :18 EST | Temps de lecture : 1 min

Divulgation : Les crypto-monnaies sont une classe d’actifs à haut risque. Cet article est fourni à titre informatif et ne constitue pas un conseil en investissement. En utilisant ce site Web, vous acceptez nos conditions générales. Nous pouvons utiliser des liens d’affiliation dans notre contenu et recevoir une commission.Source : PixabayLe fondateur de MicroStrategy et titan de la technologie, Michael Saylor, a émis un avertissement sur l’afflux d’escroqueries deepfake générées par l’IA dans la communauté Bitcoin.

L’alarme fait suite à plusieurs rapports de la semaine dernière signalant de fausses vidéos générées par l’IA de Saylor qui aurait promis de « doubler l’argent des gens instantanément ». La fausse publicité incitait les clients à scanner un code QR pour envoyer des bitcoins (BTC) à l’adresse de l’agresseur.

Un utilisateur a posté sur X (anciennement Twitter) que la vidéo deepfake de Michael Saylor est apparue sur YouTube (à nouveau).

En réponse, Saylor a écrit dimanche qu’"il n’y a pas de moyen sans risque de doubler votre Bitcoin ».

« MicroStrategy ne donne pas de BTC à ceux qui scannent un code-barres », a-t-il souligné.

⚠️ > Avertissement ⚠️ Il n’y a pas de moyen sans risque de doubler votre #bitcoin, et @MicroStrategy ne donne pas BTC $ à ceux qui scannent un code-barres. Mon équipe retire environ 80 fausses vidéos de @YouTube générées par l’IA chaque jour, mais les escrocs continuent d’en lancer d’autres. Ne faites pas confiance, vérifiez. pic.twitter.com/gqZkQW02Ji

— Michael Saylor⚡️ (@saylor) 13 janvier 2024

De plus, il a révélé que son équipe de sécurité supprime 80 vidéos deepfake par jour, en moyenne, qui représentent les fausses promesses cryptographiques de Saylor.

« Mon équipe retire environ 80 fausses vidéos YouTube générées par l’IA chaque jour, mais les escrocs continuent d’en lancer d’autres. Ne faites pas confiance, vérifiez.

Les vidéos d’escroquerie de Saylor ont suivi une série de vidéos deepfake convaincantes dans un passé récent. En novembre 2023, de fausses vidéos de Ripple et de son chef Brad Garlinhouse ont fait surface avec de faux cadeaux de XRP. De même, le cofondateur de Cardano, Charles Hoskinson, a été victime d’un deepfake en décembre, qui a immédiatement fait suite à un avertissement immédiat de sa part sur la sophistication croissante de ces fausses vidéos.

Comme prévu, les escroqueries à l’IA générative sont maintenant là. Ceux-ci seront considérablement meilleurs dans 12 à 24 mois et il sera difficile pour quiconque de faire la distinction entre la réalité et la fiction de l’IA

— Charles Hoskinson (@IOHK_Charles) 15 décembre 2023

L’évolution rapide de la technologie de l’IA masque une triste réalité : les préoccupations en matière de sécurité et de confidentialité. Un rapport de l’UCL indique que les experts ont classé la manipulation de la vidéo et de l’audio comme l’utilisation la plus inquiétante de l’intelligence artificielle en termes d’applications criminelles.

Matt Groh, assistant de recherche au sein de l’Affective Computing Group du MIT Media Lab, a déclaré que les gens peuvent se défendre contre les deepfakes en utilisant leur propre intellect. « Vous devez être un peu sceptique, vous devez vérifier et être réfléchi », a déclaré Groh.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler