ChatGPT divulgue un selfie d’un homme étrange ! Des données de confidentialité volées par le modèle ? Les internautes paniqués

Source d’origine : New Zhiyuan

Source de l’image : Généré par Unbounded AI

Récemment, ChatGPT a réagi à l’incident d’une photo d’un homme étrange, qui a choqué de nombreux internautes !

Voici le problème, un utilisateur s’est tourné vers ChatGPT pour obtenir de l’aide sur la façon d’utiliser le package de formatage de code en Python.

Au début, les réponses de ChatGPT étaient normales.

Qui aurait cru que ChatGPT avait soudainement envoyé un selfie d’un homme étrange en réponse !

Et il est également apparu une deuxième fois !

Les internautes ont immédiatement paniqué.

Se pourrait-il que ChatGPT soit réel ?

Certaines personnes pensent qu’il ne peut pas s’agir d’un autre fantôme dans l’IA, n’est-ce pas ?

Peut-être s’agit-il de la version effrayante de ChatGPT ?

Quelqu’un se souvient de la légende selon laquelle sur Internet, il y a une énorme quantité de choses cachées dans l’espace caché, ce qui implique beaucoup de théories.

Certaines personnes pensent que ChatGPT a peut-être été empoisonné !

Ou quelqu’un a piraté OpenAI et a demandé à ChatGPT de publier au hasard des photos d’eux-mêmes pour se montrer.

La réponse est inattendue

Les internautes ont fait un remue-méninges et collecté des indices partout, et ont finalement résolu l’affaire !

Il ne s’agit pas d’une photo générée par ChatGPT, mais d’un véritable selfie d’un utilisateur.

Il s’est avéré que cette photo a été téléchargée sur Imgur le 7 décembre 2016. (L’image a d’abord été vue par centaines, mais comme de plus en plus de personnes ont regardé l’événement, le nombre de vues est maintenant passé à plus de 17 000.) )

Certaines personnes spéculent que cela devrait être comme ça : ChatGPT a généré au hasard une URL Imgur lors de la génération d’une réponse, qui s’est avérée être liée à ce selfie.

L’objectif de ChatGPT est de générer une image illustrative, et il pense qu’il partage une capture d’écran de la configuration de Visual Studio Code, mais il ne s’attend pas à générer une image via le lien Imgur.

En d’autres termes, dans l’ensemble de données d’entraînement de ChatGPT, il existe de nombreuses réponses qui contiennent des liens Imgur vers des réponses partielles, de sorte que les liens Imgur sont fortement corrélés avec les bonnes réponses.

Cependant, ChatGPT ne peut pas automatiser statistiquement la liaison aléatoire d’images, de sorte que les résultats sont imprévisibles. La photo de ce gars ressemble au numéro de page illusion de GPT.

Un autre internaute a également donné une explication similaire : ChatGPT a donné une réponse, qui est un lien Imgur.

Il pensait qu’il devait fournir une réponse à un lien Imgur, mais il ne s’est pas rendu compte qu’il avait besoin de la même URL Imgur, à la place, il a généré un ensemble aléatoire d’URL.

Et par coïncidence, il s’agit en fait d’un lien valide, qui se trouve être lié à la photo d’un étranger.

Il a également été dit que ce n’était pas Imgur qui était utilisé pour l’entraînement, mais que ChatGPT était capable de générer des liens Imgur (n’importe quel lien qui peut réellement être dit).

Donc, ce lien a été généré aléatoirement par ChatGPT, quelle est la probabilité que cela se produise ?

Quelqu’un a calculé que l’ID de l’image Imgur est composé de 7 caractères dans l’ensemble [A-Za-z0-9], il y a donc 62^7=3 521 614 606 208, ce qui représente 3,5 trillions de combinaisons possibles.

Lors de son premier tour de financement en 2014, Igmur a hébergé environ 6,5 billions d’images. En extrapolant, la quantité de données créées sur Internet a bondi de 860 % depuis 2014. En suivant cette logique, Imgur peut aujourd’hui héberger environ 6,24 milliards d’images.

Par conséquent, les chances que ChatGPT devine un identifiant d’image valide sont -

6,24 milliards / 62^7 x 100 = 0,177 %

Cela se produit environ une fois sur 565 chats, il n’est donc pas impossible de dire que ChatGPT a généré ce lien Imgur.

Le maître de couche a délibérément écrit un script simple pour tester ces chiffres, et sur 10 000 requêtes effectuées, il a trouvé 19 images valides, donc la probabilité est de 0,19%. D’ailleurs, il a aussi montré une poignée d’affection ?

À ce stade, les choses semblent s’effondrer.

Par conséquent, n’oubliez pas que le contenu que vous téléchargez ou tapez sera utilisé pour entraîner ChatGPT, et si vous ne voulez pas divulguer votre vie privée, n’oubliez pas de désactiver le bouton pour télécharger l’historique des discussions.

Et toute empreinte numérique que vous laissez sur Internet pourrait un jour devenir des données d’entraînement de l’IA.

En bref, n’envoyez aucune photo à l’IA, vous ne pouvez pas savoir ce qu’elle va faire de votre photo.

Ressources:

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)