Yann LeCun dit qu'il a trollé OpenAI au sujet de la rétention de GPT-2

robot
Création du résumé en cours

Titre

Yann LeCun affirme qu’il a trollé OpenAI à propos du non-dévoilement de GPT-2

Résumé

Yann LeCun, directeur scientifique de l’IA chez Meta, a récemment admis sur Twitter qu’il s’était moqué d’OpenAI en 2019, lorsqu’ils ont initialement refusé de publier le modèle complet de GPT-2. OpenAI avait fait valoir que le modèle était trop dangereux — il pouvait générer de fausses informations convaincantes —, ils l’ont donc publié par étapes : en commençant par une version plus petite en février 2019, puis en publiant finalement le modèle complet de 1,5 milliard de paramètres en novembre, après que des partenaires eurent signalé un usage abusif réellement minime. Le tweet de LeCun rappelle que la communauté IA débat depuis des années entre ouverture et prudence, et que ces arguments n’ont pas disparu.

Analyse

Les inquiétudes d’OpenAI concernant GPT-2 n’étaient pas sans fondement. À l’époque, des études ont montré que les gens estimaient son texte synthétique crédible environ 72% du temps, et que la détection était réellement difficile. Leur approche de publication progressive est devenue une sorte de modèle pour la manière dont les laboratoires gèrent des modèles puissants. LeCun s’est longtemps montré sceptique face à ce qu’il considère comme des préoccupations de sécurité exagérées, préférant une recherche ouverte qui permet à chacun de construire des contre-mesures. Son tweet de 2024, qui revient sur le cadrage du « trop dangereux », s’inscrit dans cette logique.

Le timing compte. Le sujet est réapparu en 2026 alors que les débats sur la réglementation de l’IA s’intensifient. L’épisode de GPT-2 continue d’être cité parce qu’il cristallise une tension réelle : restreindre l’accès empêche-t-il vraiment les dommages, ou fait-il simplement gagner du temps aux personnes qui cherchent à se défendre contre les usages malveillants ? Il n’y a pas de réponse claire, ce qui explique probablement pourquoi on en parle encore sept ans plus tard.

Je n’ai pas pu retrouver les tweets de trolling précis de LeCun en 2019 dans les recherches, mais sa position générale est bien documentée à travers les propres publications d’OpenAI, le MIT Technology Review et The Verge.

Évaluation de l’impact

  • Importance : Moyenne
  • Catégories : Sécurité de l’IA, Code source ouvert, Recherche en IA
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler