Tutoriel d'enrichissement par l'IA : D'abord faire du contenu sensuel, puis vendre des cours

Auteur : Sauce

Le plaisir et la sexualité sont inscrits dans la nature humaine, et la plupart des grands modèles commerciaux qui ont émergé ne peuvent s’en passer, tout comme l’AIGC.

A16Z, le fonds de capital-risque le plus en vogue de la Silicon Valley, a publié un rapport sur les tendances de consommation de l’IA. Ce rapport, censé traiter sérieusement de la productivité de l’IA, cache une page avec un graphique en ligne qui fait sourire ou pleurer : l’année dernière, les utilisateurs américains ont dépensé en tout pour OpenAI et le New York Times moins d’argent qu’ils n’en ont dépensé sur OnlyFans.

Tableau du rapport A16Z

C’est à la fois ironique et très révélateur — la productivité, en fin de compte, est encore inférieure à la tension sexuelle.

Alors, combien peut-on gagner en flirtant avec l’IA ?

Source image : Giphy

La productivité inférieure à la tension sexuelle

Les premiers à se lancer dans la création de mannequins virtuels avec l’IA savent très bien de quoi il retourne.

Depuis fin 2022, lorsque des outils comme Midjourney ou Stable Diffusion ont commencé à produire des images stables, certains ont vite compris : ces outils peuvent créer des visages hyper réalistes, en grande quantité, à coût presque nul. Ils génèrent des images de femmes virtuelles, leur donnent un nom, une personnalité, quelques détails soigneusement conçus de « vie quotidienne », et les gèrent en tant que vraies personnes sur Instagram et TikTok, avec des réponses privées gérées par ChatGPT, offrant ce qu’on appelle une « expérience de petite amie ». Tout ce processus est presque entièrement automatisé, et les opérateurs n’ont même pas besoin de se montrer.

Source image : Giphy

Ce mode opératoire fonctionne le mieux sur Fanvue, plateforme concurrente d’OnlyFans. Fanvue est plus laxiste quant au contenu généré par IA. Selon ses déclarations officielles, en novembre 2023, les mannequins virtuels IA représentaient déjà 15 % du revenu total de la plateforme. En 2024, les principaux mannequins virtuels IA gagnent en moyenne plus de 20 000 dollars par mois, et certains comptes bien rodés dépassent déjà 200 000 dollars de revenus annuels. En 2025, ce chiffre continue de grimper. Lors d’un entretien en 2025, le CEO de Fanvue, Will Monange, a révélé que les revenus globaux des créateurs IA avaient augmenté de plus de 60 % par rapport à la même période en 2024, et que les mannequins virtuels étaient devenus la catégorie de contenu à la croissance la plus rapide sur la plateforme.

Officiallement, OnlyFans interdit formellement le contenu généré par IA, mais certains continuent de contourner la règle. Sur Reddit, il est fréquent de voir des discussions sur comment utiliser l’IA pour « flirter » et gagner de l’argent sur OnlyFans : la méthode la plus courante consiste à faire passer une vraie femme pour passer la vérification faciale, puis à utiliser ses photos pour entraîner un modèle IA à produire en masse du contenu.

Source image : Giphy

Même si la plateforme devient plus stricte, la technologie progresse rapidement, et aujourd’hui, la qualité des images générées par IA est si réaliste que même les experts chevronnés ont du mal à faire la différence. Il y a quelques jours, j’ai vu sur Xiaohongshu une vidéo d’un beau garçon en voiture, et si je n’avais pas vu en haut de la section des commentaires le message « Cet AI a vraiment bon goût », je n’aurais jamais deviné qu’il s’agissait d’un visage généré par IA.

Au-delà du contenu pour adultes, une autre vague de personnes a réussi à gagner de l’argent grâce à l’IA, mais dans un tout autre domaine : les livres pour enfants.

Zhao Lei (pseudonyme) fait partie des premiers à s’être lancé. Fin 2022, il venait d’être licencié d’un grand groupe où il occupait un poste dans le produit, et il cherchait une nouvelle voie depuis chez lui. À cette époque, Midjourney venait de devenir capable de produire des images stables, et en voyant des aquarelles de petits animaux, une idée lui est venue : « Ce ne sont que des illustrations pour livres pour enfants, non ? » Il a passé deux semaines à étudier Amazon KDP, avec une logique très simple : ChatGPT écrit l’histoire, Midjourney crée les images, il fait la mise en page, puis il met en ligne et attend de recevoir l’argent. « À l’époque, c’était vraiment rentable, » dit-il, « en empilant quelques livres, on pouvait générer plus de 10 000 dollars de revenus passifs par mois. »

Mais cette opportunité n’a pas duré longtemps. À la seconde moitié de 2023, la publication de livres pour enfants générés par IA sur KDP a explosé, avec près de 90 000 tutoriels similaires sur TikTok, tous avec des titres du style : « EASY AI Money », promettant 100 000 dollars par mois grâce aux livres pour enfants.

Tout le monde s’est rué sur cette même voie, et les ventes se sont rapidement diluées. La qualité a aussi commencé à poser problème : on voit apparaître dans ces livres des dinosaures avec de gigantesques pattes avant, ou des enfants avec des doigts qui ne correspondent pas. Les plateformes ont commencé à exiger que, lors du téléchargement, il soit déclaré si l’IA avait été utilisée ou non, ce qui a quasiment signé la fin de cette voie. « Aujourd’hui, gagner de l’argent avec des livres pour enfants générés par IA est déjà très difficile, » confie Zhao Lei.

Puis, lui et cette vague de « flirteurs » avec l’IA ont tous deux abouti au même point : vendre des formations (dans ce domaine, le phénomène récent des « écrevisses » a atteint des sommets).

Source image : Giphy

Zhao Lei vend une formation complète « de zéro à mise en vente » pour la création de livres pour enfants par IA, tandis que ceux qui jouent avec la limite vendent des tutoriels pour construire des mannequins virtuels IA. Les acheteurs sont toujours les mêmes : la nouvelle génération qui vient d’apprendre cette méthode et pense encore que la fenêtre n’est pas fermée.

Deux voies, deux contenus, un emballage différent, mais la même promesse : « Je peux aussi faire comme eux. »

L’esthétique et « les compétences anciennes » bloquent beaucoup de gens

Tout cela semble être une opportunité de faire fortune en étant au bon endroit au bon moment, mais quels sont réellement les obstacles ?

Une amie designer UX dans le numérique m’a donné une réponse : la restriction géographique sur Internet et les frais d’abonnement. Elle a écrit un guide d’utilisation de Midjourney lors de sa sortie, vendu à 99 yuans, et il est encore en ligne sur Xiaohongshu, générant des revenus passifs. Sur le plan technique, elle a raison — les barrières tombent rapidement.

Mais, en tant que personne dont le dessin se limite à des bonhommes allumettes et qui voit souvent des images laides dans divers outils AIGC, je dois ajouter un point qu’elle n’a pas mentionné : il y a aussi une barrière appelée l’esthétique.

Source image : Giphy

Autrefois, on plaisantait en disant que l’IA ne pouvait pas remplacer les designers, car les clients ne savent pas vraiment ce qu’ils veulent. Je pensais que c’était une blague, jusqu’à ce que je teste moi-même ces outils, et je me suis rendu compte que cette blague s’appliquait parfaitement à moi.

L’année dernière, j’ai créé un compte média pour utiliser le concept physique de « l’île de la capacité » comme logo. On peut comprendre cette île comme étant, dans un flux d’informations chaotique, ce qui mérite d’être conservé. J’ai trouvé une image de référence pour ce concept, j’ai lancé l’outil, j’ai mis l’image dedans, puis j’ai écrit une série de prompts descriptifs, et j’ai commencé à générer. Le résultat était un chaos total, j’ai refait sept ou huit versions, chacune différente, en changeant la méthode à chaque fois. Je savais ce que je voulais ressentir, mais je ne savais pas comment traduire cette sensation en instructions précises. Finalement, j’ai demandé à un ami designer de m’aider : en vingt minutes, il a produit une version que je n’aurais pas pu obtenir en deux heures de mon côté, et qui était totalement différente.

(illustration : avant et après modification)

Le problème ne vient pas de l’outil, mais de moi. Plus précisément, de mon incapacité à transformer une sensation esthétique floue en langage précis.

Ce problème n’est pas seulement le mien.

Une amie qui fait du contenu en ligne a commencé l’année dernière à utiliser Seedance pour des vidéos courtes. Elle a vite appris à maîtriser l’outil, mais ce qui la bloquait vraiment, c’était l’écriture des storyboards. « Je sais que je veux une image avec du relief, mais ‘du relief’ dans un prompt, ça ne sert à rien, » dit-elle, « je ne sais pas quels types de lumière, de plans ou de mouvements de caméra correspondent à cette idée. » Le résultat final, elle le décrit comme « ressemblant, mais pas du tout ça. »

Un autre ami utilise Marble, un outil qui permet de générer des images 3D à partir de texte et d’images. Après plusieurs essais et plusieurs échecs, il a fini par comprendre qu’il n’avait pas de référence, qu’il ne savait pas à quoi ressemblait une bonne image, et qu’il ne pouvait donc pas juger si ce qu’il obtenait correspondait à ce qu’il voulait.

(illustration : panorama 3D généré par Marble)

En revanche, un ami photographe, qui connaît bien la technique, obtient des images nettement supérieures avec le même outil. Il explique qu’il ne passe pas beaucoup de temps à peaufiner ses prompts : « Je sais simplement ce que je veux en termes de composition et d’éclairage, je l’exprime clairement, et l’outil me donne ce que je veux. »

Les capacités des outils s’améliorent rapidement, mais l’écart entre utilisateurs ne se réduit pas, il s’amplifie même dans une certaine mesure. Avant, tout le monde était incapable de produire de bonnes images. Maintenant, ceux qui ont une certaine sensibilité esthétique peuvent créer de très belles choses, tandis que d’autres restent bloqués entre « pouvoir utiliser » et « faire bien ».

Les outils répondent aussi à cette réalité. La popularité de logiciels comme NotebookLM, qui proposent des modèles préfabriqués en un clic, repose sur une logique simple : ils évitent la nécessité de savoir ce que l’on veut dès le départ. Les modèles prennent en charge la décision esthétique, il suffit de remplir le contenu. Mais cette limite aussi existe : ils peuvent rendre quelque chose « utilisable », mais pas forcément « beau ».

Ce phénomène se retrouve aussi dans l’écriture. J’ai une amie chargée de la communication marketing, récemment nommée responsable des relations publiques, qui doit produire beaucoup de textes. Son supérieur a dit qu’elle pouvait utiliser l’IA, mais elle était encore plus perdue. Elle m’a demandé de lui donner un manuel d’écriture IA que j’avais écrit. Le problème, c’est qu’elle n’a pas de sens du « bon » dans un article de relations publiques, elle ne connaît pas les critères. Face au contenu généré par l’IA, elle ne sait pas dans quelle direction l’améliorer.

Source image : Giphy

Moi, en revanche, je trouve que l’écriture assistée par IA me convient mieux. Pas parce que je maîtrise mieux l’outil, mais parce que, en tant que journaliste depuis des années, j’ai un sens de l’expression. Je sais ce qu’une phrase doit contenir, ce qui sonne faux, où l’IA est faible, où il faut pousser. L’esthétique devient ici une compétence très pratique : elle vous indique la fin du chemin, plutôt que de laisser l’IA tourner en rond sans fin.

Quand la capacité de l’outil n’est plus un problème, l’esthétique et « les compétences anciennes » deviennent le plus grand obstacle — au point que ne pas s’en servir, ou ne pas s’en servir bien, peut même être mieux.

Je veux du sexy, la différence entre IA et humain est-elle importante ?

Les premiers à s’être emparés de cette opportunité récoltent à la fois des bénéfices et des controverses. Aujourd’hui, dans le monde de l’AIGC, un paradoxe apparaît : l’utilisation ou non de l’IA devient parfois plus important que la qualité du travail lui-même.

Fang Yuan (pseudonyme), un designer de marque, a récemment travaillé sur un projet de visuel de marque. Il a utilisé l’IA pour réduire un processus qui prenait habituellement deux semaines à seulement trois jours. Selon lui, le résultat était même meilleur qu’avant. Il a publié le travail, puis attendu la réponse.

La première réaction de son client n’a pas été une critique du contenu, mais : « C’est si rapide, tu as utilisé l’IA ? » Fang Yuan n’a pas eu le temps de répondre qu’un autre message est arrivé : « Nous n’acceptons pas de travaux impliquant l’IA. » Il n’est même pas sûr que le client ait ouvert la pièce jointe. Il est frustré : une efficacité si grande devient une faute.

Source image : Giphy

Il n’est pas le seul dans cette situation. L’IA, dans beaucoup d’évaluations, est devenue une sorte de critère moral. Ce n’est pas comme Photoshop ou Excel. Personne ne demande si une photo retouchée a été modifiée avec un logiciel, ni si un rapport financier a été fait avec Excel.

Ce qui est en jeu, c’est une suspicion différente, plus proche de : « As-tu vraiment fait ça ? »

Dans le travail créatif, il y a toujours eu un contrat tacite : une œuvre de qualité suppose que quelqu’un y a consacré du temps, de l’énergie, du soin. L’apparition de l’IA vient bouleverser cette causalité implicite entre « effort » et « résultat ».

Une création faite en trois jours avec l’IA, mise en parallèle avec une autre faite à la main en deux semaines, même de qualité équivalente, donne souvent une impression étrange, comme s’il manquait quelque chose. Ce malaise peut se résumer en un mot : « injustice ».

Une étude de l’Université d’Arizona a montré que si un designer informe volontairement son client qu’il a utilisé l’IA, même en précisant que l’IA n’a été qu’un outil d’assistance, la confiance du client envers le designer chute en moyenne de 20 %.

Avec la maturité croissante de la technologie AIGC, cette problématique dépasse désormais la simple confiance entre le client et le prestataire, pour devenir une question de plateforme.

Depuis 2023, plusieurs réglementations ont été adoptées pour encadrer la mention des contenus générés par l’IA : en janvier, le « Règlement sur la gestion des services d’informations en ligne pour la synthèse profonde » qui concerne principalement la deepfake et la synthèse vocale ; en août, le « Règlement provisoire sur la gestion des services d’intelligence artificielle générative » qui inclut aussi les services comme ChatGPT. En mars 2025, la réglementation a été renforcée avec la publication par le Cyberspace Administration of China d’un « Règlement sur l’étiquetage des contenus synthétiques générés par l’IA », couvrant textes, images, audio et vidéo.

Mais ce qui reste flou, c’est la définition.

Une plateforme peut reconnaître une vidéo 100 % générée par IA, mais il est beaucoup plus difficile de délimiter la frontière : une photo prise par soi, retouchée par IA pour ajuster la couleur ou la composition, compte-t-elle comme contenu IA ? Une vidéo dont le matériel est tourné par soi, mais montée ou accompagnée de musique par IA, doit-elle être étiquetée ? Un article dont le premier jet est généré par l’IA, puis modifié à 70 %, à qui appartient le label ?

Source image : Giphy

Le vrai problème derrière cette difficulté à délimiter, c’est la responsabilité. Si la définition n’est pas claire, la responsabilité n’a pas de point d’ancrage. Si une chanson dont la mélodie a été écrite par l’IA, mais dont les paroles ont été modifiées par un humain, donne lieu à un litige sur les droits d’auteur, qui en sera responsable ? Ou si une critique est générée par l’IA, que le blogueur n’a fait que changer le ton, et qu’un produit recommandé s’avère décevant, en demandant si c’est « l’IA » qui l’a fait, on pose en réalité une question plus fondamentale : derrière cette œuvre, y a-t-il une personne qui en assume la responsabilité, qui a réfléchi à votre problème, qui se soucie du résultat ?

Le plus difficile à délimiter, ce n’est pas la frontière, mais la responsabilité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler