Tutorial de Riqueza com IA: Primeiro Faça Conteúdo Picante, Depois Venda Cursos

Autor: Salada de Maionese

A natureza do desejo é sexualidade. A maioria dos grandes modelos de negócio surge justamente dessa vontade, e a AIGC não é exceção.

A16Z, o principal venture capital de Silicon Valley, publicou um relatório sobre as tendências de consumo de IA. Nesse relatório, que deveria discutir a produtividade da IA de forma séria, há uma página com um gráfico de linhas que causa risos e lágrimas: no ano passado, o dinheiro gasto pelos usuários nos EUA em OpenAI e no New York Times juntos, foi menor do que o gasto no OnlyFans.

Tabela do relatório da A16Z

É irônico, mas também real — produtividade, ainda fica atrás do desejo sexual.

Então, quanto dá para ganhar com IA na fronteira?

Fonte da imagem: Giphy

Produtividade fica atrás do desejo sexual

Quem começou a criar modelos virtuais de IA sabe bem disso.

Por volta do final de 2022, quando ferramentas como Midjourney e Stable Diffusion começaram a gerar imagens de forma estável, alguém percebeu: isso consegue criar rostos quase reais, em grande quantidade, com custo quase zero. Usando IA, criaram imagens de mulheres virtuais, com nomes, personalidades e rotinas cuidadosamente planejadas, operando no Instagram e TikTok com aparência de pessoas reais, enquanto respostas íntimas no inbox eram feitas pelo ChatGPT, oferecendo uma “experiência de namorada”. Todo o processo era quase totalmente automatizado, sem que os operadores precisassem aparecer.

Fonte da imagem: Giphy

Essa estratégia foi mais bem-sucedida na plataforma concorrente do OnlyFans, Fanvue. A Fanvue tem uma postura mais permissiva com conteúdo de IA. Segundo dados oficiais, em novembro de 2023, modelos virtuais de IA já representavam 15% da receita total da plataforma. Em 2024, os principais modelos virtuais de IA faturam mais de 20 mil dólares por mês, e alguns perfis bem estabelecidos ultrapassam 200 mil dólares anuais. Em 2025, esse número continua crescendo. O CEO da Fanvue, Will Monange, revelou em entrevista em 2025 que a receita total dos criadores de IA na plataforma cresceu mais de 60% em relação a 2024, e os modelos virtuais já são a categoria de conteúdo de crescimento mais rápido.

Embora o site oficial do OnlyFans proíba explicitamente conteúdo de IA, há sempre quem tente driblar as regras. No Reddit, há discussões frequentes sobre como usar IA para ganhar dinheiro na plataforma, geralmente envolvendo usar uma mulher real para passar na verificação facial, e depois treinar o modelo de IA com suas fotos para gerar conteúdo em massa.

Fonte da imagem: Giphy

Por mais rigor que a plataforma seja, a tecnologia avança rápido, e hoje a qualidade das imagens geradas por IA é tão convincente que até os veteranos têm dificuldade em distinguir. Recentemente, vi um vídeo de um rapaz atraente sentado no carro, no Xiaohongshu. Se não fosse pelo comentário fixado dizendo “Essa estética de IA é realmente boa”, eu nem perceberia que era um rosto gerado por IA.

Fora do conteúdo adulto, há uma turma que também lucra com IA, mas em um setor totalmente diferente: livros infantis.

Zhao Lei (nome fictício) foi um dos primeiros a entrar nesse mercado. No final de 2022, ele foi demitido de uma grande empresa de tecnologia, onde trabalhava em produto, e começou a buscar novas oportunidades em casa. Na época, o Midjourney tinha começado a gerar imagens estáveis, e ao ver os desenhos aquarelados de pequenos animais, surgiu uma ideia: isso não era exatamente ilustração de livro infantil? Ele passou duas semanas estudando o Amazon KDP, com uma lógica bem simples: ChatGPT escreve a história, Midjourney gera as imagens, faz a diagramação e publica, esperando receber o dinheiro. “Naquela época, dava muito dinheiro”, ele diz, “publicava alguns livros, e em um mês tinha mais de mil dólares de renda passiva.”

Porém, essa janela se fechou rápido. No segundo semestre de 2023, os livros de IA no KDP explodiram em quantidade, e surgiram quase noventa mil tutoriais no TikTok com títulos do tipo: “Dinheiro fácil com IA”, prometendo faturar 100 mil por mês com livros infantis.

Todo mundo entrou na mesma corrida, e as vendas começaram a se diluir. Além disso, problemas de qualidade começaram a aparecer: livros com dinossauros com patas enormes, crianças com dedos fora de proporção. As plataformas passaram a exigir que, ao fazer upload, fosse declarado se o conteúdo usou IA, o que praticamente acabou com essa rota. “Hoje, ganhar dinheiro com livros de IA já está bem difícil”, diz Zhao Lei.

Depois, ele e outros que atuavam na fronteira da IA seguiram para o mesmo destino: vender cursos (nesse ponto, o “Lobster”, que virou febre recentemente, chegou ao extremo).

Fonte da imagem: Giphy

Zhao Lei vende um curso completo de “todo o processo de criação e publicação de livros infantis com IA”, enquanto os que atuam na fronteira vendem “tutorial de montagem de modelos virtuais de IA”. Ambos vendem para um público que acabou de descobrir o tema e acha que a janela ainda está aberta.

Duas rotas, conteúdos diferentes, embalagens distintas, mas vendendo a mesma coisa: a ilusão de “eu também consigo fazer um porco que decolou”.

Estética e “habilidades antigas” travam muitas pessoas

Tudo isso parece um negócio de pegar dinheiro na oportunidade, mas quais são as barreiras?

Um amigo designer de UX na internet me deu uma resposta: restrições de região na rede e taxas de assinatura. Ela escreveu um guia de uso do Midjourney logo no começo, por 99 reais, que ainda está disponível na Xiaohongshu, gerando renda passiva. Do ponto de vista do uso da ferramenta, ela tem razão — as barreiras estão mesmo caindo rapidamente.

Porém, como alguém que ainda faz desenhos de palitos e vê imagens feias em várias ferramentas de AIGC, tenho que acrescentar algo que ela não mencionou: há uma barreira chamada estética.

Fonte da imagem: Giphy

Antes, brincávamos que IA não substituía designers porque os clientes não sabiam exatamente o que queriam. Achava que era piada, até experimentar essas ferramentas e perceber que a piada se confirmava na minha própria experiência.

Ano passado, criei uma conta de mídia social e quis usar o conceito de “Ilha de Acumuladores” para fazer um logo. Essa ilha, na física, pode ser entendida como algo que merece ser preservado em meio ao fluxo caótico de informações. Procurei uma imagem de referência, coloquei na ferramenta, escrevi várias descrições, e comecei a gerar as imagens. O resultado foi uma bagunça total, e refiz várias versões, cada uma com uma abordagem diferente na confusão. Eu sabia o que queria transmitir, mas não conseguia traduzir esse sentimento em comandos precisos. No final, pedi ajuda a um amigo designer, que em vinte minutos criou uma versão muito melhor do que as duas horas que eu gastei tentando.

Imagem: antes e depois da edição

O problema não está na ferramenta, mas em mim. Ou melhor, na minha incapacidade de transformar a sensação estética vaga da minha cabeça em uma linguagem exata.

Esse dilema não é só meu.

Uma amiga que trabalha com conteúdo começou a usar o Seedance para fazer vídeos curtos. Ela aprendeu a usar a ferramenta rapidamente, mas o que realmente a travou foi escrever o roteiro. “Sei que quero uma imagem com textura, mas colocar ‘com textura’ na descrição não ajuda em nada”, ela disse, “não sei exatamente que tipo de luz, enquadramento ou movimento de câmera quero.” O que ela produziu, ela descreveu como “parecido, mas nada a ver”.

Outro amigo usa o Marble, uma ferramenta que gera imagens 3D a partir de texto e fotos. Ele refaz as imagens várias vezes, até perceber que não tem referência nenhuma do que é “bom”, e, por isso, não consegue julgar se o que gera é o que realmente deseja.

Imagem do Marble gerando uma cena 3D panorâmica

Por outro lado, um amigo com experiência em fotografia consegue gerar imagens de alta qualidade com a mesma ferramenta. Ele diz que não gastou muito tempo estudando dicas de comandos, “só sabe o que quer em termos de composição e iluminação, e explica isso claramente, o que faz a ferramenta acertar.”

A capacidade das ferramentas está crescendo rapidamente, mas a diferença entre os usuários não diminui — na verdade, ela se amplia. Antes, todos tinham dificuldade em fazer algo bom; agora, quem tem bom gosto consegue criar coisas excelentes, enquanto quem não tem ainda fica entre “pode usar” e “é útil”.

As próprias ferramentas também respondem a essa realidade. O sucesso de ferramentas como o NotebookLM, que oferece modelos prontos com um clique, é simples: elas evitam a necessidade de “saber exatamente o que quer”. Os modelos ajudam na decisão estética, você só precisa preencher o conteúdo. Mas esse limite também está aí: elas resolvem o “pode usar”, mas não o “bonito”.

O mesmo se aplica ao texto. Tenho uma amiga que trabalha com marketing, que recentemente foi designada para cuidar de PR, precisando produzir muitos textos. A líder sugeriu usar IA, mas ela ficou mais confusa, pegou meu manual de escrita com IA. O problema é que ela não tem uma noção do que é um “bom press release”, não sabe quais critérios usar, e, ao ver o conteúdo gerado pela IA, não consegue decidir para onde melhorar.

Fonte da imagem: Giphy

Já eu, usando IA para escrever, me dou melhor. Não porque entenda mais da ferramenta, mas porque, como jornalista de textos há anos, tenho bom senso na expressão, sei onde uma frase funciona, onde fica estranha, e consigo perceber onde a IA errou ou precisa de ajustes. A estética aqui virou uma habilidade prática: ela mostra onde o ponto final deve estar, ao invés de deixar a IA repetir sem rumo.

Quando a capacidade da ferramenta não é mais o problema, a estética e as “habilidades antigas” se tornam as maiores barreiras — usar mal, ou até pior, não usar nada.

Eu quero é desejo, a diferença entre IA e pessoa real importa?

Quem foi o primeiro a experimentar as novidades não só colhe os frutos, mas também enfrenta controvérsias. Hoje, no universo da AIGC, há uma contradição: usar ou não usar IA, na verdade, importa mais do que a qualidade do trabalho.

Fang Yuan (nome fictício) é designer de marcas. Ele recebeu um projeto de identidade visual, usou IA para reduzir um processo de duas semanas para três dias, e achou que o resultado ficou até melhor do que antes. Enviou o trabalho, aguardando a resposta.

A primeira reação do cliente não foi uma avaliação do projeto, mas: “Tão rápido, você usou IA?” Antes que pudesse responder, veio outra mensagem: “Não aceitamos trabalhos com participação de IA.” Ele ainda não sabe se o cliente abriu o arquivo.

Ele está frustrado: a eficiência foi alta, mas virou motivo de problema.

Fonte da imagem: Giphy

Não é só ele quem enfrenta essa situação. Para muitas pessoas, a IA já virou um critério moral. Diferente do Photoshop ou Excel, ninguém pergunta “você usou Photoshop?” ao receber uma foto retocada, ou “você usou Excel?” ao receber uma planilha.

A IA provoca uma dúvida diferente: “Você realmente fez isso?”

No trabalho criativo, há um pacto implícito de que boas obras levam tempo, esforço, refinamento. A chegada da IA quebra essa cadeia de causa e efeito, que todos consideram natural.

Um projeto feito em três dias com IA, ao lado de outro feito manualmente em duas semanas, mesmo com qualidade semelhante, dá a impressão de algo estranho. Essa sensação de “estranho” pode ser resumida como “injusto”.

A Universidade do Arizona realizou um estudo mostrando que, se um designer informa ao cliente que usou IA, mesmo explicando que ela foi apenas uma ferramenta auxiliar, a confiança do cliente no designer cai, em média, 20%.

Com o amadurecimento da tecnologia AIGC, esse problema não é mais só de confiança entre as partes, mas também de plataforma.

Desde 2023, vários regulamentos foram publicados, exigindo a marcação de conteúdos gerados por IA: primeiro, o “Regulamento de Gestão de Serviços de Synthesis Profunda de Informação na Internet” de janeiro, que regula deepfakes e síntese de voz; depois, em agosto, o “Regulamento Provisório de Gestão de Serviços de Inteligência Artificial Generativa”, que inclui serviços como ChatGPT. Em março de 2025, a supervisão foi reforçada com a publicação do “Regulamento de Marcação de Conteúdo Gerado por IA”, abrangendo textos, imagens, áudios e vídeos.

Porém, o que é difícil de definir é o limite.

Plataformas conseguem identificar vídeos 100% gerados por IA, mas é difícil determinar fronteiras: uma selfie ajustada por IA, com cores e composição, conta como conteúdo gerado por IA? Um vídeo com material próprio, mas editado e com trilha sonora criada por IA, precisa de marcação? Um artigo com rascunho de IA, que foi alterado em 70%, quem deve marcar?

Fonte da imagem: Giphy

O problema do limite está na responsabilidade. Sem uma definição clara, não há quem assuma a culpa. Se uma música tem melodia criada por IA, com letra modificada por alguém, quem responde por direitos autorais? Ou uma avaliação gerada por IA, com o tom alterado por um influenciador, que depois recomenda um produto que não corresponde às expectativas — ao perguntar “foi feito por IA?”, na verdade, estamos questionando uma questão mais fundamental: por trás da obra, há alguém que assume a responsabilidade? Alguém que se importa com o resultado? Alguém que realmente se preocupa com a qualidade?

O mais difícil de delimitar não é o limite, mas a responsabilidade.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar