Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Até os mestres de IA estão a copiar os trabalhos: construir uma base de conhecimento pessoal eficiente usando o Wiki de LLM
撰文:Biteye principais contribuidores Shouyi
*O texto completo tem cerca de 2300 caracteres e prevê-se um tempo de leitura de 6 minutos
Todos os dias alimenta-se a IA com materiais; ela vira a cabeça e esquece tudo. Token em fúria de queima… e, no fim, a base de conhecimento termina como «prédio inacabado»?
O ex-cofundador da OpenAI / diretor de IA da Tesla, Andrej Karpathy @karpathy, acabou de revelar a solução definitiva. A 3 de abril, publicou um tweet com mais de 17 milhões de visualizações e disponibilizou em código aberto um guia rigoroso: llm-wiki.
Este guia, que já alcançou 5000+ Stars, propõe: usar modelos de grandes dimensões para construir uma base de conhecimento pessoal — para, a partir daí, deixar de «queimar Token às cegas» e fazer com que o conhecimento «ganhe juros automaticamente», tal como um ativo digital.
Hoje, o nosso editor vai desmontar de forma direta e prática este tutorial que até os grandes nomes estão a usar!
01 Por que razão, no passado, a tua base de conhecimento falhava sempre?
Antes de começares a construir, fica a conhecer dois dos padrões de falha mais comuns, para não voltares a cair no mesmo.
O principal ponto doloroso deste tipo de abordagem é que queima Token e ainda é «esquecida». Quando lhe atiras dezenas de milhares de palavras de whitepapers sobre cripto e os mais recentes artigos de IA, ela lá se vai lendo com esforço e resume-te numa versão curta. Depois, na semana seguinte, perguntas: «Qual é a diferença entre aquele projeto da semana passada e este concorrente de hoje?» E ela só se lembra daqueles resumos secos que tinha no início. Porque cada chamada depende de uma recuperação fragmentada; o conhecimento nunca chega a formar um acúmulo estruturado, e o consumo de Token é enorme.
O que caracteriza este tipo de abordagem é que é construída puramente à mão: marcar etiquetas, montar ligações duplas, criar índices… Karpathy resumiu num só golpe de luz: «O mais chato para organizar o conhecimento não é ler e pensar — é o “registo” (classificação, formatação).» Os humanos cansam-se, e a IA está sempre online. Antes, todo este serviço sujo era suportado pelos humanos na marra; o resultado era natural: acabar por desistir.
02 Desmontagem da lógica: o «pipeline totalmente automático» do LLM Wiki
O coração da proposta de Karpathy é a substituição de papéis: tu limitas-te a ser a pessoa que «fornece materiais»; toda a parte suja e o trabalho pesado ficam a cargo da IA. Este sistema é composto por três camadas lógicas:
Primeira camada: armazém de matérias-primas (entra, mas não sai)
O que tu vês no dia a dia — relatórios aprofundados, threads longas, tutoriais de IA, gravações de podcasts — é só atirar para lá. Aqui existe uma «fonte única de verdade»; o modelo grande só pode ver e está absolutamente proibido de alterar.
Segunda camada: zona central da Wiki (IA com controlo total)
Aqui há apenas ficheiros em Markdown. Tu não precisas te preocupar com a formatação; a IA extrai automaticamente as matérias-primas em «cartões de conceitos», «tabelas de comparação de concorrentes por segmento», etc. Tu só tens de ler; a IA trata de escrever e atualizar.
Terceira camada: regras SOP (as tuas regras de casa)
Escreve um ficheiro de configuração CLAUDE.md ou GPT.md e diz à IA as nossas regras. Por exemplo: «Todos os relatórios de investigação sobre a indústria de moedas, devem extrair a economia de tokens e o histórico da equipa»; «Todos os tutoriais de IA, devem resumir em 3 blocos de código de Prompts executáveis».
03 Tutorial prático: de «queimar Token» a «valorização de ativos» — agora há um pipeline; como o fazes arrancar? Os três movimentos essenciais abaixo fazem a tua base de conhecimento começar a «render juros automaticamente» em 1 segundo:
Ação 1: entrada automática (Ingest)
Exemplo com o tipo “lagosta”: atiras lá um relatório de investigação Web3 com 20k palavras e deixas apenas uma frase: «Guarda isto por mim».
Execução da IA: em segundo plano lê rapidamente; não só gera automaticamente o ficheiro Projeto A_nota_de_IA_para_investigação.md, como também atualiza o teu índice global, index.md; e até vai, por iniciativa própria, adicionar este novo projeto ao teu ficheiro de análise de concorrentes do mesmo segmento que tinhas escrito antes, 赛道竞品分析.md. Lê-se uma vez e há ligação em todo o ecossistema!
Ação 2: perguntas e «capitalização de conhecimento» (Query)
Exemplo com o tipo “lagosta”: perguntas casualmente: «Junta e mistura as 5 minhas mais recentes leituras sobre técnicas de Prompt para grandes modelos e escreve um pequeno copy estilo Xiaohongshu que dê sucesso.» A IA, num instante, puxa os pontos essenciais com alta densidade e escreve-te tudo.
Capitalização de conhecimento: Karpathy sublinha que boas perguntas e boas respostas nunca podem ficar a apanhar pó na caixa de chat! Se achas que este resumo da copy ficou bom, dás simplesmente uma ordem à IA: «Guarda este resumo de volta na Wiki, e cria uma nova página chamada Prompt modelo universal.md.» Isto é uma espécie de «recompra» do conhecimento (Restaking): quanto mais usas, mais espesso fica!
Ação 3: grande limpeza a altas horas (Lint)
Exemplo com o tipo “lagosta”: antes de dormir, instrução: «Faz uma verificação de saúde à base de conhecimento».
Execução da IA: varre globalmente como um robô aspirador. Logo no início do dia seguinte, ela reporta: «Chefe, o mês passado guardaste uma certa ferramenta de IA que agora está a ser cobrada; existe um conflito com a lógica do “guia grátis para se aproveitar” que guardaste ontem. Queres que eu atualize?»
04 Configuração avançada: Obsidian + grande modelo = “外挂” definitivo
No passado, ao tentar guardar memória a longo prazo, não dava para fugir às bases de dados vetoriais complexas — mas para a maioria das pessoas isso é demasiado exigente. Se a pesquisa local não funcionar bem, a experiência é extremamente inútil. Karpathy recomenda a combinação definitiva: Obsidian (software de notas local) + modelo de grandes dimensões.
O Obsidian é como um editor de código; o modelo de grandes dimensões é o teu programador subcontratado. Ao abandonar bases de dados complexas, basta teres dois ficheiros essenciais para reduzir a níveis extremos o consumo de Token:
index.md (esboço global): regista os resumos e ligações de todas as páginas. Sempre que a IA responde uma pergunta, antes de tudo faz uma leitura rápida do índice global, para depois ir buscar de forma precisa as notas correspondentes, sem ter de reler dezenas de milhares de palavras em cada ocasião. Redução de 90% no consumo de Token!
log.md (registo operacional em formato diário): regista, por ordem temporal, o que a IA fez diariamente e em que ficheiros alterou, para poderes «confirmar o plantão» a qualquer momento.
Combinado com o Obsidian — recorte de uma página com um clique no browser e o mapa visual global das estrelas do conhecimento — a base de conhecimento também pode tornar-se visual.
05 Resumo: inicia a tua era de «fazer o conhecimento render»
Na era de explosão de informação de 2026, quem conseguir depositar conhecimento com o menor custo de fricção será capaz de usar o menor número de Token para puxar a maior alavancagem.
Tal como o que Karpathy disponibilizou em aberto desta vez: não é um código rígido e morto, mas sim um «ficheiro de ideologia» escrito para a IA. Só tens de fornecer a ligação do guia ao teu Agent dedicado, e consegues ativar o modo de “ganhar deitado”.
Faz a base de conhecimento mexer, faz com que os Token não acabem, e faz com que a tua lagosta já não seja uma lagosta de olhos revirados que não se deixa criar!