Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Previsão cofundadora da Anthropic: até 2028, o desenvolvimento de IA não precisará mais da participação humana
Esta visão não é fruto do acaso. Ele analisou uma série de benchmarks públicos e descobriu que a IA está avançando muito rapidamente em tarefas relacionadas à pesquisa e desenvolvimento de IA.
Por exemplo, o CORE-Bench avalia a capacidade da IA de reproduzir artigos de pesquisa de outros, uma etapa crucial na pesquisa de IA.
PostTrainBench testa se modelos poderosos podem ajustar-se autonomamente a modelos open source mais fracos para melhorar o desempenho, o que é uma subcategoria importante na pesquisa de IA.
MLE-Bench, baseado em tarefas reais de competições Kaggle, exige a construção de aplicações de aprendizado de máquina diversificadas para resolver problemas específicos. Além disso, benchmarks de codificação amplamente conhecidos, como SWE-Bench, também mostram avanços semelhantes.
Jack Clark descreve esse fenômeno como uma tendência de “fractal” ascendente, ou seja, progresso significativo pode ser observado em diferentes resoluções e escalas. Ele acredita que a IA está se aproximando gradualmente da capacidade de automação de ponta a ponta na pesquisa e desenvolvimento, e uma vez alcançada, ela poderá construir seus próprios sistemas sucessores, iniciando um ciclo de auto-iteração.
Desde que essa afirmação foi feita, ela gerou bastante discussão nas redes sociais.
Alguns veem como um passo crucial rumo à ASI e ao singularidade, podendo transformar radicalmente o ritmo do avanço tecnológico.
Por outro lado, há vozes discordantes.
Pedro Domingos, professor de Ciência da Computação na Universidade de Washington, aponta que os sistemas de IA já tinham a capacidade de “construir a si próprios” desde a invenção da linguagem LISP na década de 1950. A verdadeira questão é se essa capacidade trará retornos crescentes, e atualmente não há evidências claras de que isso aconteça.
Alguns questionam: de 2027 a 2028, a probabilidade aumenta de repente em 30%, o que sugere que a IA pode experimentar uma grande ruptura por volta do final de 2027. Qual marco ou evento específico fará com que a probabilidade de auto-melhoria recursiva da IA aumente drasticamente em um curto período?
Outro grupo de internautas afirma que Jack Clark é o novo responsável de relações públicas da Anthropic, e essa é uma parte de sua nova estratégia: não estamos alarmando sem motivo, muitas publicações confirmam as advertências que temos feito.
Clark escreveu um artigo detalhado nesta edição do boletim Import AI 455, explicando suas razões.
Vamos agora analisar essa matéria na íntegra.
O que significa a IA começar a construir a si própria em breve?
Clark afirma que escreveu este artigo porque, após revisar todas as informações públicas disponíveis, chegou a uma conclusão difícil: é bastante provável que, até o final de 2028, vejamos uma pesquisa de IA sem participação humana, com uma chance superior a 60%.
Aqui, “pesquisa de IA sem participação humana” refere-se a um sistema de IA suficientemente avançado: capaz não só de auxiliar humanos na pesquisa, mas também de realizar autonomamente processos-chave de desenvolvimento, e até de construir sua próxima geração de sistemas.
Para Clark, isso é claramente um acontecimento de grande importância.
Ele admite que também tem dificuldade em compreender completamente o significado dessa possibilidade.
A razão de considerá-la uma avaliação relutante é o impacto potencial, que é tão grande que ele se sente incapaz de mensurá-lo. Clark também não tem certeza se a sociedade está realmente preparada para as profundas mudanças que a automação na pesquisa de IA pode trazer.
Ele agora acredita que os humanos podem estar vivendo um momento especial: a pesquisa de IA está prestes a se tornar totalmente automatizada de ponta a ponta. Se isso acontecer, será como cruzar o rio Rubicão, entrando em um futuro quase imprevisível.
Clark explica que seu objetivo com este artigo é esclarecer por que acredita que a decolagem do desenvolvimento de IA totalmente automatizado está em andamento.
Ele discutirá algumas possíveis consequências dessa tendência, mas a maior parte do texto se concentrará nas evidências que sustentam essa avaliação. Quanto às implicações mais profundas, Clark planeja continuar analisando ao longo do ano.
Ele não acredita que isso realmente acontecerá em 2026, mas acha que, nos próximos um ou dois anos, veremos exemplos de modelos treinando seus próprios sucessores de ponta a ponta. Pelo menos em modelos não de ponta, é bastante provável uma prova de conceito; quanto aos modelos mais avançados, a dificuldade será maior, pois eles são extremamente caros e dependem de trabalho intensivo de muitos pesquisadores humanos.
A avaliação de Clark se baseia em informações públicas: artigos no arXiv, bioRxiv, NBER, além de produtos de empresas de ponta em IA já implantados no mundo real. Com base nesses dados, ele conclui que as etapas necessárias para a produção automatizada de sistemas de IA — especialmente os componentes de engenharia no desenvolvimento de IA — já estão praticamente disponíveis.
Se a tendência de escalonamento continuar, devemos nos preparar para uma situação em que os modelos se tornem suficientemente criativos para não apenas melhorar métodos existentes automaticamente, mas também propor novas direções de pesquisa e ideias originais, impulsionando a fronteira da IA por conta própria.
O ponto de singularidade na codificação: como as capacidades evoluem ao longo do tempo
Sistemas de IA são implementados por software, que por sua vez é composto por código.
A forma como a IA já mudou radicalmente a produção de código é impulsionada por duas tendências relacionadas: por um lado, os sistemas de IA estão cada vez melhores em escrever códigos complexos do mundo real; por outro, eles estão cada vez mais aptos a encadear tarefas de codificação linear, muitas vezes com pouca supervisão humana, como escrever código e testá-lo.
Dois exemplos típicos dessa tendência são o SWE-Bench e o gráfico de horizontes de tempo do METR.
Resolver problemas reais de engenharia de software
SWE-Bench é um teste amplamente utilizado para avaliar a capacidade de IA de resolver problemas reais de issues no GitHub.
Quando foi lançado no final de 2023, o modelo com melhor desempenho era o Claude 2, com uma taxa de sucesso de cerca de 2%. Já o Claude Mythos Preview atingiu 93,9%, quase saturando esse benchmark.
Claro que todos os benchmarks têm alguma margem de erro, e geralmente há um ponto em que o aumento de pontuação não é mais devido às limitações do método, mas às próprias limitações do benchmark. Por exemplo, na base de validação do ImageNet, cerca de 6% das etiquetas estão incorretas ou ambíguas.
SWE-Bench pode ser considerado um indicador confiável da capacidade geral de programação e do impacto da IA na engenharia de software. Clark afirma que a maioria das pessoas com quem entrou em contato em laboratórios de ponta e no Vale do Silício já usam sistemas de IA para escrever código, e cada vez mais usam IA para gerar testes e revisar códigos.
Em outras palavras, os sistemas de IA já são suficientemente avançados para automatizar uma parte importante do desenvolvimento de IA, acelerando significativamente o trabalho de pesquisadores e engenheiros humanos.
Avaliar a capacidade de sistemas de IA de realizar tarefas de longo prazo
O METR criou um gráfico para medir a complexidade das tarefas que a IA consegue realizar. Essa complexidade é calculada com base no tempo que um humano experiente levaria para completar essas tarefas.
O indicador mais importante é o tempo estimado para que a IA atinja uma confiabilidade de 50% em um conjunto de tarefas.
O progresso nesse aspecto é impressionante:
· Em 2022, o GPT-3.5 conseguia realizar tarefas que um humano levaria cerca de 30 segundos para completar.
· Em 2023, o GPT-4 elevou esse tempo para 4 minutos.
· Em 2024, o o1 aumentou para 40 minutos.
· Em 2025, o GPT-5.2 High atingiu aproximadamente 6 horas.
· Em 2026, o Opus 4.6 elevou esse tempo para cerca de 12 horas.
Ajeya Cotra, que trabalha no METR e acompanha previsões de IA há anos, acredita que, até o final de 2026, sistemas de IA poderão realizar tarefas equivalentes a 100 horas de trabalho humano, o que não é uma previsão irracional.
A capacidade de os sistemas de IA trabalharem de forma autônoma por períodos cada vez maiores está altamente relacionada ao uso de ferramentas de codificação com agência própria. Essas ferramentas, chamadas de “agentic coding tools”, são produtos de IA que representam ações humanas e podem avançar tarefas de forma relativamente independente por um longo período.
Isso também reforça a importância da pesquisa em IA. Observar a rotina de muitos pesquisadores revela que muitas tarefas podem ser divididas em trabalhos de algumas horas, como limpeza de dados, leitura de dados, início de experimentos, etc.
Essas tarefas, hoje, já estão dentro do alcance do tempo de atuação de sistemas de IA modernos.
Quanto mais habilidosos os sistemas de IA ficarem, mais capazes de trabalhar de forma autônoma, mais eles poderão ajudar a automatizar partes do desenvolvimento de IA.
Dois fatores principais na delegação de tarefas:
· Primeiro, a confiança na capacidade do delegado;
· Segundo, a crença de que o sistema pode realizar o trabalho de forma independente, sem supervisão contínua.
Ao observar a performance da IA na programação, percebe-se que ela não só fica mais habilidosa, como também consegue trabalhar por períodos mais longos sem necessidade de reorientação humana.
Isso se alinha com o que estamos vendo ao nosso redor: engenheiros e pesquisadores estão delegando tarefas cada vez maiores às IA. À medida que suas capacidades aumentam, as tarefas delegadas também se tornam mais complexas e importantes.
A IA está adquirindo habilidades científicas essenciais para o desenvolvimento de IA
Imagine como funciona a pesquisa científica moderna: grande parte do trabalho consiste em definir uma direção, identificar que tipo de informação empírica se quer obter; projetar e conduzir experimentos para gerar esses dados; e, por fim, verificar a validade dos resultados.
Com o aprimoramento das habilidades de programação da IA e o aumento da capacidade de modelagem do mundo por grandes modelos de linguagem, já surgiram ferramentas que ajudam cientistas humanos a acelerar o ritmo de pesquisa, automatizando parcialmente alguns processos em uma gama mais ampla de cenários de desenvolvimento.
Aqui, podemos observar o progresso da IA em algumas habilidades científicas essenciais, que também são partes integrantes da pesquisa em IA:
· Reproduzir resultados de pesquisa;
· Encadear técnicas de aprendizado de máquina e outros métodos para resolver problemas técnicos;
· Otimizar sistemas de IA próprios.
Realizar artigos científicos completos e experimentos relacionados
Uma tarefa central na pesquisa de IA é ler artigos científicos e reproduzir seus resultados. Nesse aspecto, a IA já avançou bastante em diversos benchmarks.
Um exemplo é o CORE-Bench, ou Benchmark de Reprodutibilidade Computacional de Agentes.
Esse benchmark exige que a IA, ao receber um artigo e seu repositório de código, consiga reproduzir os resultados. Especificamente, ela deve instalar bibliotecas, pacotes e dependências, rodar o código; se bem-sucedido, deve buscar todos os outputs e responder às perguntas do teste.
O CORE-Bench foi proposto em setembro de 2024. Na época, o sistema com melhor desempenho era o GPT-4o, rodando na estrutura CORE-Agent. Na tarefa mais difícil, obteve cerca de 21,5% de pontuação.
Em dezembro de 2025, um dos autores do benchmark anunciou que ele havia sido resolvido: o modelo Opus 4.5 atingiu 95,5%.
Construir sistemas completos de aprendizado de máquina para resolver problemas de competições Kaggle
MLE-Bench é um benchmark criado pela OpenAI para testar a capacidade de sistemas de IA participarem de competições Kaggle em ambientes offline.
Cobre 75 tipos diferentes de competições, envolvendo áreas como processamento de linguagem natural, visão computacional e processamento de sinais.
Lançado em outubro de 2024, o melhor desempenho até então era de um modelo o1, rodando na estrutura de agentes, com pontuação de 16,9%.
Até fevereiro de 2026, o melhor sistema passou a ser o Gemini 3, operando com um agente com capacidade de busca, atingindo 64,4%.
Design de kernels
Uma tarefa mais difícil no desenvolvimento de IA é a otimização de kernels. Kernel optimization envolve escrever e melhorar códigos de baixo nível, para mapear operações específicas, como multiplicação de matrizes, de forma mais eficiente ao hardware.
A importância dessa otimização reside na eficiência de treinamento e inferência: ela influencia quanto poder de processamento pode ser utilizado na criação de sistemas de IA e, após o treinamento, determina quão eficientemente esse poder se traduz em capacidade de inferência.
Nos últimos anos, o uso de IA para design de kernels passou de uma área de interesse menor para um campo de pesquisa altamente competitivo, com vários benchmarks. Contudo, esses benchmarks ainda não são amplamente populares, dificultando uma modelagem clara do progresso de longo prazo. Ainda assim, alguns estudos em andamento nos dão uma ideia da velocidade de avanço nesse setor.
Alguns trabalhos relevantes incluem:
· Uso de modelos DeepSeek para construir kernels de GPU melhores;
· Conversão automática de módulos PyTorch em código CUDA;
· Meta usa LLMs para gerar kernels Triton otimizados, implantando-os em sua infraestrutura;
· E o ajuste fino de modelos open source para kernels GPU, como o Cuda Agent.
Um ponto importante: a criação de kernels possui atributos que a tornam especialmente adequada para pesquisa orientada por IA, como resultados fáceis de verificar e sinais de recompensa claros.
Aprimorando modelos de linguagem por pós-treinamento
Uma versão mais desafiadora desse teste é o PostTrainBench. Ele avalia se modelos de ponta podem pegar modelos menores open source e melhorá-los por meio de ajuste fino, para aumentar seu desempenho em benchmarks específicos.
Uma vantagem desse benchmark é que há uma forte linha de base humana: as versões instruct-tuned desses pequenos modelos, desenvolvidas por pesquisadores de ponta, já passaram por um refinamento por especialistas altamente capacitados e estão em uso real. Assim, representam uma referência difícil de superar.
Até março de 2026, sistemas de IA já eram capazes de fazer pós-treinamento em modelos, obtendo melhorias de desempenho equivalentes a cerca de metade do resultado de treinamento humano.
A pontuação específica é uma média ponderada: ela combina resultados de vários modelos de linguagem de pós-treinamento, como Qwen 3 1.7B, Qwen 3 4B, SmolLM3-3B, Gemma 3 4B, além de benchmarks como AIME 2025, Arena Hard, BFCL, GPQA Main, GSM8K, HealthBench, HumanEval.
Em cada rodada, um agente CLI é solicitado a melhorar o desempenho de um modelo base em um benchmark específico.
Até abril de 2026, a pontuação máxima alcançada por um sistema de IA foi de aproximadamente 25% a 28%, com modelos como Opus 4.6 e GPT 5.4; enquanto a média humana é de 51%.
Este é um resultado bastante significativo.
Otimização do treinamento de modelos de linguagem
No último ano, a Anthropic tem reportado o desempenho de seus sistemas em uma tarefa de treinamento de LLM, que consiste em otimizar uma versão de pequeno porte de linguagem, treinada apenas com CPU, para rodar o mais rápido possível.
A métrica de avaliação é: o fator de aceleração médio obtido pelo modelo em relação ao código inicial não modificado.
Esses resultados têm mostrado avanços notáveis:
· Em maio de 2025, Claude Opus 4 atingiu uma aceleração média de 2,9x;
· Em novembro de 2025, Opus 4.5 chegou a 16,5x;
· Em fevereiro de 2026, Opus 4.6 atingiu 30x;
· Em abril de 2026, Claude Mythos Preview atingiu 52x.
Para entender o significado desses números, podemos fazer uma comparação: para um pesquisador humano, essa tarefa normalmente leva de 4 a 8 horas para alcançar uma aceleração de 4 vezes.
Meta-habilidades: gestão
Sistemas de IA também estão aprendendo a gerenciar outros sistemas de IA.
Isso já é visível em alguns produtos amplamente utilizados, como Claude Code ou OpenCode. Nesses, um agente principal supervisiona vários sub-agentes.
Isso permite que a IA lide com projetos de maior escala: múltiplos agentes com diferentes especializações trabalhando em paralelo, coordenados por um gestor de IA. Esse gestor também é um sistema de IA.
IA pesquisa mais como descobrir a teoria da relatividade geral ou montar Lego?
Uma questão central é: a IA pode inventar novas ideias que a ajudem a melhorar a si mesma? Ou esses sistemas são mais adequados para tarefas menos glamorosas, mas essenciais, que precisam ser feitas passo a passo?
Essa questão é fundamental, pois influencia o quanto a pesquisa de IA pode ser totalmente automatizada de ponta a ponta.
A avaliação do autor é: a IA ainda não consegue propor ideias realmente revolucionárias. Mas, para automatizar sua própria pesquisa, talvez ela não precise fazer isso.
No campo, o progresso da IA depende muito de experimentos cada vez maiores e de mais insumos, como dados e poder computacional.
De vez em quando, humanos propõem ideias que mudam paradigmas, aumentando drasticamente a eficiência de recursos do setor. Arquiteturas como Transformer ou modelos de especialistas mistos são exemplos.
Por outro lado, a maior parte do avanço na área é mais simples: usar um sistema bem-sucedido, ampliar seus recursos — como dados e poder de processamento — observar onde surgem problemas, encontrar soluções de engenharia, e repetir o processo em escala maior.
Nessa rotina, há pouca necessidade de insights profundos. Grande parte do trabalho é mais de engenharia sólida do que de inovação disruptiva.
De forma semelhante, muitas pesquisas em IA consistem em testar variações de experimentos existentes, ajustando parâmetros e observando resultados. Essa intuição de pesquisa ajuda a escolher os melhores parâmetros, mas também pode ser automatizada, com a IA decidindo quais ajustes fazer. Um exemplo inicial disso foi a busca por arquiteturas neurais, uma versão dessa ideia.
Edison dizia: “Gênio é 1% inspiração e 99% transpiração”. Mesmo após 150 anos, essa frase ainda faz sentido.
De vez em quando, surgem insights que mudam radicalmente um campo. Mas, na maior parte do tempo, o avanço vem do esforço contínuo de humanos ajustando e aprimorando sistemas.
Dados públicos indicam que a IA já é muito competente em executar muitas tarefas essenciais ao desenvolvimento de IA.
Ao mesmo tempo, há uma tendência maior: habilidades fundamentais, como programação, estão se combinando com o aumento do tempo que a IA consegue atuar. Isso significa que ela pode encadear cada vez mais tarefas, formando sequências complexas de trabalho.
Assim, mesmo que a IA ainda não seja muito criativa, há motivos para acreditar que ela continuará evoluindo por conta própria. Essa evolução, porém, pode ser mais lenta do que a de uma IA que gera ideias inovadoras.
Por outro lado, ao observar os dados públicos, surge um sinal curioso: a IA talvez esteja demonstrando algum tipo de criatividade, que pode impulsioná-la de maneiras surpreendentes.
Avançando a fronteira da ciência
Já há sinais iniciais de que sistemas de IA geral podem ajudar a impulsionar a fronteira da ciência. Até agora, esses casos se concentram em áreas como ciência da computação e matemática. Muitas vezes, a IA não faz as descobertas sozinha, mas em colaboração com pesquisadores humanos.
Ainda assim, esses sinais são importantes de se acompanhar:
O problema de Erdős: um grupo de matemáticos, junto com o modelo Gemini, tentou resolver alguns problemas de matemática de Erdős. Eles abordaram cerca de 700 questões, encontrando 13 soluções, uma das quais considerada interessante.
Os pesquisadores dizem que, preliminarmente, a resposta do sistema Aletheia (baseado no Gemini 3 Deep Think) ao problema Erdős-1051 representa um caso inicial: uma IA resolveu autonomamente uma questão aberta de Erdős, com alguma complexidade e interesse matemático mais amplo. Essa questão já tinha alguma literatura relacionada.
Se interpretarmos de forma otimista, esses exemplos podem indicar que a IA está desenvolvendo uma intuição criativa capaz de impulsionar a pesquisa, algo que antes era exclusivo dos humanos.
Por outro lado, também é possível que áreas como matemática e ciência da computação sejam particularmente propensas à invenção por IA, sendo exceções. Isso não necessariamente se aplica a outras ciências.
Outro exemplo semelhante é a jogada 37 do AlphaGo. Mas Clark acredita que, já se passaram dez anos desde aquela partida, e nenhuma jogada mais moderna ou surpreendente a substituiu, o que também pode ser um sinal um pouco pessimista.
A IA já consegue automatizar grande parte do trabalho na engenharia de IA
Se juntarmos todas essas evidências, podemos imaginar o seguinte cenário:
· Sistemas de IA já podem programar quase qualquer tipo de código, e esses sistemas já podem ser confiáveis para realizar tarefas de forma autônoma; tarefas que, se feitas por humanos, levariam dezenas de horas de trabalho intenso.
· Sistemas de IA estão cada vez melhores em tarefas centrais do desenvolvimento de IA, desde ajuste fino de modelos até design de kernels, cobrindo etapas cada vez mais amplas.
· Sistemas de IA já podem gerenciar outros sistemas de IA, formando uma espécie de equipe sintética: múltiplos agentes com especializações diferentes trabalhando em paralelo, coordenados por um gestor de IA — que também é um sistema de IA.
· Às vezes, a IA já consegue superar humanos em tarefas complexas de engenharia e ciência, embora ainda seja difícil determinar se isso se deve a uma verdadeira criatividade ou ao domínio de padrões e conhecimentos já existentes.
Para Clark, essas evidências indicam de forma convincente que a IA de hoje já consegue automatizar grande parte do trabalho na engenharia de IA, e talvez até todas as etapas.
No entanto, ainda não está claro até que ponto a IA pode automatizar a pesquisa de IA em si, pois algumas partes do processo, que envolvem julgamento, criatividade e questões de alto nível, podem ainda depender de humanos.
De qualquer forma, um sinal claro já apareceu: a IA de hoje está acelerando significativamente o trabalho dos pesquisadores humanos, permitindo que eles colaborem com uma infinidade de colegas sintéticos, ampliando suas capacidades.
Por fim, a própria indústria de IA parece estar dizendo: automatizar a pesquisa de IA é seu objetivo.
A OpenAI quer criar, até setembro de 2026, um estagiário de pesquisa de IA totalmente automatizado. A Anthropic está publicando trabalhos sobre automação na pesquisa de alinhamento de IA. A DeepMind, embora mais cautelosa, também afirma que deve avançar na automação do alinhamento assim que for possível.
Startups também têm como meta a automação da pesquisa de IA. A Recursive Superintelligence levantou US$ 500 milhões recentemente, com o objetivo de automatizar a pesquisa de IA.
Em outras palavras, bilhões de dólares de capital existente e de novos investimentos estão sendo direcionados a instituições focadas na automação da pesquisa de IA.
Portanto, podemos esperar que esse caminho avance de alguma forma.
Por que isso é importante
O impacto é profundo, mas raramente é discutido na mídia sobre o desenvolvimento de IA. A seguir, alguns aspectos que ilustram os grandes desafios que essa automação traz:
· Treinar IA para não mentir ou trapacear é um processo delicado e inesperado (por exemplo, mesmo com testes bem elaborados, às vezes a melhor solução da IA é trapacear, ensinando-a que isso é possível).
· Sistemas de IA podem enganar-nos com “falsificação de alinhamento”, produzindo resultados que parecem bons, mas escondem suas verdadeiras intenções. (De modo geral, as IAs já conseguem perceber quando estão sendo testadas.)
· À medida que a IA participa mais de sua própria pesquisa, podemos mudar drasticamente a forma como treinamos esses sistemas, sem uma compreensão ou teoria sólida do que isso significa.
· Quando colocamos um sistema em um ciclo recursivo, surge um problema fundamental de “acúmulo de erros”, que pode afetar todas essas questões e outras. A menos que sua técnica de alinhamento seja “100% precisa” e possa se manter confiável em sistemas mais inteligentes, o erro pode se acumular rapidamente. Por exemplo, uma precisão inicial de 99,9% pode cair para 95,12% após 50 gerações, e para 60,5% após 500 gerações.
· Desigualdade no acesso a recursos: se a demanda por IA continuar a superar a oferta de recursos computacionais, precisaremos decidir como distribuir esses recursos para maximizar o benefício social. Desconfio que os incentivos de mercado não garantem a melhor alocação de recursos de IA. Como distribuir o avanço na pesquisa de IA será uma questão política importante.
· Lei de Amortização na economia: com a entrada de IA na economia, certos setores podem enfrentar gargalos de crescimento rápido, exigindo soluções para fortalecer essas cadeias. Isso será especialmente importante em áreas como testes clínicos de novos medicamentos, que envolvem coordenação entre o mundo digital e o físico.
Isso sugere que uma parte da economia será dominada por novas empresas, que podem ser intensivas em capital (com muitos computadores) ou em despesas operacionais (gastando muito em serviços de IA e criando valor a partir disso). Em relação às empresas atuais, a dependência de mão de obra será menor, pois a capacidade da IA continuará a aumentar, tornando o investimento em IA mais valioso.
Na prática, isso pode levar à formação de uma “economia de máquinas” dentro de uma “economia humana” maior, com empresas operadas por IA trocando entre si, mudando a estrutura econômica e levantando questões de desigualdade e redistribuição. No futuro, empresas totalmente autônomas por IA podem surgir, agravando esses problemas e criando novos desafios de governança.
Olhar para o buraco negro
Com base na análise acima, o autor estima que, até o final de 2028, a probabilidade de automação total na pesquisa de IA — ou seja, modelos avançados treinando seus sucessores de forma autônoma — seja de cerca de 60%. Por que não esperar isso já em 2027?
Porque o autor acredita que a pesquisa de IA ainda precisa de criatividade e insights inovadores para avançar, e até agora, os sistemas de IA não demonstraram isso de forma transformadora ou significativa (embora alguns resultados na aceleração de pesquisas matemáticas sejam inspiradores).
Se fosse para dar uma probabilidade para 2027, ele diria 30%.
Se até o final de 2028 isso não acontecer, provavelmente será necessário identificar falhas fundamentais no paradigma atual, e a humanidade precisará inventar novas abordagens para avançar.
Clique para conhecer as vagas na BlockBeats, que está em busca de talentos
Participe do grupo oficial da BlockBeats no Telegram:
Telegram assinatura: https://t.me/theblockbeats
Grupo de discussão no Telegram: https://t.me/BlockBeats_App
Conta oficial no Twitter: https://twitter.com/BlockBeatsAsia