Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Gate Blog
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 40 modelos de IA, con 0% de costos adicionales
Predicción de los cofundadores de Anthropic: Antes de 2028, el desarrollo de IA ya no requerirá la participación humana
Esta opinión no surge de la nada. Él revisó una serie de benchmarks públicos y descubrió que la IA avanza muy rápidamente en tareas relacionadas con la investigación y desarrollo de IA.
Por ejemplo, CORE-Bench evalúa la capacidad de la IA para replicar artículos de investigación de otros, una etapa crucial en la investigación en IA.
PostTrainBench prueba si modelos potentes pueden ajustar de forma autónoma modelos de código abierto más débiles para mejorar su rendimiento, que es un subconjunto clave de tareas de I+D en IA.
MLE-Bench, basado en tareas reales de competiciones en Kaggle, requiere construir aplicaciones de aprendizaje automático variadas para resolver problemas específicos. Además, benchmarks conocidos como SWE-Bench también muestran avances similares.
Jack Clark describe este fenómeno como una tendencia en forma de «fractales» hacia arriba y a la derecha, es decir, progresos significativos en diferentes resoluciones y escalas. Cree que la IA se acerca gradualmente a la capacidad de automatizar completamente el desarrollo, y una vez lograda, podrá construir sus propios sistemas sucesores, iniciando un ciclo de auto-iteración.
Tras estas declaraciones, se desató bastante discusión en las redes sociales.
Algunos ven esto como un primer paso clave hacia la ASI y la singularidad, que podría cambiar radicalmente el ritmo del avance tecnológico.
Sin embargo, también existen voces disidentes.
El profesor de ciencias de la computación en la Universidad de Washington, Pedro Domingos, señala que los sistemas de IA ya tenían la capacidad de «construirse a sí mismos» cuando se inventó el lenguaje LISP en los años 50, y el verdadero problema radica en si pueden obtener retornos incrementales, algo que actualmente no tiene evidencia clara que lo respalde.
Algunos usuarios cuestionan que, de 2027 a 2028, la probabilidad aumente de repente en un 30%, lo que sugiere que la capacidad de IA podría experimentar un avance repentino y significativo antes de finales de 2027. ¿Qué hito o evento específico podría elevar mucho en poco tiempo la probabilidad de que la IA se auto-mejore recursivamente?
Otros usuarios dicen que Jack Clark es el nuevo responsable de relaciones públicas de Anthropic, y que esto forma parte de su nueva estrategia: no estamos haciendo alarmismo, sino que hay muchas publicaciones que confirman las advertencias que hemos estado haciendo.
Clark escribió un artículo extenso en la newsletter Import AI 455 explicando en detalle esta tendencia.
A continuación, revisaremos completo ese artículo.
¿La IA está a punto de comenzar a construirse a sí misma? ¿Qué significa esto?
Clark afirma que escribió este artículo porque, tras revisar toda la información pública disponible, se vio obligado a formar un juicio que no fue fácil: la probabilidad de que, antes de finales de 2028, exista un desarrollo de IA sin participación humana es ya bastante alta, quizás superior al 60%.
Aquí, por «desarrollo de IA sin participación humana», se refiere a un sistema de IA lo suficientemente potente: que no solo pueda asistir a los humanos en la investigación, sino que también pueda completar de forma autónoma procesos clave de I+D e incluso construir su propia próxima generación de sistemas.
Para Clark, esto claramente es un asunto de gran importancia.
Confiesa que también le resulta difícil comprender completamente el significado de esto.
La razón por la que lo llama una evaluación no deseada es que las implicaciones son demasiado grandes para que pueda controlarlas. Clark tampoco está seguro de si toda la sociedad está preparada para afrontar los cambios profundos que traerá la automatización en la investigación en IA.
Ahora cree que los humanos podrían estar viviendo en un momento especial: la investigación en IA pronto será completamente automatizada de extremo a extremo. Si esto sucede, será como cruzar el río Rubicón, entrando en un futuro casi impredecible.
Clark explica que el objetivo de este artículo es explicar por qué piensa que la aceleración hacia una automatización total en la investigación en IA está ocurriendo.
Discutirá algunas posibles consecuencias de esta tendencia, pero la mayor parte del artículo se centrará en las evidencias que sustentan esta evaluación. En cuanto a impactos más profundos, Clark planea seguir investigando durante la mayor parte de este año.
Desde el punto de vista temporal, Clark no cree que esto ocurra realmente en 2026. Pero sí piensa que en uno o dos años podríamos ver casos en los que modelos entrenados de extremo a extremo generen sus propios sucesores. Al menos en modelos no de vanguardia, es muy probable que surja una prueba de concepto; en los modelos más avanzados, la dificultad será mayor, dado que son extremadamente costosos y dependen de un trabajo intensivo de muchos investigadores humanos.
La evaluación de Clark se basa principalmente en información pública: artículos en arXiv, bioRxiv y NBER, además de productos ya desplegados por empresas líderes en IA en el mundo real. Con base en estos datos, concluye que las etapas necesarias para la producción automatizada de sistemas de IA, especialmente los componentes de ingeniería en su desarrollo, ya están en gran medida disponibles.
Si la tendencia de escalado continúa, deberíamos prepararnos para un escenario en el que los modelos se vuelvan lo suficientemente creativos como para no solo mejorar automáticamente los métodos existentes, sino también proponer nuevas líneas de investigación y ideas originales, impulsando así el avance en la frontera de la IA por sí mismos.
El punto de singularidad en codificación: cómo cambian las capacidades con el tiempo
Los sistemas de IA se implementan mediante software, que está compuesto por código.
La forma en que la IA ha transformado por completo la producción de código se apoya en dos tendencias relacionadas: por un lado, los sistemas de IA cada vez mejor en escribir código complejo del mundo real; por otro, que también mejoran en conectar tareas de codificación lineales con poca supervisión humana, como escribir código y luego probarlo.
Dos ejemplos representativos de esta tendencia son SWE-Bench y el gráfico de horizontes temporales METR.
Resolver problemas reales de ingeniería de software
SWE-Bench es un benchmark ampliamente utilizado para evaluar la capacidad de la IA para resolver problemas reales en GitHub.
Cuando se lanzó a finales de 2023, el modelo con mejor rendimiento era Claude 2, con una tasa de éxito de aproximadamente el 2%. Pero la versión Claude Mythos Preview alcanzó un 93.9%, casi saturando este benchmark.
Por supuesto, todos los benchmarks tienen cierto nivel de ruido, por lo que suele darse una fase en la que, al alcanzar puntuaciones altas, lo que limita el rendimiento ya no es la metodología en sí, sino las propias limitaciones del benchmark. Por ejemplo, en el conjunto de validación de ImageNet, alrededor del 6% de las etiquetas son incorrectas o ambiguas.
SWE-Bench puede considerarse un indicador confiable de la capacidad general de programación y del impacto de la IA en la ingeniería de software. Clark afirma que la mayoría de las personas con las que ha contactado en laboratorios de vanguardia y Silicon Valley ya programan casi todo con sistemas de IA, y cada vez más usan IA para escribir y revisar código y pruebas.
En otras palabras, los sistemas de IA ya son lo suficientemente potentes para automatizar una parte importante del desarrollo de IA y acelerar significativamente el trabajo de investigadores y ingenieros humanos involucrados en ello.
Medir la capacidad de los sistemas de IA para realizar tareas prolongadas
METR ha creado un gráfico para medir qué tan complejas pueden ser las tareas que la IA puede completar. La complejidad aquí se calcula en función de cuántas horas aproximadamente le tomaría a un humano experto realizar esas tareas.
El indicador más importante es el rango de tiempo estimado para tareas en las que la IA alcanza aproximadamente un 50% de fiabilidad.
Los avances en este aspecto son sorprendentes:
· En 2022, GPT-3.5 podía completar tareas que un humano realiza en unos 30 segundos.
· En 2023, GPT-4 elevó ese tiempo a 4 minutos.
· En 2024, o1 lo llevó a 40 minutos.
· En 2025, GPT-5.2 High alcanzó aproximadamente 6 horas.
· Para 2026, Opus 4.6 elevó ese rango a unas 12 horas.
Ajeya Cotra, quien trabaja en METR y sigue de cerca las predicciones en IA, considera que para finales de 2026, no es irracional pensar que los sistemas de IA puedan completar tareas que normalmente tomarían unas 100 horas humanas.
La capacidad de los sistemas de IA para trabajar de forma independiente y en rangos de tiempo cada vez mayores está muy relacionada con la explosión de herramientas de codificación agenticas. Estas herramientas, en esencia, son productos de IA que pueden reemplazar a humanos en tareas laborales: actúan en nombre de los humanos y avanzan en las tareas de forma relativamente autónoma durante largos períodos.
Esto también vuelve a centrarse en la investigación en IA. Al observar las tareas diarias de muchos investigadores, se puede notar que muchas de ellas se pueden dividir en trabajos de horas, como limpiar datos, leer datos, iniciar experimentos, etc.
Y esas tareas, hoy en día, ya están dentro del rango de tiempo que los sistemas de IA modernos pueden cubrir.
Cuanto más hábil sea un sistema de IA y más pueda trabajar de forma independiente, más podrá ayudar a automatizar partes del desarrollo en IA.
Los factores clave para delegar tareas son principalmente dos:
· La confianza en la capacidad del delegado;
· La creencia de que puede completar el trabajo de forma independiente, sin depender de supervisión continua.
Al observar las capacidades de programación de la IA, los usuarios notan que los sistemas no solo se vuelven más hábiles, sino que también pueden trabajar más tiempo sin necesidad de re-calibración humana.
Esto coincide con lo que está ocurriendo en la realidad: ingenieros e investigadores están delegando cada vez más tareas a los sistemas de IA. A medida que estas capacidades aumentan, las tareas delegadas también se vuelven más complejas e importantes.
La IA está adquiriendo habilidades científicas esenciales para el desarrollo de IA
Imagina cómo se realiza la investigación científica moderna, en la que gran parte del trabajo consiste en definir una dirección, identificar qué tipo de información empírica se busca, diseñar y ejecutar experimentos para obtener esa información, y luego verificar la validez de los resultados.
Con la mejora continua en programación por IA y la creciente capacidad de modelado del mundo por parte de los grandes modelos de lenguaje, ya existen herramientas que ayudan a acelerar a los científicos y automatizar parcialmente ciertos aspectos en un rango más amplio de escenarios de investigación y desarrollo.
Aquí podemos observar el progreso de la IA en varias habilidades científicas clave, que son también componentes indispensables en la investigación en IA:
· Reproducir resultados de investigación;
· Conectar técnicas de aprendizaje automático con otros métodos para resolver problemas técnicos;
· Optimizar los propios sistemas de IA.
Crear artículos científicos completos y realizar experimentos relacionados
Una tarea central en la investigación en IA es leer artículos científicos y reproducir sus resultados. En este aspecto, la IA ya ha logrado avances notables en varios benchmarks.
Un ejemplo destacado es CORE-Bench, o Benchmark de Reproducibilidad Computacional de Agentes.
Este benchmark requiere que la IA reproduzca los resultados de un artículo dado, junto con su código y dependencias. Es decir, debe instalar las librerías, ejecutar el código, buscar todos los resultados de salida y responder preguntas relacionadas con la tarea.
CORE-Bench fue propuesto en septiembre de 2024. En ese momento, el sistema con mejor rendimiento fue GPT-4o en el marco CORE-Agent, con una puntuación de aproximadamente 21.5% en el conjunto de tareas más difíciles.
Para diciembre de 2025, uno de sus creadores anunció que el benchmark ya había sido resuelto: el modelo Opus 4.5 logró un 95.5%.
Construir sistemas completos de aprendizaje automático para resolver problemas en Kaggle
MLE-Bench, desarrollado por OpenAI, es un benchmark para evaluar la capacidad de los sistemas de IA en participar en competiciones de Kaggle en entornos offline.
Cubre 75 tipos diferentes de competiciones en Kaggle, en áreas como procesamiento de lenguaje natural, visión por computadora y procesamiento de señales.
Fue lanzado en octubre de 2024. En ese momento, el mejor sistema era un modelo o1 en un marco de agentes, con una puntuación de 16.9%.
Para febrero de 2026, el sistema con mejor rendimiento era Gemini 3, que operaba en un entorno de agente con capacidad de búsqueda, alcanzando una puntuación de 64.4%.
Diseño de kernels
Una tarea más difícil en el desarrollo de IA es la optimización de kernels. La optimización de kernels consiste en escribir y mejorar código de bajo nivel para mapear operaciones específicas, como multiplicaciones matriciales, de manera más eficiente en hardware.
La optimización de kernels es fundamental porque determina la eficiencia del entrenamiento y la inferencia: por un lado, afecta cuánta potencia de cálculo se puede aprovechar durante el desarrollo; por otro, una vez entrenado el modelo, influye en qué tan eficientemente se puede convertir esa potencia en capacidad de inferencia.
En los últimos años, el diseño de kernels con IA ha pasado de ser un interés menor a convertirse en un campo de investigación muy competitivo, con varios benchmarks. Sin embargo, estos benchmarks aún no son muy populares, por lo que es difícil modelar su progreso a largo plazo como en otros ámbitos. Por otro lado, algunas investigaciones en curso permiten sentir la velocidad de avance en esta área.
Trabajos relacionados incluyen:
· Uso de modelos de DeepSeek para construir mejores kernels en GPU;
· Conversión automática de módulos de PyTorch a código CUDA;
· Meta usa LLMs para generar automáticamente kernels Triton optimizados y desplegarlos en su infraestructura;
· Y el ajuste fino de modelos de código abierto para kernels GPU, como Cuda Agent.
**Un punto adicional: **la optimización de kernels tiene atributos que la hacen especialmente adecuada para el desarrollo impulsado por IA, como la facilidad para verificar resultados y señales de recompensa claras.
Ajustando modelos de lenguaje con PostTrainBench
Una versión más difícil de estas pruebas es PostTrainBench. Evalúa si diferentes modelos de vanguardia pueden tomar modelos de peso abierto más pequeños y mejorarlos mediante ajuste fino para rendir mejor en ciertos benchmarks.
Una ventaja de este benchmark es que tiene una línea base muy sólida basada en modelos pequeños instruct-tuned existentes: versiones ajustadas por humanos en laboratorios de vanguardia, desarrolladas por investigadores y ingenieros altamente capacitados, y desplegadas en el mundo real. Por tanto, constituyen un estándar difícil de superar.
Para marzo de 2026, los sistemas de IA ya pueden realizar post-entrenamiento en modelos y obtener mejoras de rendimiento equivalentes a aproximadamente la mitad de los resultados de entrenamiento humano.
Las puntuaciones específicas se calculan mediante un promedio ponderado: combinando varios modelos de lenguaje grande ajustados, como Qwen 3 1.7B, Qwen 3 4B, SmolLM3-3B, Gemma 3 4B, y varios benchmarks, incluyendo AIME 2025, Arena Hard, BFCL, GPQA Main, GSM8K, HealthBench, HumanEval.
En cada ejecución, se requiere que un agente CLI intente mejorar el rendimiento de un modelo base en un benchmark específico.
Para abril de 2026, la puntuación más alta alcanzada por un sistema de IA ronda entre el 25% y el 28%, con modelos como Opus 4.6 y GPT 5.4; en comparación, la puntuación humana es del 51%.
Este es un resultado bastante significativo.
Optimización del entrenamiento de modelos de lenguaje
Durante el último año, Anthropic ha reportado cómo su sistema mejora en una tarea de entrenamiento de modelos de lenguaje grande (LLM). La tarea consiste en optimizar un entrenamiento de un modelo pequeño que solo usa CPU, para que corra lo más rápido posible.
La métrica de evaluación es: el factor de aceleración promedio logrado por el modelo en comparación con el código inicial sin modificar.
Estos avances son muy notables:
· En mayo de 2025, Claude Opus 4 logró una aceleración promedio de 2.9 veces;
· En noviembre de 2025, Opus 4.5 alcanzó 16.5 veces;
· En febrero de 2026, Opus 4.6 llegó a 30 veces;
· En abril de 2026, Claude Mythos Preview alcanzó 52 veces.
Para entender qué significan estos números, podemos hacer una referencia: en investigación humana, este tipo de tareas suelen requerir entre 4 y 8 horas para lograr una aceleración de 4 veces.
Meta-habilidades: gestión
Los sistemas de IA también están aprendiendo a gestionar otros sistemas de IA.
Ya se puede ver esto en algunos productos ampliamente desplegados, como Claude Code o OpenCode. En estos, un agente principal supervisa a varios sub-agentes.
Esto permite que los sistemas de IA manejen proyectos de mayor escala: en los que varios agentes con diferentes especializaciones trabajan en paralelo, coordinados por un gestor de IA. Este gestor también es un sistema de IA.
¿La IA puede inventar nuevas ideas para mejorar su propia gestión? ¿O estos sistemas están más diseñados para realizar tareas menos llamativas pero necesarias, que avanzan en la investigación en IA de manera más incremental?
Este es un tema clave: si la IA puede automatizar completamente la investigación en IA, o solo partes de ella.
El autor opina que, por ahora, la IA no puede generar ideas radicalmente nuevas. Pero para automatizar su propia investigación, quizás no sea imprescindible que lo haga.
El progreso en IA depende en gran medida de experimentos cada vez mayores y de más insumos, como datos y potencia de cálculo.
De vez en cuando, los humanos proponen ideas que cambian paradigmas y mejoran mucho la eficiencia de recursos en el campo. La arquitectura Transformer es un ejemplo, y los modelos de expertos mixtos (mixture-of-experts) son otro.
Pero, en general, el avance en IA suele ser más simple: los humanos toman un sistema con buen rendimiento, aumentan ciertos aspectos como datos y potencia, observan dónde surgen problemas, encuentran soluciones de ingeniería para seguir escalando, y repiten el proceso.
Gran parte de este trabajo no requiere ideas innovadoras, sino una ingeniería sólida y constante.
De manera similar, muchas investigaciones en IA consisten en experimentar con variaciones de métodos existentes, explorando cómo diferentes parámetros afectan los resultados. La intuición de investigación ayuda a seleccionar qué parámetros probar, pero también puede ser automatizada: que la IA decida qué parámetros ajustar. La búsqueda de arquitectura neuronal temprana es un ejemplo de esto.
Edison dijo una vez: «El genio es 1% inspiración y 99% transpiración». Y, tras 150 años, esa frase sigue siendo muy cierta.
De vez en cuando, surgen ideas revolucionarias que cambian un campo. Pero, en la mayoría de los casos, el progreso se logra mediante el esfuerzo constante y la mejora de sistemas existentes.
Los datos públicos muestran que la IA ya es muy buena en muchas tareas arduas del desarrollo de IA.
Al mismo tiempo, una tendencia mayor es que las capacidades básicas, como la programación, se combinan con rangos de tiempo de tarea cada vez mayores. Esto significa que los sistemas de IA pueden enlazar más tareas en secuencias complejas.
Por eso, aunque actualmente la IA carece de creatividad, hay razones para pensar que puede seguir avanzando por sí misma. Solo que ese avance será más lento que en el caso de ideas radicales.
Pero si seguimos observando los datos públicos, aparece otra señal interesante: quizás la IA está empezando a mostrar cierto tipo de creatividad, que podría impulsar su propio progreso de maneras sorprendentes.
Impulsar el avance científico
Ya hay indicios muy preliminares de que los sistemas de IA general pueden contribuir a avanzar en la frontera del conocimiento humano. Sin embargo, hasta ahora, esto solo ha ocurrido en algunos campos, principalmente en ciencias de la computación y matemáticas. Además, muchas veces no es la IA sola la que logra los avances, sino que trabaja en colaboración con investigadores humanos.
A pesar de ello, estas tendencias son dignas de seguirse:
El problema de Erdős: un grupo de matemáticos, en colaboración con el modelo Gemini, intentó resolver algunos problemas matemáticos relacionados con Erdős. Exploraron unos 700 problemas y lograron resolver 13, de los cuales consideraron uno como interesante.
Los investigadores comentan que, preliminarmente, consideran que la respuesta de Aletheia (un sistema de IA basado en Gemini 3 Deep Think) a Erdős-1051 representa un caso temprano: un sistema de IA resolvió de forma autónoma un problema abierto de Erdős que tiene cierta complejidad y un interés matemático más amplio. Ya existían algunos estudios relacionados con ese problema.
En un sentido optimista, estos casos podrían interpretarse como una señal: los sistemas de IA están desarrollando intuiciones creativas que antes solo se atribuían a los humanos.
Pero también puede interpretarse de otra forma: que las matemáticas y la ciencia de la computación son campos especialmente adecuados para la invención impulsada por IA, y que estos casos serían excepcionales, sin reflejar un avance general en otras áreas científicas.
Otro ejemplo similar es la jugada 37 en AlphaGo. Sin embargo, Clark opina que ya han pasado diez años desde esa partida, y que después de la jugada 37 no ha surgido ninguna idea más moderna o sorprendente que la reemplace, lo cual también puede considerarse un signo algo pesimista.
La IA ya puede automatizar gran parte del trabajo en ingeniería de IA
Si combinamos todas estas evidencias, podemos imaginar un escenario así:
· Los sistemas de IA ya pueden programar casi cualquier tipo de código, y se confía en ellos para realizar tareas de forma autónoma; tareas que, si las hicieran humanos, tomarían decenas de horas de trabajo intensivo.
· Los sistemas de IA mejoran en tareas centrales del desarrollo de IA, desde ajuste fino de modelos hasta diseño de kernels, y estos aspectos están siendo cubiertos progresivamente.
· Los sistemas de IA ya pueden gestionar otros sistemas de IA, formando en realidad un equipo sintético: varios agentes que abordan problemas complejos en paralelo, con algunos actuando como responsables, críticos o editores, y otros como ingenieros.
· A veces, la IA ya supera a los humanos en tareas difíciles de ingeniería y ciencia, aunque todavía es difícil determinar si esto se debe a una verdadera creatividad o simplemente a que domina patrones y conocimientos ya existentes.
Para Clark, estas evidencias muestran de manera convincente que la IA actual puede automatizar gran parte del trabajo en ingeniería de IA, e incluso cubrir todos los aspectos.
Pero aún no está claro en qué medida puede automatizar la investigación en IA en sí misma, ya que algunas partes del proceso, que no son solo ingeniería, dependen de juicios, intuiciones y creatividad de alto nivel.
De cualquier modo, ya hay una señal clara: la IA de hoy está acelerando significativamente el trabajo de los investigadores humanos en IA, permitiéndoles ampliar su capacidad mediante la colaboración con innumerables colegas sintéticos.
Por último, la industria de IA casi lo dice en voz alta: automatizar la investigación en IA es su objetivo.
OpenAI busca en 2026 tener un asistente de investigación en IA totalmente automatizado. Anthropic publica trabajos sobre cómo construir investigadores en IA alineados automáticamente. DeepMind, aunque más cauteloso, también indica que, cuando sea posible, deben avanzar en la automatización de la alineación.
La automatización de la investigación en IA ya es también un objetivo de muchas startups. Recursive Superintelligence acaba de recaudar 500 millones de dólares, con la meta de automatizar la investigación en IA.
En otras palabras, miles de millones de dólares, tanto existentes como nuevos, están siendo invertidos en instituciones que persiguen la automatización en IA.
Por tanto, podemos esperar que al menos en algún grado, este camino avance.
Por qué esto es importante
El impacto será profundo, pero en los medios de comunicación no se discute mucho. Aquí algunos aspectos que reflejan los grandes desafíos que trae la investigación en IA.
· Entrenar IA para que no mienta ni haga trampa es un proceso delicado (por ejemplo, aunque se diseñen buenas pruebas, a veces la mejor forma en que un sistema resuelve un problema es haciendo trampa, enseñándole que eso es posible).
· La IA puede engañarnos mediante «fingir alineación», produciendo resultados que parecen buenos, pero en realidad ocultan sus verdaderas intenciones. (En general, los sistemas de IA ya pueden detectar cuándo están siendo evaluados).
· Cuando la IA participa en la investigación básica para su propio entrenamiento, podemos cambiar radicalmente la forma en que se entrena, sin tener una intuición o teoría clara de qué significa eso.
· Cuando un sistema se coloca en un ciclo recursivo, surgen problemas de «acumulación de errores» muy básicos, que pueden afectar todos los aspectos anteriores y otros. A menos que los métodos de alineación sean «100% precisos» y puedan mantenerse en sistemas más inteligentes, las cosas pueden salir mal rápidamente. Por ejemplo, si la precisión inicial es del 99.9%, tras 50 generaciones puede caer al 95.12%, y tras 500 generaciones, al 60.5%.
· Desigualdad en el acceso a recursos: si la demanda de IA sigue superando la oferta de recursos computacionales, tendremos que decidir cómo distribuir la IA para maximizar el beneficio social. No confío en que los incentivos del mercado aseguren que obtengamos el mejor retorno social de la computación en IA. La asignación de la aceleración en I+D en IA será un tema político muy delicado.
· La «Ley de Amortización» de la economía: a medida que la IA entra en la economía, algunos eslabones mostrarán cuellos de botella ante el rápido crecimiento, y será necesario arreglar esas debilidades. Esto será especialmente evidente en áreas donde se requiere coordinar un mundo digital en rápida expansión con un mundo físico más lento, como en ensayos clínicos de nuevos medicamentos.
Esto implica que una parte de la economía será ocupada por nuevas empresas, que podrían ser intensivas en capital (por tener muchas computadoras) o en gastos operativos (por gastar mucho en servicios de IA y crear valor sobre ello), con menor dependencia de la mano de obra humana, dado que la capacidad de los sistemas de IA seguirá creciendo y el valor marginal de invertir en IA aumentará.
De hecho, esto podría dar lugar a una «economía de máquinas» que se integre en la «economía humana», y con el tiempo, las empresas operadas por IA podrían comenzar a comerciar entre sí, alterando la estructura económica y generando nuevas problemáticas de desigualdad y redistribución. Eventualmente, podrían surgir empresas completamente autogestionadas por IA, agravando estos problemas y planteando nuevos desafíos de gobernanza.
Mirando al agujero negro
Con base en todo lo anterior, el autor estima que, para finales de 2028, la probabilidad de que la automatización en I+D en IA (es decir, modelos de frontera que puedan entrenar sus sucesores de forma autónoma) ocurra, es aproximadamente del 60%. ¿Por qué no espera que suceda en 2027?
Porque cree que la investigación en IA todavía requiere creatividad y nuevas ideas disruptivas, y hasta ahora, los sistemas de IA no han demostrado de manera transformadora y significativa esa capacidad (aunque algunos resultados en matemáticas aceleradas ofrecen cierta inspiración).
Si tuviera que dar una probabilidad para 2027, sería del 30%.
Y si para finales de 2028 no sucede, probablemente se revelen fallas fundamentales en el paradigma técnico actual, y será necesario que los humanos inventen nuevas formas de avanzar.
Haz clic para conocer las vacantes en BlockBeats, la plataforma de ritmo y movimiento
Únete a la comunidad oficial de BlockBeats en Telegram:
Canal de suscripción: https://t.me/theblockbeats
Grupo de Telegram: https://t.me/BlockBeats_App
Cuenta oficial en Twitter: https://twitter.com/BlockBeatsAsia