Últimamente estoy leyendo un libro de 165 páginas. El autor Leopold Aschenbrenner, quien hace dos años predijo con precisión las tendencias actuales del AI.


Fue despedido de OpenAI en abril de 2024, y en junio escribió este libro, "Situational Awareness", que en esencia es un documento de recaudación de fondos. En septiembre, fundó su propio fondo de cobertura. Este fondo creció de más de 200 millones de dólares en un año a 5.5 mil millones, un aumento de 24 veces. El rendimiento neto en la primera mitad de 2025 fue del 47%.
Mientras leía, empecé a preguntarme, ¿con qué autoridad? ¿Por qué un joven de 22 años puede en 2024 escribir sobre el mundo de hoy?
Puede ver el futuro porque está en la habitación donde ese futuro está siendo creado. En su círculo en San Francisco, en el equipo de Superalignment de OpenAI, trabajando directamente bajo el director científico Ilya Sutskever. Este libro es su homenaje a Ilya.
Cada frase que escribió hace dos años, hoy, al mirarla en retrospectiva, casi se ha cumplido una por una.
Él dice que, en el corto plazo, lo que más falta en el AI no son algoritmos, sino potencia de cálculo, memoria HBM, centros de datos y electricidad.
Él afirma que el verdadero cuello de botella está en el encapsulado avanzado CoWoS.
Él dice que la red eléctrica de EE. UU. se convertirá en la primera barrera que detenga a todos.
Él predice que aparecerá un "cluster de billones de dólares". Más tarde, todos estos puntos de vista se convirtieron en titulares.
OpenAI nombró ese cluster como Stargate.
Pero todo eso aún es solo el aperitivo. En el libro, escribe una frase:
Para 2027, llegará la AGI (Inteligencia Artificial General).
La lógica es así. En los últimos cuatro años, el AI ha pasado de ser un "niño en preescolar" como GPT-2, a un "estudiante de secundaria inteligente" como GPT-4. Y en otros cuatro años, dice, el AI podrá reemplazar a los investigadores humanos, entrenando AI por sí mismo.
Una vez que el AI pueda investigar su propia especie, podrá completar en un año las iteraciones de algoritmos que los humanos han hecho en diez. La "explosión de inteligencia" comenzará en ese momento.
Para entonces, los humanos ya no entenderán qué está haciendo el AI. El código que escribe, las decisiones que toma. ¿Cómo podemos saber que no nos está engañando?
Leopold en el libro propone tres recetas.
1. Supervisión débil y fuerte. Usar un AI con capacidades limitadas, pero comprensible para los humanos, para supervisar ese AI fuerte que supera a los humanos. La apuesta es que el AI débil aún puede detectar si el fuerte está haciendo trampa. Leopold mismo es coautor de este artículo.
2. Debate entre AIs. Hacer que varios AI se desafíen, se critiquen, se descubran errores mutuamente. Los humanos solo actúan como jueces silenciosos, usando las inconsistencias entre ellos para identificar al mentiroso.
3. Interpretabilidad mecánica. Durante el entrenamiento, eliminar primero los parámetros peligrosos. Luego, abrir directamente la "cabeza" del AI para ver qué está pensando. Crear un "detector de mentiras de AI", para encontrar la "verdad" en su interior. Leopold también dice que esta es una tarea de nivel moonshot, extremadamente difícil.
Al llegar a este punto, entendí por qué termina usando una foto de Oppenheimer. Lo ve como una especie de nuevo Proyecto Manhattan.
Él mismo admite que estas tres estrategias, en conjunto, solo son "una solución provisional". No resuelven realmente el problema. Solo apuestan a que la humanidad pueda aguantar hasta que el problema de alineación sea externalizado y resuelto por el propio AI.
Lo que estamos haciendo ahora no es "resolver la seguridad del AI", sino "esperar que el AI resuelva la seguridad del AI por nosotros".
¿No suena un poco como estar en una relación amorosa que no funciona?
Sabiendo que algo está mal, pero aún apostando a que cambiará.
Volviendo a la inversión, la parte más valiosa de este libro no es la fecha específica de 2027 para la AGI. La margen de error es grande, puede ser un año más tarde o medio año antes.
Lo que realmente vale la pena es que explica claramente toda la cadena de cuellos de botella en la industria del AI durante la próxima década:
Electricidad > Encapsulado avanzado / HBM > Potencia de cálculo > Algoritmos > Aplicaciones.
Cuanto más arriba, más escaso, cuanto más abajo, más saturado.
Leopold mismo, con su dinero, ha verificado esto en el mercado abierto.
Al cerrar el libro, pensé:
Algunos libros, si los lees un año antes, pueden cambiar tu destino.
Por suerte, todavía no es tarde.
"Nos vemos en el desierto, amigo."
Ver original
post-image
post-image
post-image
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado