Últimamente estoy leyendo un libro de 165 páginas. El autor Leopold Aschenbrenner, predijo con precisión hace dos años la tendencia actual del desarrollo de la IA.


Fue despedido de OpenAI en abril de 2024, y en junio escribió este libro, "Situational Awareness", que en esencia es un documento de recaudación de fondos.
En septiembre, fundó su propio fondo de cobertura. Este fondo creció de más de 200 millones de dólares en un año a 5.5 mil millones, un aumento de 24 veces.
El rendimiento neto en la primera mitad de 2025 fue del 47%.
Mientras leía, empecé a preguntarme: ¿cómo puede él?
¿Cómo puede un joven de 22 años, en 2024, describir el mundo de hoy?
Puede ver el futuro porque está en la habitación donde ese futuro está siendo creado.
En su círculo en San Francisco, en el equipo de Superalignment de OpenAI, trabajando directamente bajo el director científico Ilya Sutskever.
Este libro es su homenaje a Ilya.
Cada frase que escribió hace dos años, hoy, al mirarla, casi todas se han cumplido.
Él dice que, en el corto plazo, lo que más falta en la IA no son algoritmos, sino potencia de cálculo, memoria HBM, centros de datos y electricidad.
Él afirma que el verdadero cuello de botella está en el encapsulado avanzado CoWoS.
Él dice que la red eléctrica de EE. UU. será la primera en bloquear a todos.
Él predice que aparecerá un "cluster de billones de dólares".
Luego, todos estos puntos de vista se convirtieron en titulares.
OpenAI llamó a ese cluster Stargate.
En la segunda mitad de 2025, él silenciosamente invirtió en minas de Bitcoin.
No porque confíe en el precio de la moneda, sino porque vio que las fábricas de minería ya tenían contratos de electricidad, centros de datos existentes y enfriamiento de alta potencia.
Las cosas escasas en la era de la IA, las minas de Bitcoin ya las tienen todas.
Los mineros se convertirán en arrendadores de potencia de cálculo de IA.
Su lógica:
Primero, la IA carece de electricidad.
Segundo, quienes controlan la electricidad son los más escasos.
Tercero, aquellos que ya controlan la electricidad y son subestimados por el mercado, son las minas de oro.
Pero todo esto aún es solo un aperitivo. En su libro escribe una frase:
En 2027, llegará la AGI (Inteligencia Artificial General).
La lógica es así: en los últimos cuatro años, la IA ha pasado de ser un "niño en preescolar" como GPT-2, a un "estudiante de secundaria inteligente" como GPT-4.
Y en otros cuatro años, dice, la IA podrá reemplazar a los investigadores humanos y entrenar a otras IA por sí misma.
Una vez que la IA pueda investigar a la IA, la iteración de algoritmos de la humanidad en diez años, en un año estará completada.
La "explosión de inteligencia" comenzará en ese momento.
Para entonces, los humanos ya no entenderán qué está haciendo la IA.
El código que escribe, las decisiones que toma.
¿Cómo podemos saber que no nos está engañando?
Leopold propone en su libro tres recetas.
Uno, supervisión débil y fuerte.
Usar una IA con capacidades limitadas, comprensible para los humanos, para supervisar a la IA fuerte, que supera a la humana.
Se apuesta a que la IA débil aún puede detectar si la fuerte está haciendo trampa.
Leopold mismo es coautor de ese artículo.
Dos, debate entre IA.
Hacer que varias IA se desafíen, se critiquen, se descubran errores mutuamente.
Los humanos solo actúan como jueces silenciosos, usando las inconsistencias para identificar a la mentirosa.
Tres, interpretabilidad mecánica.
Durante el entrenamiento, eliminar primero los parámetros peligrosos.
Luego, abrir la "cabeza" de la IA y ver qué está pensando.
Crear un "detector de mentiras de IA", para encontrar la "verdad" en su interior.
Leopold también dice que esta es una tarea de nivel moonshot, extremadamente difícil.
Al llegar a este punto, entendí por qué termina con una foto de Oppenheimer.
Lo ve como un nuevo Manhattan Project en marcha.
Él mismo admite que estas tres rutas, en esencia, solo son "una improvisación".
Ninguna resuelve realmente el problema.
Solo esperan que la humanidad pueda aguantar hasta que el problema de alineación sea resuelto por la propia IA, en el futuro.
Lo que estamos haciendo ahora no es "resolver la seguridad de la IA", sino "esperar que la IA resuelva nuestra seguridad".
¿No suena un poco como una relación amorosa problemática?
Sabiendo que algo no está bien, pero aún apostando a que cambiará.
Volviendo a la inversión, la parte más valiosa de este libro no es la fecha específica de 2027 para la AGI.
El margen de error es grande, puede ser un año más tarde o medio año antes.
Lo más valioso es que explica claramente toda la cadena de cuellos de botella en la industria de la IA durante la próxima década:
Electricidad > Encapsulado avanzado / HBM > Potencia de cálculo > Algoritmos > Aplicaciones.
Cuanto más arriba, más escaso; cuanto más abajo, más concurrido.
Leopold mismo, con dinero real, ha verificado esto en el mercado abierto.
Al cerrar el libro, pensé:
Algunos libros, si los lees un año antes, pueden cambiar tu destino.
Afortunadamente, aún no es tarde.
"Nos vemos en el desierto, amigo."
BTC-1,3%
Ver original
post-image
post-image
post-image
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 1
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
GateUser-e7da0219
· hace1h
Oh
Ver originalResponder0
  • Anclado