Escucho a menudo que “Las grandes tecnológicas solo buscan el beneficio.”
Quien dice eso no entiende nada.
La verdad de fondo es que estos gigantes no buscan ingresos, quieren controlar modelos, narrativas y mentes.
Bernard Arnault, uno de los hombres más ricos del planeta, dijo una vez:
“Ahora duermo mejor con 2 000 millones de dólares de deuda que con 50 000.”
Para ellos el dinero no es un fin, es una herramienta.
Si una empresa pierde dinero cada año pero logra controlar directamente a sus usuarios, sus decisiones, valores y creencias, no fracasa en absoluto. Es muy rentable en la única moneda que realmente importa: el control.
Solo nosotros seguimos viendo el dinero como objetivo final.
En los niveles altos, el dinero es solo un instrumento. Y más concretamente, un instrumento de control.
El dinero no siempre ha tenido ese papel. Al principio era puro intercambio: frutas, verduras, mercancías.
Después llegó la sal y las especias, más compactas y fáciles de cambiar.
Más tarde, los metales preciosos, monedas de plata y oro, que valían de verdad por su escasez y utilidad.
Hasta ahí, el dinero representaba valor real.
Pero luego pasamos al papel, sin valor intrínseco, y después a algo aún más abstracto: dinero digital, datos en pantalla, imprimible sin límites con un simple clic.
Esta última forma otorga a quienes controlan su creación acceso libre a recursos reales: agua, alimentos, tierra y ahora incluso tiempo y mente humana.
Así que, si una empresa pierde dinero en los libros pero obtiene tu atención, tus pensamientos y tu conducta, no ha perdido nada. Cambia dinero ficticio por recursos humanos auténticos.
Las cifras de OpenAI, Google y Anthropic son una locura.
Pero lo realmente extremo es que esos números no tienen sentido si el objetivo es el beneficio, solo si el objetivo es dominar.
OpenAI generó en torno a 4,3 mil millones de dólares en ingresos en el primer semestre de 2025, con una proyección anual de 10 mil millones. ¿Te parece rentable?
Pero quema 2,5 mil millones en ese mismo periodo. Por cada dólar que gana, gasta 1,60.
Además, recaudó otros 8,3 mil millones en capital, quizá hasta los 40 mil millones. Los inversores saben que no es rentable, y no les importa. ¿Por qué?
Porque el objetivo no es el retorno inmediato, sino encerrar la capa global de inteligencia dentro del ecosistema de OpenAI.
OpenAI incluso firmó un acuerdo multimillonario con AMD, no solo para comprar chips sino para asegurarse acceso a GPU a largo plazo, llegando a adquirir hasta el 10 % de AMD. Es dominación vertical: controlar el cómputo bruto de toda la IA futura.
En IA, solo 3 o 4 empresas dominan por completo el entrenamiento de modelos.
Construir esos modelos cuesta cientos de millones, incluso miles de millones, en cómputo y datos.
Los pequeños no pueden competir, así que esos mismos gigantes tienen una influencia desmesurada sobre cómo “piensa” y “habla” cada IA.
@MTorygreen"">@MTorygreen lo llama Monocultura de la IA:
“Cuando todo el mundo usa los mismos modelos, el contenido online converge hacia el mismo tono, estilo y perspectiva.”
Además de filtrar la diversidad, el sistema crea una sola forma de pensar.
Parece que no quieren que la gente piense por sí misma, ni que tenga ideas personales u opiniones independientes.
Quieren que sigas la narrativa, como ovejas dóciles.
Al controlar los modelos, controlan qué voces se amplifican, cuáles desaparecen y qué ideas se vuelven “verdad.”
No hace falta prohibir discursos: muchas opiniones ni siquiera llegan a ver la luz porque los filtros y los conjuntos de datos las borran antes de nacer.
Como la mayoría de los servicios digitales dependen de los mismos modelos centrales, toda la conversación online se homogeneiza.
El tono, los argumentos y hasta lo “aceptable” acaban reflejando los valores que dictan esas empresas.
Si un modelo se optimiza para “seguridad”, “evitación de riesgos” o “alineación política”, las voces disidentes y los tonos poco convencionales se suavizan, blanquean o desaparecen.
Eso es censura suave por diseño.
Tory Green lo resume: ya no navegamos un internet salvaje y caótico, sino
“una cámara de eco de respuestas aprobadas por las corporaciones.”
Los desarrolladores pequeños que intentan aportar nuevos idiomas, perspectivas minoritarias o matices culturales no tienen opción: no cuentan con el mismo cómputo, datos ni músculo financiero.
En definitiva, no tienen acceso al dinero infinito creado de la nada.
Acabamos en un mundo de muchos espejos que reflejan una sola mente, no de muchas mentes.
Si el problema es el control centralizado de modelos, cómputo y datos, la solución debe invertirlo.
La única alternativa es descentralizar: el cómputo, los modelos y la gobernanza.
Imagina redes de GPU repartidas entre miles de colaboradores, sin control de ninguna nube ni empresa.
Proyectos como "">@ionet ya están construyendo esa visión: comunidades que comparten recursos de cómputo accesibles para desarrolladores independientes.
En lugar de depender de un gigante y su “modelo que lo gobierna todo”, cada comunidad, cultura e idioma podría entrenar su propio modelo que refleje sus valores y visión.
Tory Green propone justo eso: miles de modelos únicos, impulsados por la comunidad, en vez de una monocultura de IA.
Estos modelos comunitarios serían transparentes, auditables y gobernados por los usuarios, así los sesgos y la censura no podrían ocultarse en cajas negras corporativas.
Por supuesto, no es fácil. Competir con esos gigantes exige acceso a los mismos recursos, y eso es casi imposible sin capital infinito.
Pero existe otro poder: el despertar colectivo.
Si suficientes personas comprenden lo que está en juego y unen sus recursos reales, energía, creatividad y colaboración, pueden crear algo mayor que el dinero.
Es difícil, sí. Pero imprescindible.
Si no lo hacemos, el sistema irá a peor y drenará aún más los recursos reales del mundo.
Ya hemos llegado al punto en que incluso nuestra voluntad y nuestra imaginación se están agotando.
Si no reaccionamos ahora… ¿qué recurso será el siguiente?