La información es poder: la IA no ha matado la verdad, solo ha hecho que la verdad sea irrelevante

Escribir: No entender la economía, también el Rust de Uncle

5 de abril de 2026, domingo. El presidente de Estados Unidos, Trump, publicó en su plataforma social Truth Social un mensaje que parecía una última advertencia.

“¡Martes, 8 de la noche, hora del Este!”

Si Irán no reabre el estrecho de Ormuz, bombardeará sus plantas eléctricas y puentes. Dos días después, añadió: “Toda la civilización iraní morirá esta noche”. Horas más tarde, anunció un alto el fuego de dos semanas.

¿Quién responde más rápido a este tipo de mensajes?

Es la embajada de Irán en Zimbabue. Escribieron en X: “Las 8 de la noche no son muy convenientes. ¿Podría ser entre la 1 y las 2 de la tarde, o entre la 1 y las 2 de la madrugada? Gracias por su atención a este asunto importante.”

La frase final, “Gracias por su atención a este asunto importante”, imita el estilo de firma de Trump.

Un país siendo bombardeado responde con un chiste.

Esto no es un caso aislado. La embajada de Irán en Tailandia respondió a la amenaza de Trump de “bombear Irán de vuelta a la Edad de Piedra” con una imagen generada por IA: Trump vestido con pieles sentado en una cueva. La embajada en Sudáfrica publicó una serie de fotos de generales militares estadounidenses tachados, con la leyenda: “El cambio de régimen se completó con éxito.” Los tachados no son generales iraníes, sino altos oficiales militares estadounidenses despedidos por el secretario de Defensa, Pete Hegseth.

Mientras tanto, un equipo llamado “Explosive Media” está produciendo en masa animaciones Lego con IA. Trump, las fuerzas armadas de EE. UU., y las fuerzas militares iraníes se convierten en pequeños muñecos de plástico amarillo. Uno de sus videos de rap los llama “perdedores” y “marionetas” del primer ministro israelí Netanyahu, y ha acumulado millones de reproducciones en redes sociales globales.

La Casa Blanca tampoco se queda quieta. Su cuenta oficial en X publicó un video generado por IA que muestra al régimen iraní como una botella de bolos, derribada por un ataque del ejército estadounidense. Un alto funcionario de la Casa Blanca dijo a Politico:

“Amigos, estamos creando memes virales día y noche.”

Otro funcionario agregó que los videos de guerra contra Irán de la Casa Blanca han tenido “más de 3 mil millones de exposiciones” en línea.

3 mil millones.

Detente un segundo y piensa. Esto es una guerra real. Hay bombas reales, civiles heridos, interrupciones en el suministro de petróleo. Pero en el espacio de información pública, parece una competencia de memes. Una superpotencia y un país bombardeado se atacan en la misma plataforma, usando el mismo idioma: los memes.

Eso es 2026 en el paisaje informativo. La información ya no es solo una descripción de la realidad. Es, en sí misma, un campo de batalla.

La esencia de la brecha informativa no está en la información misma

Un punto de inflexión en la percepción de una era: lo que antes no era problema, ahora es un problema fundamental

El verdadero objetivo del flujo de información no es engañarte

La mayoría entiende las “noticias falsas” en un marco simple: alguien dice mentiras, alguien cree en ellas, y eso causa daño. La respuesta natural es: verificar hechos, exponer mentiras, mejorar la alfabetización mediática del público.

Pero ese marco ya está obsoleto.

El objetivo final de la guerra de información moderna nunca ha sido hacerte creer en una mentira específica. Su meta es que la distinción entre “verdadero” y “falso” se vuelva un aspecto que ya no te importe.

Hannah Arendt (una de las filósofas políticas más importantes del siglo XX, autora de “Los orígenes del totalitarismo”) escribió en 1951:

“El ideal de los súbditos en un régimen totalitario no son los nazis firmes ni los comunistas inquebrantables, sino aquellos cuya distinción entre hechos y ficción, entre verdad y mentira, ha desaparecido.”

Describe la maquinaria de propaganda totalitaria del siglo XX. Setenta y cinco años después, la IA está convirtiendo esa predicción en una experiencia cotidiana para cada usuario de teléfono en el mundo, con una eficiencia inimaginable.

George Orwell, mucho antes, en 1943, en “Revisión de la guerra civil española”, escribió:

“La noción de verdad objetiva está desapareciendo del mundo. Las mentiras serán recordadas en los libros de historia.”

Se refería a la Alemania nazi. Pero hoy, no se necesita un Estado totalitario para impulsar ese proceso. Basta un algoritmo.

Garry Kasparov, campeón mundial de ajedrez y luego activista político, lo expresó aún más claramente:

“El objetivo de la propaganda moderna no es solo engañarte o promover una agenda. Es agotar tu pensamiento crítico, eliminar la verdad misma.”

Agotar. No vencer, sino agotar. Esa precisión en la palabra.

La IA ya ha desmantelado en nivel técnico la base para distinguir lo verdadero de lo falso

Lo que antes parecía una reflexión filosófica, ahora es un hecho.

Las señales en la era de la IA ya se han invertido.

Antes, una foto sin marcas digitales indicaba que era original, sin manipulación. En 2026, la ausencia de marcas digitales puede significar que nunca fue capturada por una cámara, sino que fue generada por IA desde el principio. El sistema de señales de autenticidad ha cambiado por completo. Es como una película en negativo, invertida.

Lo más peligroso son los “híbridos”.

Recientemente, WIRED publicó un reportaje profundo titulado “Internet ha destruido todos los ‘detectores de falsificación’”, citando a Henk van Ess, un formador en periodismo de investigación en los Países Bajos. Él señala que lo más difícil de identificar no son las imágenes completamente generadas por IA, sino los híbridos: 95% reales, 5% manipulados.

Una foto, con metadatos auténticos, ruido de sensor real, física de luz real. La manipulación solo está en un pequeño detalle: un parche en el uniforme, un arma en la mano, una ligera sustitución facial. Los detectores a nivel de píxel pueden decir que es verdadera, porque en la mayoría de los aspectos, lo es. La parte falsa puede ser solo una pulgada cuadrada.

“Todos los métodos de verificación anteriores se basaban en la premisa: la imagen es un registro de un evento,” dice Van Ess. “Los medios generados por IA rompen esa premisa desde la raíz.”

Henry Ajder, investigador en deepfakes y consultor para Adobe y otras empresas, va aún más lejos. Él dice que la IA ya no es algo que se pueda detectar a simple vista; está integrada en nuestro contenido diario. La era en que un dedo torcido o texto ilegible delata una falsificación terminó. Los nuevos contenidos generados por IA parecen completamente creíbles.

¿Y los detectores? La frase de Ajder es: “Los detectores nunca deben ser la única señal para juzgar la veracidad.” No son motores de la verdad. Incluso los mejores fallan con frecuencia. La mayoría solo ofrecen un “puntaje de confianza” inexplicado. ¿85% verdadero? ¿62% falso? Esos números no dicen nada.

¿Por qué los inteligentes están huyendo de las redes sociales?

La revista The Atlantic afirma: la era de las redes sociales ya terminó, pero lo que la reemplaza es peor.

Mientras tanto, las puertas de la verificación se cierran.

El 4 de abril de 2026, Planet Labs anunció el cierre indefinido de sus imágenes satelitales en Irán y en zonas de conflicto en Oriente Medio. Es uno de los principales proveedores de imágenes satelitales para reportajes de conflictos. La orden vino del gobierno de EE. UU., con efecto desde el 9 de marzo.

El secretario de Defensa, Hegseth, respondió con franqueza: “La inteligencia de código abierto no es el lugar para determinar hechos.”

En otras palabras: no necesitas verlo tú mismo, nosotros te diremos qué pasa.

Además, según el informe de referencia de tráfico y amenazas en línea de 2026, el tráfico automatizado en internet ya representa el 51% del total, creciendo 8 veces más rápido que el tráfico humano. Estos bots no solo distribuyen contenido, sino que priorizan la difusión de contenido viral de baja calidad. La creación de contenido sintético va en aumento, la verificación todavía va en calzado.

Por un lado, la maquinaria de falsificación funciona a toda velocidad. Por otro, las puertas de la verificación se cierran. No es una competencia justa. Uno acelera, el otro se desmantela.

El espectro de McLuhan: ¿por qué el “ambiente” es más poderoso que la “realidad”?

Aquí, muchos pueden pensar que el problema ya es grave. Pero no. La colapsación técnica en la verificación es solo la punta del iceberg. Lo que hay debajo es aún mayor y más difícil de afrontar.

El profeta digital que Uncle siempre admiró, Marshall McLuhan, en 1964 en “Understanding Media”, propuso una frase que cambió toda la comunicación: “El medio es el mensaje.”

Muchos interpretan esto como “el canal de comunicación es importante”. Es un error grave y una subestimación.

La verdadera intención de McLuhan era: el medio, antes de que puedas evaluar conscientemente el contenido, ya ha remodelado tu percepción en niveles más profundos.

La televisión no necesita transmitir un programa específico para cambiarte. La forma misma de la televisión altera la forma en que los humanos entienden el mundo. La imprenta no necesita imprimir un libro específico para crear nacionalismo. La imprenta hizo posible la difusión masiva de un idioma común, y ese hecho generó identidad nacional.

Hoy: los contenidos generados por IA no necesitan engañarte en una sola ocasión. Solo necesitan existir en gran volumen, y ya habrán desplazado tu estado mental predeterminado de “lo que veo probablemente sea real” a “todo lo que veo puede ser falso”.

Este cambio en la percepción en sí mismo es un efecto de las armas informativas. Afecta a todos, sin importar su IQ, nivel educativo o postura.

Recientemente, leí un artículo sobre la fusión entre medios y máquinas, que lleva a McLuhan un paso más allá, proponiendo una nueva fórmula:

En la era de los grandes modelos de lenguaje, el medio es la información, y el medio es la máquina.

El lenguaje natural ahora es tanto la interfaz de interacción humano-máquina como la infraestructura básica. Escribir es construir, construir es escribir. Código y cultura emergen de la misma fuente. La fusión de medio y máquina forma un bucle de Moebius: el medio crea la máquina, la máquina crea el medio, en un ciclo infinito.

En el campo de batalla de la guerra de memes en Irán, esta ecuación se puede ampliar aún más.

¿Por qué el video Lego de la embajada de Irán funciona? No por el contenido. Es solo una sátira burda, con casi nada de información. Funciona porque la forma del medio misma es un ataque.

Generado por IA, nativo en plataformas, optimizado para compartir. Los memes de guerra de la Casa Blanca siguen la misma lógica. “El presidente crea memes” en sí mismo es información.

No transmite políticas específicas, sino un metadato: las reglas ya no existen, la seriedad ya no existe, ese “orden” que creías tener ya no existe.

El profesor de historia de la Universidad Texas A&M, Gregory Daddis, con más de 20 años en el ejército, lo explicó claramente en una entrevista: el estilo de las redes sociales de Trump casi solo sirve a su base política interna: “El público que piensa que Kid Rock y el secretario de Salud, Kennedy, son geniales en un sauna. No es una forma seria de diplomacia.”

Pero Irán claramente aprendió. Philip Smyth, experto en organizaciones proxy iraníes, señala que las herramientas de IA ayudan a Irán y China a cerrar la brecha cultural, permitiéndoles crear contenido de propaganda que impacta a audiencias occidentales, incluso si los creadores no están familiarizados con la cultura occidental.

Un video de propaganda de IA publicado por CCTV China muestra a los estadounidenses como águilas blancas y a los iraníes como gatos persas. El video fue traducido, retransmitido y reportado por medios principales en todo el mundo.

El medio es la información, el medio es la máquina. Y en el contexto bélico, se puede añadir un igual más: el medio es el arma.

¿Sigues rastreando 5000 influencers con IA? Pero tu mundo se está estrechando

¿Cuál es el activo más valioso hoy? Wall Street ha lanzado directamente a los analistas al estrecho de Ormuz.

¿Por qué los cerebros más brillantes de Silicon Valley están revisitando a una sola persona?

¿Qué reciben los individuos de estos medios armados?

Un artículo reciente en The Financial Times plantea una visión contraintuitiva: el impacto de las redes sociales en las opiniones está sobreestimado. “No todos los que leen la Biblia se vuelven cristianos, ni todos los que leen The Guardian se vuelven de izquierda.” La gente desconfía mucho más de la información aleatoria en redes sociales que de los medios tradicionales y autoritarios.

A simple vista, parece defender las redes sociales.

Pero en realidad revela algo más profundo. Lo que la gente obtiene en redes sociales no es “información”, sino una especie de “ambiente” (vibes). No necesitas creer en un mensaje falso en particular. Solo necesitas absorber cierta atmósfera, bombardeado por cientos de mensajes: enojada, ansiosa, nihilista.

Este es, precisamente, la validación más precisa de la predicción de McLuhan en 2026: el impacto del medio no ocurre en el nivel del “contenido”, sino en la “estructura perceptual”. Crees que estás leyendo, juzgando, pensando racionalmente. Pero el medio ya ha cambiado tu forma de percibir el mundo antes de que puedas juzgar. Como dijo McLuhan, el medio es el masaje.

Crees que eliges en qué confiar. Pero en realidad, solo estás absorbiendo la atmósfera.

La atmósfera es el dominio

¿Cómo sucede exactamente el “agotamiento” que Kasparov mencionó en el ajedrez?

Imagina tu consumo diario de información. Abres el teléfono y ves una imagen impactante. No sabes si es verdadera. Quieres verificar, pero ¿cómo? La búsqueda inversa en Google Lens, Yandex y TinEye da tres resultados diferentes. La falta de coincidencias ya no significa “es original”; puede que nunca haya sido capturada por una cámara, sino generada por IA. El sistema de señales de autenticidad ha cambiado por completo. Es como una película en negativo, invertida.

Lo más peligroso son los “híbridos”.

WIRED publicó un reportaje profundo titulado “Internet ha destruido todos los ‘detectores de falsificación’”, citando a Henk van Ess, formador en periodismo de investigación en los Países Bajos. Él dice que lo más difícil de detectar no son las imágenes completamente generadas por IA, sino los híbridos: 95% reales, 5% manipulados.

Una foto, con metadatos auténticos, ruido de sensor real, física de luz real. La manipulación solo está en un pequeño detalle: un parche en el uniforme, un arma en la mano, una ligera sustitución facial. Los detectores a nivel de píxel pueden decir que es verdadera, porque en la mayoría de los aspectos, lo es. La parte falsa puede ser solo una pulgada cuadrada.

“Todos los métodos de verificación anteriores se basaban en la premisa: la imagen es un registro de un evento,” dice Van Ess. “Los medios generados por IA rompen esa premisa desde la raíz.”

Henry Ajder, investigador en deepfakes y consultor para Adobe y otras empresas, va aún más lejos. Él dice que la IA ya no es algo que se pueda detectar a simple vista; está integrada en nuestro contenido diario. La era en que un dedo torcido o texto ilegible delata una falsificación terminó. Los nuevos contenidos generados por IA parecen completamente creíbles.

¿Y los detectores? La frase de Ajder es: “Los detectores nunca deben ser la única señal para juzgar la veracidad.” No son motores de la verdad. Incluso los mejores fallan con frecuencia. La mayoría solo ofrecen un “puntaje de confianza” inexplicado. ¿85% verdadero? ¿62% falso? Esos números no dicen nada.

¿Por qué los inteligentes están huyendo de las redes sociales?

La revista The Atlantic afirma: la era de las redes sociales ya terminó, pero lo que la reemplaza es peor.

Mientras tanto, las puertas de la verificación se cierran.

El 4 de abril de 2026, Planet Labs anunció el cierre indefinido de sus imágenes satelitales en Irán y en zonas de conflicto en Oriente Medio. Es uno de los principales proveedores de imágenes satelitales para reportajes de conflictos. La orden vino del gobierno de EE. UU., con efecto desde el 9 de marzo.

El secretario de Defensa, Hegseth, respondió con franqueza: “La inteligencia de código abierto no es el lugar para determinar hechos.”

En otras palabras: no necesitas verlo tú mismo, nosotros te diremos qué pasa.

Además, según el informe de referencia de tráfico y amenazas en línea de 2026, el tráfico automatizado en internet ya representa el 51% del total, creciendo 8 veces más rápido que el tráfico humano. Estos bots no solo distribuyen contenido, sino que priorizan la difusión de contenido viral de baja calidad. La creación de contenido sintético va en aumento, la verificación todavía va en calzado.

Por un lado, la maquinaria de falsificación funciona a toda velocidad. Por otro, las puertas de la verificación se cierran. No es una competencia justa. Uno acelera, el otro se desmantela.

El espectro de McLuhan: ¿por qué el “ambiente” es más poderoso que la “realidad”?

Aquí, muchos pueden pensar que el problema ya es grave. Pero no. La colapsación técnica en la verificación es solo la punta del iceberg. Lo que hay debajo es aún mayor y más difícil de afrontar.

El profeta digital que Uncle siempre admiró, Marshall McLuhan, en 1964 en “Understanding Media”, propuso una frase que cambió toda la comunicación: “El medio es el mensaje.”

Muchos interpretan esto como “el canal de comunicación es importante”. Es un error grave y una subestimación.

La verdadera intención de McLuhan era: el medio, antes de que puedas evaluar conscientemente el contenido, ya ha remodelado tu percepción en niveles más profundos.

La televisión no necesita transmitir un programa específico para cambiarte. La forma misma de la televisión altera la forma en que los humanos entienden el mundo. La imprenta no necesita imprimir un libro específico para crear nacionalismo. La imprenta hizo posible la difusión masiva de un idioma común, y ese hecho generó identidad nacional.

Hoy: los contenidos generados por IA no necesitan engañarte en una sola ocasión. Solo necesitan existir en gran volumen, y ya habrán desplazado tu estado mental predeterminado de “lo que veo probablemente sea real” a “todo lo que veo puede ser falso”.

Este cambio en la percepción en sí mismo es un efecto de las armas informativas. Afecta a todos, sin importar su IQ, nivel educativo o postura.

Recientemente, leí un artículo sobre la fusión entre medios y máquinas, que lleva a McLuhan un paso más allá, proponiendo una nueva fórmula:

En la era de los grandes modelos de lenguaje, el medio es la información, y el medio es la máquina.

El lenguaje natural ahora es tanto la interfaz de interacción humano-máquina como la infraestructura básica. Escribir es construir, construir es escribir. Código y cultura emergen de la misma fuente. La fusión de medio y máquina forma un bucle de Moebius: el medio crea la máquina, la máquina crea el medio, en un ciclo infinito.

En el campo de batalla de la guerra de memes en Irán, esta ecuación se puede ampliar aún más.

¿Por qué el video Lego de la embajada de Irán funciona? No por el contenido. Es solo una sátira burda, con casi nada de información. Funciona porque la forma del medio misma es un ataque.

Generado por IA, nativo en plataformas, optimizado para compartir. Los memes de guerra de la Casa Blanca siguen la misma lógica. “El presidente crea memes” en sí mismo es información.

No transmite políticas específicas, sino un metadato: las reglas ya no existen, la seriedad ya no existe, ese “orden” que creías tener ya no existe.

El profesor de historia de la Universidad Texas A&M, Gregory Daddis, con más de 20 años en el ejército, lo explicó claramente en una entrevista: el estilo de las redes sociales de Trump casi solo sirve a su base política interna: “El público que piensa que Kid Rock y el secretario de Salud, Kennedy, son geniales en un sauna. No es una forma seria de diplomacia.”

Pero Irán claramente aprendió. Philip Smyth, experto en organizaciones proxy iraníes, señala que las herramientas de IA ayudan a Irán y China a cerrar la brecha cultural, permitiéndoles crear contenido de propaganda que impacta a audiencias occidentales, incluso si los creadores no están familiarizados con la cultura occidental.

Un video de propaganda de IA publicado por CCTV China muestra a los estadounidenses como águilas blancas y a los iraníes como gatos persas. El video fue traducido, retransmitido y reportado por medios principales en todo el mundo.

El medio es la información, el medio es la máquina. Y en el contexto bélico, se puede añadir un igual más: el medio es el arma.

¿Sigues rastreando 5000 influencers con IA? Pero tu mundo se está estrechando

¿Cuál es el activo más valioso hoy? Wall Street ha lanzado directamente a los analistas al estrecho de Ormuz.

¿Por qué los cerebros más brillantes de Silicon Valley están revisitando a una sola persona?

¿Qué reciben los individuos de estos medios armados?

Un artículo reciente en The Financial Times plantea una visión contraintuitiva: el impacto de las redes sociales en las opiniones está sobreestimado. “No todos los que leen la Biblia se vuelven cristianos, ni todos los que leen The Guardian se vuelven de izquierda.” La gente desconfía mucho más de la información aleatoria en redes sociales que de los medios tradicionales y autoritarios.

A simple vista, parece defender las redes sociales.

Pero en realidad revela algo más profundo. Lo que la gente obtiene en redes sociales no es “información”, sino una especie de “ambiente” (vibes). No necesitas creer en un mensaje falso en particular. Solo necesitas absorber cierta atmósfera, bombardeado por cientos de mensajes: enojada, ansiosa, nihilista.

Este es, precisamente, la validación más precisa de la predicción de McLuhan en 2026: el impacto del medio no ocurre en el nivel del “contenido”, sino en la “estructura perceptual”. Crees que estás leyendo, juzgando, pensando racionalmente. Pero el medio ya ha cambiado tu forma de percibir el mundo antes de que puedas juzgar. Como dijo McLuhan, el medio es el masaje.

Crees que eliges en qué confiar. Pero en realidad, solo estás absorbiendo la atmósfera.

La atmósfera es el dominio

¿Cómo sucede exactamente el “agotamiento” que Kasparov mencionó en el ajedrez?

Imagina tu consumo diario de información. Abres el teléfono y ves una imagen impactante. No sabes si es verdadera. Quieres verificar, pero ¿cómo? La búsqueda inversa en Google Lens, Yandex y TinEye da tres resultados diferentes. La falta de coincidencias ya no significa “es original”; puede que nunca haya sido capturada por una cámara, sino generada por IA desde el principio. El sistema de señales de autenticidad ha cambiado por completo. Es como una película en negativo, invertida.

Lo más peligroso son los “híbridos”.

WIRED publicó un reportaje profundo titulado “Internet ha destruido todos los ‘detectores de falsificación’”, citando a Henk van Ess, formador en periodismo de investigación en los Países Bajos. Él dice que lo más difícil de detectar no son las imágenes completamente generadas por IA, sino los híbridos: 95% reales, 5% manipulados.

Una foto, con metadatos auténticos, ruido de sensor real, física de luz real. La manipulación solo está en un pequeño detalle: un parche en el uniforme, un arma en la mano, una ligera sustitución facial. Los detectores a nivel de píxel pueden decir que es verdadera, porque en la mayoría de los aspectos, lo es. La parte falsa puede ser solo una pulgada cuadrada.

“Todos los métodos de verificación anteriores se basaban en la premisa: la imagen es un registro de un evento,” dice Van Ess. “Los medios generados por IA rompen esa premisa desde la raíz.”

Henry Ajder, investigador en deepfakes y consultor para Adobe y otras empresas, va aún más lejos. Él dice que la IA ya no es algo que se pueda detectar a simple vista; está integrada en nuestro contenido diario. La era en que un dedo torcido o texto ilegible delata una falsificación terminó. Los nuevos contenidos generados por IA parecen completamente creíbles.

¿Y los detectores? La frase de Ajder es: “Los detectores nunca deben ser la única señal para juzgar la veracidad.” No son motores de la verdad. Incluso los mejores fallan con frecuencia. La mayoría solo ofrecen un “puntaje de confianza” inexplicado. ¿85% verdadero? ¿62% falso? Esos números no dicen nada.

¿Por qué los inteligentes están huyendo de las redes sociales?

La revista The Atlantic afirma: la era de las redes sociales ya terminó, pero lo que la reemplaza es peor.

Mientras tanto, las puertas de la verificación se cierran.

El 4 de abril de 2026, Planet Labs anunció el cierre indefinido de sus imágenes satelitales en Irán y en zonas de conflicto en Oriente Medio. Es uno de los principales proveedores de imágenes satelitales para reportajes de conflictos. La orden vino del gobierno de EE. UU., con efecto desde el 9 de marzo.

El secretario de Defensa, Hegseth, respondió con franqueza: “La inteligencia de código abierto no es el lugar para determinar hechos.”

En otras palabras: no necesitas verlo tú mismo, nosotros te diremos qué pasa.

Además, según el informe de referencia de tráfico y amenazas en línea de 2026, el tráfico automatizado en internet ya representa el 51% del total, creciendo 8 veces más rápido que el tráfico humano. Estos bots no solo distribuyen contenido, sino que priorizan la difusión de contenido viral de baja calidad. La creación de contenido sintético va en aumento, la verificación todavía va en calzado.

Por un lado, la maquinaria de falsificación funciona a toda velocidad. Por otro, las puertas de la verificación se cierran. No es una competencia justa. Uno acelera, el otro se desmantela.

El espectro de McLuhan: ¿por qué el “ambiente” es más poderoso que la “realidad”?

Aquí, muchos pueden pensar que el problema ya es grave. Pero no. La colapsación técnica en la verificación es solo la punta del iceberg. Lo que hay debajo es aún mayor y más difícil de afrontar.

El profeta digital que Uncle siempre admiró, Marshall McLuhan, en 1964 en “Understanding Media”, propuso una frase que cambió toda la comunicación: “El medio es el mensaje.”

Muchos interpretan esto como “el canal de comunicación es importante”. Es un error grave y una subestimación.

La verdadera intención de McLuhan era: el medio, antes de que puedas evaluar conscientemente el contenido, ya ha remodelado tu percepción en niveles más profundos.

La televisión no necesita transmitir un programa específico para cambiarte. La forma misma de la televisión altera la forma en que los humanos entienden el mundo. La imprenta no necesita imprimir un libro específico para crear nacionalismo. La imprenta hizo posible la difusión masiva de un idioma común, y ese hecho generó identidad nacional.

Hoy: los contenidos generados por IA no necesitan engañarte en una sola ocasión. Solo necesitan existir en gran volumen, y ya habrán desplazado tu estado mental predeterminado de “lo que veo probablemente sea real” a “todo lo que veo puede ser falso”.

Este cambio en la percepción en sí mismo es un efecto de las armas informativas. Afecta a todos, sin importar su IQ, nivel educativo o postura.

Recientemente, leí un artículo sobre la fusión entre medios y máquinas, que lleva a McLuhan un paso más allá, proponiendo una nueva fórmula:

En la era de los grandes modelos de lenguaje, el medio es la información, y el medio es la máquina.

El lenguaje natural ahora es tanto la interfaz de interacción humano-máquina como la infraestructura básica. Escribir es construir, construir es escribir. Código y cultura emergen de la misma fuente. La fusión de medio y máquina forma un bucle de Moebius: el medio crea la máquina, la máquina crea el medio, en un ciclo infinito.

En el campo de batalla de la guerra de memes en Irán, esta ecuación se puede ampliar aún más.

¿Por qué el video Lego de la embajada de Irán funciona? No por el contenido. Es solo una sátira burda, con casi nada de información. Funciona porque la forma del medio misma es un ataque.

Generado por IA, nativo en plataformas, optimizado para compartir. Los memes de guerra de la Casa Blanca siguen la misma lógica. “El presidente crea memes” en sí mismo es información.

No transmite políticas específicas, sino un metadato: las reglas ya no existen, la seriedad ya no existe, ese “orden” que creías tener ya no existe.

El profesor de historia de la Universidad Texas A&M, Gregory Daddis, con más de 20 años en el ejército, lo explicó claramente en una entrevista: el estilo de las redes sociales de Trump casi solo sirve a su base política interna: “El público que piensa que Kid Rock y el secretario de Salud, Kennedy, son geniales en un sauna. No es una forma seria de diplomacia.”

Pero Irán claramente aprendió. Philip Smyth, experto en organizaciones proxy iraníes, señala que las herramientas de IA ayudan a Irán y China a cerrar la brecha cultural, permitiéndoles crear contenido de propaganda que impacta a audiencias occidentales, incluso si los creadores no están familiarizados con la cultura occidental.

Un video de propaganda de IA publicado por CCTV China muestra a los estadounidenses como águilas blancas y a los iraníes como gatos persas. El video fue traducido, retransmitido y reportado por medios principales en todo el mundo.

El medio es la información, el medio es la máquina. Y en el contexto bélico, se puede añadir un igual más: el medio es el arma.

¿Sigues rastreando 5000 influencers con IA? Pero tu mundo se está estrechando

¿Cuál es el activo más valioso hoy? Wall Street ha lanzado directamente a los analistas al estrecho de Ormuz.

¿Por qué los cerebros más brillantes de Silicon Valley están revisitando a una sola persona?

¿Qué reciben los individuos de estos medios armados?

Un artículo reciente en The Financial Times plantea una visión contraintuitiva: el impacto de las redes sociales en las opiniones está sobreestimado. “No todos los que leen la Biblia se vuelven cristianos, ni todos los que leen The Guardian se vuelven de izquierda.” La gente desconfía mucho más de la información aleatoria en redes sociales que de los medios tradicionales y autoritarios.

A simple vista, parece defender las redes sociales.

Pero en realidad revela algo más profundo. Lo que la gente obtiene en redes sociales no es “información”, sino una especie de “ambiente” (vibes). No necesitas creer en un mensaje falso en particular. Solo necesitas absorber cierta atmósfera, bombardeado por cientos de mensajes: enojada, ansiosa, nihilista.

Este es, precisamente, la validación más precisa de la predicción de McLuhan en 2026: el impacto del medio no ocurre en el nivel del “contenido”, sino en la “estructura perceptual”. Crees que estás leyendo, juzgando, pensando racionalmente. Pero el medio ya ha cambiado tu forma de percibir el mundo antes de que puedas juzgar. Como dijo McLuhan, el medio es el masaje.

Crees que eliges en qué confiar. Pero en realidad, solo estás absorbiendo la atmósfera.

La atmósfera es el dominio

¿Cómo sucede exactamente el “agotamiento” que Kasparov mencionó en el ajedrez?

Imagina tu consumo diario de información. Abres el teléfono y ves una imagen impactante. No sabes si es verdadera. Quieres verificar, pero ¿cómo? La búsqueda inversa en Google Lens, Yandex y TinEye da tres resultados diferentes. La falta de coincidencias ya no significa “es original”; puede que nunca haya sido capturada por una cámara, sino generada por IA desde el principio. El sistema de señales de autenticidad ha cambiado por completo. Es como una película en negativo, invertida.

Lo más peligroso son los “híbridos”.

WIRED publicó un reportaje profundo titulado “Internet ha destruido todos los ‘detectores de falsificación’”, citando a Henk van Ess, formador en periodismo de investigación en los Países Bajos. Él dice que lo más difícil de detectar no son las imágenes completamente generadas por IA, sino los híbridos: 95% reales, 5% manipulados.

Una foto, con metadatos auténticos, ruido de sensor real, física de luz real. La manipulación solo está en un pequeño detalle: un parche en el uniforme, un arma en la mano, una ligera sustitución facial. Los detectores a nivel de píxel pueden decir que es verdadera, porque en la mayoría de los aspectos, lo es. La parte falsa puede ser solo una pulgada cuadrada.

“Todos los métodos de verificación anteriores se basaban en la premisa: la imagen es un registro de un evento,” dice Van Ess. “Los medios generados por IA rompen esa premisa desde la raíz.”

Henry Ajder, investigador en deepfakes y consultor para Adobe y otras empresas, va aún más lejos. Él dice que la IA ya no es algo que se pueda detectar a simple vista; está integrada en nuestro contenido diario. La era en que un dedo torcido o texto ilegible delata una falsificación terminó. Los nuevos contenidos generados por IA parecen completamente creíbles.

¿Y los detectores? La frase de Ajder es: “Los detectores nunca deben ser la única señal para juzgar la veracidad.” No son motores de la verdad. Incluso los mejores fallan con frecuencia. La mayoría solo ofrecen un “puntaje de confianza” inexplicado. ¿85% verdadero? ¿62% falso? Esos números no dicen nada.

¿Por qué los inteligentes están huyendo de las redes sociales?

La revista The Atlantic afirma: la era de las redes sociales ya terminó, pero lo que la reemplaza es peor.

Mientras tanto, las puertas de la verificación se cierran.

El 4 de abril de 2026, Planet Labs anunció el cierre indefinido de sus imágenes satelitales en Irán y en zonas de conflicto en Oriente Medio. Es uno de los principales proveedores de imágenes satelitales para reportajes de conflictos. La orden vino del gobierno de EE. UU., con efecto desde el 9 de marzo.

El secretario de Defensa, Hegseth, respondió con franqueza: “La inteligencia de código abierto no es el lugar para determinar hechos.”

En otras palabras: no necesitas verlo tú mismo, nosotros te diremos qué pasa.

Además, según el informe de referencia de tráfico y amenazas en línea de 2026, el tráfico automatizado en internet ya representa el 51% del total, creciendo 8 veces más rápido que el tráfico humano. Estos bots no solo distribuyen contenido, sino que priorizan la difusión de contenido viral de baja calidad. La creación de contenido sintético va en aumento, la verificación todavía va en calzado.

Por un lado, la maquinaria de falsificación funciona a toda velocidad. Por otro, las puertas de la verificación se cierran. No es una competencia justa. Uno acelera, el otro se desmantela.

El espectro de McLuhan: ¿por qué el “ambiente” es más poderoso que la “realidad”?

Aquí, muchos pueden pensar que el problema ya es grave. Pero no. La colapsación técnica en la verificación es solo la punta del iceberg. Lo que hay debajo es aún mayor y más difícil de afrontar.

El profeta digital que Uncle siempre admiró, Marshall McLuhan, en 1964 en “Understanding Media”, propuso una frase que cambió toda la comunicación: “El medio es el mensaje.”

Muchos interpretan esto como “el canal de comunicación es importante”. Es un error grave y una subestimación.

La verdadera intención de McLuhan era: el medio, antes de que puedas evaluar conscientemente el contenido, ya ha remodelado tu percepción en niveles más profundos.

La televisión no necesita transmitir un programa específico para cambiarte. La forma misma de la televisión altera la forma en que los humanos entienden el mundo. La imprenta no necesita imprimir un libro específico para crear nacionalismo. La imprenta hizo posible la difusión masiva de un idioma común, y ese hecho generó identidad nacional.

Hoy: los contenidos generados por IA no necesitan engañarte en una sola ocasión. Solo necesitan existir en gran volumen, y ya habrán desplazado tu estado mental predeterminado de “lo que veo probablemente sea real” a “todo lo que veo puede ser falso”.

Este cambio en la percepción en sí mismo es un efecto de las armas informativas. Afecta a todos, sin importar su IQ, nivel educativo o postura.

Recientemente, leí un artículo sobre la fusión entre medios y máquinas, que lleva a McLuhan un paso más allá, propon

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado