Infiltrando múltiples cuentas de 14 años, todas acabaron inundadas de contenido pornográfico… La “pesca con cebo” de EE. UU. hizo que Meta acabara pagando 2.5 mil millones de yuanes|Observación de Silicon Valley

| 《Observación de Silicon Valley》 · Zheng Jun

Los investigadores crearon varios perfiles falsos, disfrazados de niños menores de 14 años. El resultado fue que, en un tiempo extremadamente corto, estas cuentas quedaron inundadas por una gran cantidad de contenido pornográfico, y además recibieron numerosos mensajes de insinuación sexual por parte de adultos……

En solo dos días, Zuckerberg perdió dos juicios clave consecutivos.

Este es un veredicto histórico: por primera vez, un gigante de las redes sociales fue condenado a asumir responsabilidad por la salud mental de los usuarios; y después de perder este juicio de referencia, Meta podría enfrentar demandas similares de rendición de cuentas en todo Estados Unidos e incluso a nivel global—se acabará el “paraguas” de protección que permite a los gigantes de internet no tener que responder.

El gigante pierde el juicio histórico

El miércoles pasado, el jurado del Tribunal Superior del Condado de Los Ángeles, en California, emitió su fallo: Meta y YouTube, filial de Google, son legalmente responsables del daño a la salud mental de una joven; deberán pagarle en total 6 millones de dólares (aprox. 41.43M de yuanes), con una proporción del 73%. Este es el primer caso en la historia de Estados Unidos en el que un jurado determinó que una plataforma de redes sociales necesita asumir responsabilidad por la salud mental de los usuarios.

La parte demandante principal del caso era una mujer de California; en los documentos judiciales se la menciona como “KGM” o “Kaley”. Con 20 años, afirmó en la demanda que empezó a usar YouTube a los 6 años, empezó a usar Instagram a los 11, y tras sumergirse durante mucho tiempo en ambas plataformas desarrolló una grave adicción, lo que derivó en depresión, trastorno de dismorfia corporal y pensamientos suicidas.

Su madre señaló que, a veces, Kelly usaba Instagram durante hasta varias horas al día; había registros de que su tiempo de uso en un solo día superaba las 16 horas, y todo esto incluso antes de que su madre intentara repetidamente limitar su uso de Instagram.

Además, cabe aclarar que originalmente ella demandaba simultáneamente a cuatro gigantes de redes sociales. Pero justo antes de la audiencia, TikTok y Snapchat optaron por llegar a un acuerdo con ella y se retiraron del litigio; la cuantía de la compensación no fue anunciada. Meta y YouTube, filial de Google, rechazaron llegar a un acuerdo y decidieron mantener la demanda con firmeza.

La plataforma conocía el riesgo, pero lo ignoró

Tras una deliberación intensiva de nueve días, con un total de más de 44 horas, el jurado emitió finalmente veredictos favorables para la demandante en los siete cargos. El jurado determinó: Meta y YouTube incurrieron en negligencia en el diseño y la operación de la plataforma; esa negligencia fue un “factor sustancial” que causó el daño de Kelly. Además, ambas compañías sabían que la plataforma podía causar efectos negativos en menores de edad, pero no lograron cumplir con obligaciones suficientes de advertencia.

La parte más impactante del juicio fue cuando los abogados de la demandante dieron a conocer documentos de investigación internos de Meta y Google. Esos documentos mostraban que los equipos de investigación de ambas compañías ya sabían que sus productos tenían efectos negativos sobre la salud mental de los adolescentes, pero guardaron esos resultados en un cajón.

Varios profesionales que alguna vez proporcionaron terapia psicológica a Kelly declararon en el tribunal. Una terapeuta, Victoria Burke, afirmó que el uso de redes sociales está “estrechamente relacionado” con la autoimagen de Kelly, y que las actividades de interacción en la plataforma incluso podían “determinar los altibajos” de su estado emocional. Esto contradice directamente lo que Meta afirmaba, es decir, que “ningún médico de salud mental ha clasificado las redes sociales como causa del problema”.

La cadena de pruebas presentada en el tribunal indicaba que el diseño de los productos de Instagram y YouTube —incluidos los algoritmos de recomendación personalizados basados en datos de comportamiento, el mecanismo de notificaciones que crea una sensación constante de recompensa y la función de desplazamiento infinito que elimina la resistencia a detenerse— no fue algo hecho al azar, sino cuidadosamente diseñado para maximizar el tiempo de permanencia de los usuarios.

Además, el jurado también determinó que la conducta de ambas compañías constituía “malicia, opresión o fraude”; por ello, además de 3 millones de dólares en daños compensatorios, se añadieron otros 3 millones de dólares en daños punitivos.

En cuanto a la proporción de responsabilidad, el jurado dictaminó que Meta asumía el 70% de la responsabilidad y YouTube el 30%. La razón de esta división, según el jurado, era que la recomendación algorítmica de Instagram, el desplazamiento infinito y las notificaciones de empuje continuo eran los principales factores causales; mientras que los abogados defensores de YouTube insistieron en que su plataforma, en esencia, es un servicio de streaming de video y no una red social, por lo que se parece más a la televisión que a Instagram.

Zuckerberg se ve obligado a testificar en persona

El juicio duró siete semanas; tanto el fundador de Meta, Mark Zuckerberg, como el responsable de Instagram, Adam Mosseri, acudieron personalmente a declarar en el tribunal.

Esto es extremadamente raro dentro de la industria tecnológica, y además es la primera vez que Zuckerberg testifica en persona sobre sus propios productos.

El tribunal estuvo casi completamente lleno: decenas de padres viajaron desde diferentes partes del país para asistir y escuchar; incluso algunos padres pasaron la noche al pie del tribunal, solo para asegurar un lugar en la sala. La propia demandante, Kelly, también se sentó entre el público y lo vio todo con sus propios ojos.

A las afueras del Tribunal Superior de Los Ángeles, también se reunieron decenas de padres, tomados de la mano, para vigilar a los hijos que han muerto o han resultado heridos. Dos padres cuya entrevista fue recogida por los medios contaron sus tragedias: la hija de Julianna Arnold presuntamente murió después de comprar fentanilo en Instagram; el hijo de Joann Bogard imitó un video de “reto de asfixia” visto en YouTube y lo llevó hasta la muerte.

El abogado de la parte demandante, Mark Lanier, comparó a ambas tecnológicas con “leones depredadores que acechan a ciervos indefensos”, acusándolas de explotar de manera sistemática a usuarios menores de edad aprovechando ventajas de recursos y tecnología. El fundador del Centro Legal para Víctimas de Redes Sociales, Matthew Bergman, dijo que este juicio permitirá por primera vez que el público conozca “todo lo que las compañías de redes sociales han hecho para sacrificar la seguridad de nuestros hijos por obtener ganancias”.

La decisión de este caso tiene un gran significado y fue reconocida como un “caso de referencia”. En otras palabras, el resultado del fallo de este caso afectará directamente el rumbo de cientos de demandas similares en todo Estados Unidos; familias y distritos escolares que han sufrido daños parecidos esperan continuar impulsando demandas contra Meta.

Por ello, tanto Meta como YouTube mostraron una oposición enérgica y anunciaron que apelarán. En un comunicado, un portavoz de Meta dijo: ”Los problemas de salud mental de los adolescentes son extremadamente complejos y no se pueden atribuir a una sola aplicación”. El portavoz de Google, José Castañeda, sostuvo lo contrario: ”Este caso implica una interpretación fundamental errónea sobre YouTube: YouTube es una plataforma responsable de streaming de video, no una red social”.

Operación de “pesca” para capturar criminales

El día anterior al fallo en Los Ángeles, el jurado de Nuevo México tomó una decisión en otro caso paralelo, determinando que Meta infringió intencionalmente la ley estatal de protección al consumidor, al no proteger de manera suficiente a los usuarios infantiles que sufren acoso en línea por parte de depredadores; por ello, deberán pagar una multa civil de 75k de dólares.

Esto no solo es una victoria para Nuevo México, sino también el primer veredicto del jurado en todo Estados Unidos que condena a un gigante de redes sociales por cuestiones de seguridad infantil. ¿Cómo se determinó esta cifra de multa? La ley establece una multa máxima de 5000 dólares por cada infracción. El jurado consideró que la conducta infractora de Meta afectó a 75k usuarios menores de edad. Por tanto, el jurado eligió el límite máximo legal para imponer el castigo: 5000 dólares por 75k personas, es decir, 375 millones de dólares (aprox. 75k de yuanes).

El fiscal general de Nuevo México, Raúl Torrez, fue quien inició esta demanda. En su acusación, señaló que Meta sabía que su plataforma—especialmente Instagram y Facebook—se utilizaba por criminales para cometer explotación sexual contra niños, pero ocultó deliberadamente la información relacionada y se negó a adoptar medidas de protección efectivas. El jurado aceptó esta acusación y determinó que la conducta de Meta violó la normativa de “prácticas comerciales desleales” de Nuevo México.

La evidencia más contundente de este caso proviene de una operación encubierta realizada por el Departamento de Justicia de Nuevo México. Los investigadores crearon varios perfiles falsos disfrazados de niños menores de 14 años. El resultado fue que esas cuentas fueron inundadas por grandes cantidades de contenido pornográfico en cuestión de muy poco tiempo, y recibieron numerosos mensajes de insinuación sexual por parte de adultos.

Esta evidencia deja directamente en evidencia la llamada “filtro de seguridad algorítmica” de Meta. Al mismo tiempo, la policía también detuvo, de paso, a varios sospechosos que intentaban reunirse en persona con “menores de edad” por internet; tres de ellos aparecieron puntualmente en el motel acordado e intentaron mantener relaciones.

La base clave del fallo judicial fueron documentos internos de Meta. Los documentos mostraron que los altos directivos de la empresa (incluidos Zuckerberg y Mosseri) ya sabían que sus algoritmos conectarían a depredadores con menores de edad, pero para mantener el elevado número de usuarios activos diarios y las ganancias, se negaron a adoptar medidas efectivas de verificación de edad y protección de seguridad.

A diferencia del caso de Los Ángeles, que se centra en defectos de diseño del producto, el núcleo del caso de Nuevo México es el fraude y la ocultación. Aunque ambos casos parten desde ángulos distintos, apuntan a la misma conclusión: las plataformas de redes sociales colocan sistemáticamente el beneficio comercial por encima de la seguridad de los menores.

Cabe destacar que este caso aún no ha terminado por completo. El 4 de mayo de este año, Nuevo México iniciará la segunda fase del proceso, el “Bench Trial” (juicio ante juez). En ese momento, el fiscal general pedirá al juez que determine si Meta constituye un “perjuicio público”, y podría obligar a Meta a cambiar los algoritmos de la plataforma y a pagar indemnizaciones adicionales por daños.

Romper el “paraguas” de la Sección 230

Antes de comprender el significado histórico de estas dos decisiones, hay que aclarar un trasfondo legal clave: la Sección 230 de la Ley de Normas de Comunicaciones de 1996. Durante mucho tiempo, esta normativa ha sido el escudo legal más importante para las empresas tecnológicas, otorgándoles la exención de no asumir responsabilidad solidaria por el contenido publicado por los usuarios en plataformas de internet.

Durante años, la mayoría de las demandas presentadas por usuarios estadounidenses contra plataformas de redes sociales fueron desestimadas por los tribunales debido a la protección de la Sección 230. Sin embargo, los abogados de la parte demandante en el caso de Los Ángeles adoptaron una estrategia legal completamente distinta: trasladaron el foco de la demanda desde el contenido de la plataforma hacia el propio diseño del producto.

El desplazamiento infinito, las recomendaciones algorítmicas y el envío continuo de notificaciones de una plataforma de redes sociales son, por naturaleza, decisiones de diseño del producto de la plataforma, no contenido generado por los usuarios. Precisamente ese cambio de estrategia permitió que los demandantes evitaran la protección de la Sección 230 y persiguieran directamente la responsabilidad por agravio de la plataforma.

La profesora de derecho de la Universidad de Nueva York, Catherine Sharkey, lo llamó “una redefinición de nueva era”. Señaló que el problema clave radica en esto: los ingenieros de la plataforma sabían el impacto de estos diseños en la adicción, y la investigación interna de la plataforma también conocía los riesgos que enfrentan los usuarios adolescentes; esa asimetría de información dio razones para que el tribunal exigiera responsabilidad a la plataforma.

El caso de Los Ángeles también es un “caso guía” dentro de los procedimientos de coordinación judicial en California; su veredicto tendrá efecto de referencia para más de 1600 demandas similares en todo el estado, incluidas demandas presentadas por más de 350 familias y 250 distritos escolares. Si Meta pierde esta demanda, significará que las futuras demandas interminables estarán en desventaja.

Además, se prevé que otra demanda colectiva a nivel federal se abra este verano en el Tribunal Federal del Distrito Norte de California; entonces también TikTok y Snap comparecerán juntas. La evaluación de la abogada de San Francisco Jessica Nall fue aún más directa: ”Se abrió la compuerta”.

Alarma global por la adicción de menores a internet

El riesgo de que los menores se vicien con los sitios de redes sociales se ha convertido en un problema global. En los últimos dos años, los ámbitos científico, político y judicial de varios países han emitido alertas sobre este asunto desde múltiples perspectivas y han empezado, casi al mismo tiempo, a adoptar contramedidas regulatorias.

En 2023, el Director General de Salud de Estados Unidos, Vivek Murthy, lanzó una rara petición, recomendando que en los productos de redes sociales se obligue a mostrar advertencias de salud, equiparándolas a los productos de tabaco. En su informe citó numerosas investigaciones que indican una asociación significativa entre el uso de redes sociales y la depresión en adolescentes, la ansiedad, los trastornos del sueño y la ideación suicida.

El psicólogo estadounidense Jonathan Haidt, en el best-seller “The Anxious Generation”, también vinculó directamente el inicio de la popularización de los teléfonos inteligentes en 2012 con la posterior explosión de la crisis de salud mental entre adolescentes, lo que resonó fuertemente en el público.

En el plano legislativo, Australia está a la vanguardia mundial. En noviembre de 2024, el Parlamento australiano aprobó la Ley de Enmienda de Ciberseguridad (Edad mínima para redes sociales) y entró oficialmente en vigor el 10 de diciembre de 2025.

Esta primera prohibición a nivel nacional a menores en redes sociales establece que las principales plataformas, incluidas Instagram, YouTube, TikTok, Facebook, X, Snapchat y Reddit, deben tomar medidas razonables para impedir que usuarios menores de 16 años creen cuentas. Las plataformas que incumplan se enfrentarán a una multa máxima de aproximadamente 33 millones de dólares.

La legislación de Australia proviene directamente de una carta: una madre de Sídney escribió al primer ministro Albanese, contando la experiencia de su hija de 12 años, Charlotte, que se suicidó tras sufrir acoso en redes sociales. Esta carta conmovió a los legisladores y también encendió la opinión pública.

En Europa, Francia estipula que los menores de 15 años no pueden usar redes sociales sin el consentimiento de sus padres; Dinamarca planea fijar la línea de prohibición en 15 años; y las autoridades del Reino Unido están evaluando planes para imponer límites de edad o restricciones de tiempo de uso diario.

Dentro de Estados Unidos, las acciones legislativas en los estados también se han acelerado notablemente. Florida ya aprobó una ley que prohíbe que los menores de 14 años usen redes sociales; los que tienen entre 14 y 15 años necesitan el consentimiento de sus padres. Tennessee y Mississippi, a partir de 2025, exigen que los usuarios menores de 18 años realicen verificación de edad y obtengan autorización de los padres. Virginia establece que, sin consentimiento parental, el tiempo diario de uso de redes sociales por parte de menores no debe exceder una hora. En California y Minnesota, regulaciones similares entrarán en vigor de manera escalonada entre 2026 y 2027.

En el nivel del gobierno federal de Estados Unidos, el entorno regulatorio es incierto. Desde su toma de posesión, la administración Trump ha abrazado activamente a la industria tecnológica, y la inclinación regulatoria es claramente hacia la libertad del mercado. Aunque la propuesta de Ley de Ciberseguridad Infantil fue aprobada en el Senado, se estancó en la Cámara de Representantes debido a profundas discrepancias entre partidos.

Solo cuando se apruebe formalmente la legislación federal se podrá eliminar definitivamente el “paraguas” de la Sección 230 de las grandes plataformas de redes sociales. Las plataformas de redes sociales necesitan responsabilizarse de cada adolescente que sufre adicción.

Montón de información, análisis preciso, todo en la aplicación de Sina Finance

Responsable: Song Yafang

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado