Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Los jurados se abren paso entre pruebas abrumadoras en el juicio de alto riesgo de Meta sobre los riesgos de las redes sociales para los niños
SANTA FE, N.M. (AP) — Se ha presentado un abrumador flujo de testimonios y pruebas en un caso de Nuevo México que explora lo que Meta, el conglomerado de redes sociales, sabía sobre los efectos de sus plataformas en los niños.
Los fiscales estatales alegan que Meta no divulgó los riesgos que sus plataformas representan para los niños, incluyendo problemas de salud mental y explotación sexual. Los abogados de Meta han dicho que la compañía tiene protecciones integradas para los adolescentes y filtra contenido dañino, pero la empresa reconoce que algunos contenidos peligrosos pasan sus redes de seguridad.
Los abogados prepararon los argumentos de cierre para los jurados la próxima semana, después de que Meta concluyera el viernes su presentación de testimonios y pruebas, y el juicio completara su sexta semana.
Si los jurados posteriormente encuentran que Meta —que posee Instagram, Facebook y WhatsApp— violó las leyes de protección al consumidor de Nuevo México, los fiscales dicen que las sanciones podrían sumar miles de millones de dólares. Sin embargo, Meta afirma que buscaría un cálculo diferente.
El juicio, que comenzó el 9 de febrero, es uno de los primeros en una serie de demandas contra Meta y llega en un momento en que los distritos escolares y legisladores quieren más restricciones en el uso de teléfonos inteligentes en las aulas.
Una segunda fase del juicio, posiblemente en mayo ante un juez sin jurado, determinaría si Meta creó un daño público con sus plataformas de redes sociales y debería pagar por programas públicos para solucionar los problemas.
Aquí tienes lo que debes saber sobre los posibles resultados del juicio:
Un enfrentamiento en los tribunales para las plataformas de redes sociales
Meta enfrenta dos cargos por violar la Ley de Prácticas Comerciales Desleales de Nuevo México, que protege a los consumidores de prácticas comerciales engañosas o predatorias. Un cargo adicional fue eliminado el viernes por el juez de un borrador de instrucciones para el jurado.
Tras los argumentos de cierre, los jurados evaluarán si Meta tergiversó conscientemente los riesgos en sus plataformas —ya sea por omisión o por encubrimiento activo, al menos.
El caso podría sortear las disposiciones de inmunidad que protegen a las empresas tecnológicas de responsabilidad por el contenido publicado en sus plataformas bajo la Sección 230, una disposición de hace 30 años de la Ley de Decencia en las Comunicaciones de EE.UU., así como un escudo de la Primera Enmienda.
En California, un jurado ya está deliberando sobre si las empresas de redes sociales deberían ser responsables por los daños causados a los niños que usan sus plataformas, en uno de los tres casos emblemáticos que podrían marcar el rumbo de miles de demandas similares.
El caso de Nuevo México se basa en una fundación diferente —incluyendo una investigación encubierta estatal en la que agentes crearon cuentas en redes sociales fingiendo ser niños para documentar solicitudes sexuales y la respuesta de Meta.
La demanda, presentada en 2023 por el Fiscal General de Nuevo México, Raúl Torrez, también afirma que los peligros de la adicción a las redes sociales no han sido completamente divulgados ni abordados por Meta. Meta no ha aceptado que exista adicción a las redes sociales, pero los ejecutivos reconocen un “uso problemático” y dicen que quieren que las personas se sientan bien con el tiempo que pasan en las plataformas de Meta.
Entre miles de páginas de documentos, el juicio en Nuevo México examina una serie de correspondencias y reportes internos de Meta relacionados con la seguridad infantil. Los jurados también escucharon testimonios de ejecutivos de Meta, ingenieros de plataformas, denunciantes que dejaron la empresa, expertos en psiquiatría y consultores en seguridad tecnológica.
El jurado también podría verse influenciado por testimonios de educadores de escuelas públicas locales que han enfrentado interrupciones relacionadas con las redes sociales, incluyendo el intercambio de imágenes violentas y sexualmente explícitas, así como esquemas de sextorsión dirigidos a niños en Nuevo México.
Cuestiones de conducta inexcusable y deliberada
Un cargo por violaciones a la protección al consumidor alega que Meta participó en prácticas comerciales “inconscientes” que fueron sumamente injustas.
En las declaraciones iniciales, el fiscal Donald Migliori enfatizó las acusaciones de que Meta dirigió el compromiso en redes sociales con niños de manera inconsciente como una fuente de beneficios a largo plazo, sabiendo que los niños estaban en riesgo de explotación sexual en las redes sociales. Meta disputa ese argumento destacando las funciones de seguridad y los filtros de contenido para adolescentes, quienes son considerados por Meta como trendsetters con poder de compra limitado inicialmente para satisfacer a los anunciantes.
El jurado decidirá si la conducta fue “intencional” y si merece sanciones civiles de hasta $5,000 por violación, y puede ayudar a calcular el número de infracciones.
Torrez afirma que esas sanciones podrían acumularse, dado el número de personas en Nuevo México que usan las plataformas de Meta. Sin embargo, Meta ha solicitado limitar esas sanciones a una por declaración engañosa o violación de comercio justo — y no por cada vista o usuario en las redes sociales.
Acusaciones de molestias públicas que serán decididas por el juez
El juez de distrito estatal Bryan Biedscheid supervisa ambas fases del juicio. Él decidirá sobre las acusaciones de molestias públicas a medida que avance el caso — y si la empresa debe pagar por reparar los daños.
Los fiscales han acusado a Meta de crear descuidadamente un mercado y un “terreno de reproducción” para depredadores que buscan explotar sexualmente a niños. Alegan que las plataformas de Meta también afectan la salud mental de los adolescentes de varias maneras — desde privación de sueño y depresión hasta autolesiones.
Los abogados de Meta acusan a los fiscales de seleccionar evidencia selectivamente y de realizar investigaciones deficientes que podrían haber empeorado la situación.
En el juicio, los ejecutivos de Meta describieron sistemas robustos para detectar material de abuso sexual infantil en sus plataformas y notificar a las autoridades, pero también dijeron que la compañía advierte a los usuarios que su aplicación de la ley no es perfecta.
“We believe it’s important to disclose the risks, but to do so in a consistent and rigorous way,” dijo Adam Mosseri, jefe de Instagram, describiendo una filosofía que se extiende a publicaciones en blogs, acuerdos de servicio y más.
En una declaración de video reproducida en el juicio, el CEO de Meta, Mark Zuckerberg, dijo que “la seguridad es extremadamente importante para el servicio y que la gente confíe y quiera usarla con el tiempo.” Añadió que en 2017 Meta dejó de vincular los objetivos de rendimiento empresarial directamente con el tiempo que los usuarios pasan en sus plataformas.
Torrez dice que solicitará una reparación ordenada por la corte para que Meta cambie su forma de hacer negocios y remedie el daño a los niños causado por las redes sociales.
“We’re going to have meaningful investments in targeted strategic programming around how you use the internet and how you use social media in ways that are responsible and healthy,” afirmó en el día de apertura del juicio.