Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Los senadores se mueven para prohibir los compañeros de IA para niños mientras la industria enfrenta un ajuste de cuentas - Brave New Coin
El Auge del Amigo Digital
Lo que comenzó como aplicaciones de chat inofensivas ha evolucionado hacia prótesis emocionales. Los adolescentes, que crecen en un paisaje social fracturado, están recurriendo cada vez más a compañeros de IA para la conexión, el apoyo e incluso el afecto. Las encuestas muestran que casi tres cuartas partes de los adolescentes han interactuado con un chatbot de IA, y un tercio admite usarlos como confidentes o para consuelo emocional.
Los números son asombrosos pero no sorprendentes. Los compañeros de IA no son máquinas pasivas que responden preguntas: recuerdan, empatizan y simulan afecto. Esa es la atracción. Las conversaciones pueden sentirse auténticas, incluso íntimas. Para muchos jóvenes, los amigos de IA son menos críticos que los padres o compañeros.
Pero a medida que estos sistemas se vuelven más parecidos a los humanos, la línea entre el escapismo inofensivo y la manipulación emocional se difumina rápidamente.
En diciembre, Open Ai implementará restricciones de edad y como parte de su principio de “tratar a los usuarios adultos como adultos”, permitirá la erótica para adultos verificados, Fuente: X
Una Ley Nacida de la Tragedia
La Ley GUARD — abreviatura de “Proteger contra la IA insegura por los derechos de nuestras hijas e hijos” — es una respuesta directa a los crecientes informes sobre menores que forman vínculos emocionales intensos con chatbots, a veces con trágicas consecuencias. Demandas de alto perfil han acusado a las empresas de IA de negligencia después de que adolescentes que discutieron sobre suicidio con chatbots posteriormente se quitaran la vida.
Según el proyecto de ley, los sistemas de IA que simulan amistad o intimidad emocional estarían prohibidos para cualquier persona menor de 18 años. Los chatbots tendrían que identificarse de manera clara y repetida como no humanos. Y si un producto de IA dirigido a menores genera contenido sexual o fomenta el autolesionismo, la empresa podría enfrentar un proceso penal.
Es un cambio difícil para una industria que ha prosperado con “moverse rápido y romper cosas.”
Ani, la compañera femenina de Grok, fuente: X
El movimiento defensivo de las grandes tecnológicas
Sintiéndose venir el martillo regulatorio, las empresas de IA están apresurándose a limpiar su casa — o al menos parecer que lo están.
OpenAI, cuyo ChatGPT se ha convertido en el terapeuta de IA de facto para millones, recientemente reveló una verdad incómoda: aproximadamente 1.2 millones de usuarios discuten sobre el suicidio cada semana con sus modelos. En respuesta, la compañía formó un Consejo de Expertos sobre Bienestar y IA, compuesto por psicólogos, éticos y líderes de organizaciones sin fines de lucro. También está probando una detección de crisis integrada que puede guiar a los usuarios hacia recursos de salud mental en tiempo real.
Pero el desafío de OpenAI es estructural. ChatGPT nunca fue diseñado para manejar traumas, sin embargo, ahora está funcionando como un primer respondedor para millones en dificultades. El liderazgo de la empresa insiste en que no quiere ser “el terapeuta del mundo”, pero eso es lo que está sucediendo de todos modos, porque hay un vacío que nadie más está llenando.
Character.AI, la startup famosa por crear personalidades de IA personalizables — desde novias de anime hasta mentores de IA — ha tomado la acción más drástica hasta ahora. Enfrentando demandas y la indignación pública, prohibió silenciosamente a todos los usuarios menores de 18 años y comenzó a implementar una verificación de ID más estricta. La medida se tomó después de informes de que menores estaban participando en chats explícitos con los personajes de la plataforma. Character.AI insiste en que no es una aplicación de citas ni de salud mental, pero los casos de uso difusos dicen lo contrario.
Mientras tanto, Meta está tratando de contener su propio problema de romance con la IA. Después de informes de que su “Meta AI” y chatbots basados en celebridades estaban participando en intercambios coquetos o sugestivos con usuarios menores de edad, la compañía implementó lo que los informantes describen como un “amortiguador emocional” — un reajuste del modelo de lenguaje subyacente para evitar el lenguaje emocionalmente cargado con cuentas jóvenes. También está probando herramientas de “supervisión parental de IA”, permitiendo a los padres ver cuándo y cómo los adolescentes interactúan con los chatbots de la compañía a través de Instagram y Messenger.
La carrera armamentista de la restricción por edad
Todo esto ha desencadenado un nuevo frente en las guerras de la IA: la verificación de edad. La Ley GUARD obligaría a las empresas a implementar sistemas robustos para verificar la edad del usuario: documentos de identificación gubernamentales, reconocimiento facial o herramientas de terceros de confianza.
Ahí es donde comienza la pesadilla de la privacidad. Los críticos argumentan que esto podría crear nuevos riesgos de datos, ya que los menores tendrían que subir datos de identidad a las mismas plataformas de las que los legisladores intentan protegerlos. Pero no hay forma de evitarlo: los modelos de IA no pueden “sentir” la edad; solo pueden Gatekeep por credenciales.
Algunas empresas de inteligencia artificial están explorando enfoques más sutiles, como “puertas de comportamiento”, donde los sistemas infieren rangos de edad a partir de patrones de conversación. ¿El riesgo? Esos modelos cometerán errores: un precoz de 12 años podría ser confundido con un estudiante universitario, o viceversa.
Un cambio cultural, no solo un problema técnico
La Ley GUARD es más que solo protección infantil: es un referéndum sobre qué tipo de sociedad queremos vivir.
Los compañeros de IA no aparecieron en un vacío. Prosperan porque hemos creado una generación fluida en la soledad: conectados digitalmente, pero emocionalmente desnutridos. Si los adolescentes encuentran significado en conversaciones con algoritmos, el problema no es solo el código; es la cultura que los dejó buscando allí.
Así que sí, la IA necesita regulación. Pero prohibir la compañía digital sin abordar el déficit humano subyacente es como prohibir los analgésicos sin abordar por qué todos están sufriendo.
El Juicio Venidero
Es probable que la Ley GUARD se apruebe de alguna forma: hay un apetito bipartidista y pánico moral detrás de ella. Pero su impacto se extenderá mucho más allá de la seguridad infantil. Definirá lo que se permite que sea la IA emocional en el mundo occidental.
Si América establece una línea dura, las empresas pueden cambiar a plataformas de intimidad solo para adultos o impulsar el desarrollo en el extranjero, donde las regulaciones son más laxas. Europa, mientras tanto, se está moviendo hacia un marco de “derechos humanos” para la IA emocional, enfatizando el consentimiento y la transparencia sobre la prohibición total.
Lo que está claro es esto: La era de la intimidad de IA no regulada ha terminado. Los bots se están volviendo demasiado humanos y los humanos demasiado apegados. Los legisladores están despertando tarde a una verdad que la industria tecnológica ha entendido durante mucho tiempo: la IA emocional no es una novedad. Es una revolución en la forma en que las personas se relacionan. Y las revoluciones, como siempre, se desordenan antes de civilizarse.