Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
OpenAI presenta Model Spec: cómo evoluciona el enfoque responsable del comportamiento de la IA
Recientemente, OpenAI publicó públicamente su documento interno Model Spec, una descripción detallada de cómo la compañía planea gestionar el comportamiento de sus modelos de IA. Este paso refleja el compromiso de OpenAI de ampliar el debate sobre los principios que deben guiar el funcionamiento de los algoritmos modernos, incluyendo cuestiones complejas relacionadas con la generación de diferentes tipos de contenido.
Arquitectura de reglas: en qué se basa el nuevo sistema
Model Spec se fundamenta en tres pilares clave que deben definir el comportamiento de todos los sistemas de IA de la compañía. El primero se centra en la utilidad: los modelos deben proporcionar respuestas constructivas a desarrolladores y usuarios finales, en línea con las tareas asignadas. El segundo se orienta al bienestar de la humanidad, exigiendo que los algoritmos consideren tanto los beneficios potenciales como los riesgos posibles de sus acciones. El tercero reafirma el compromiso de OpenAI con las normas sociales y la legislación vigente.
La compañía también ha establecido un conjunto de restricciones específicas para los desarrolladores que utilizan tecnologías de IA. Entre ellas se incluyen el cumplimiento de la jerarquía de comandos, seguir la legislación local, abstenerse de crear desinformación, respetar los derechos de autor, proteger los datos personales de los usuarios y evitar la generación predeterminada de contenido explícito.
Equilibrio entre libertad y responsabilidad
Una de las partes más discutidas de Model Spec trata sobre el contenido NSFW y su gestión. Según el documento, OpenAI realiza investigaciones sobre cómo puede ofrecer responsablemente la posibilidad de generar dicho contenido en contextos con restricciones de edad, tanto a través de API como mediante la interfaz de ChatGPT. Esto implica que la compañía ve potencial en que usuarios y desarrolladores puedan regular el “grado de picante” de sus asistentes de IA según la aplicación específica.
Este enfoque sugiere que OpenAI no prohíbe categóricamente trabajar con ciertos tipos de contenido, pero insiste en una distribución responsable y controlada. Esto requiere transparencia, verificación de edad y reglas claras de uso.
Cómo deben comportarse las IA por defecto
Model Spec describe un conjunto de comportamientos recomendados para los asistentes de IA en su configuración estándar. Los modelos deben actuar con buenas intenciones, hacer preguntas aclaratorias cuando sea necesario, respetar los límites establecidos, mantener una postura objetiva, rechazar categóricamente manifestaciones de odio y evitar intentar convencer a las personas de sus creencias. Además, las sistemas deben expresar honestamente su incertidumbre cuando no estén completamente seguros de la corrección de su respuesta.
Joan Jang, gerente de producto de OpenAI, explicó el objetivo del documento: la compañía busca recibir recomendaciones de la comunidad científica, políticos y la sociedad sobre cómo deben funcionar los sistemas de IA. Según ella, Model Spec ayuda a delimitar claramente entre comportamientos intencionados y accidentales de los algoritmos, lo cual es especialmente importante al desplegar nuevas versiones.
De la teoría a la práctica: qué cambiará
Es importante destacar que Model Spec no afectará a los productos ya lanzados — ChatGPT, GPT-4 y DALL-E 3 seguirán operando según las políticas de uso existentes. El documento está diseñado como un sistema vivo y en constante evolución de principios rectores, que se actualizará regularmente en función de la retroalimentación recibida.
OpenAI invita activamente a todas las partes interesadas a participar en la discusión — desde políticos y organizaciones benéficas hasta expertos independientes en diversas áreas. La compañía está abierta a recibir recomendaciones sobre qué ajustes realizar en la documentación, aunque aún no revela detalles sobre los criterios de toma de decisiones ni quién determinará las líneas de desarrollo de Model Spec.
Perspectivas y preguntas sin respuesta
La aparición de Model Spec indica que OpenAI reconoce la necesidad de mayor transparencia en sus enfoques para gestionar los sistemas de IA. Sin embargo, quedan preguntas abiertas: qué propuestas del comunidad serán consideradas, cómo se resolverán los conflictos entre diferentes puntos de vista y cuándo se lanzará la segunda versión del documento. Actualmente, no hay información disponible sobre estos aspectos clave.
Anteriormente, OpenAI ya intentó fortalecer la confianza de los usuarios mediante herramientas para identificar contenido generado por inteligencia artificial. Model Spec representa la siguiente etapa en esa dirección — un intento de establecer estándares universales para el desarrollo responsable de las tecnologías de IA.