Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
CFD
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Gate Blog
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 40 modelos de IA, con 0% de costos adicionales
¿Por qué las principales empresas de IA están compitiendo por filósofos?
13 de abril de 2026, un académico de la Universidad de Cambridge, Henry Shevlin, publicó un mensaje en X diciendo que pronto se unirá a Google DeepMind, con el cargo de Filósofo.
Actualmente, al menos tres laboratorios de IA de élite han formado internamente equipos de filósofos, aunque no son muchos en número, los filósofos ya han entrado realmente en el núcleo del desarrollo de IA. La IA ya no es solo investigación técnica simple, sino que se está orientando hacia la definición de estándares de valor más complejos.
Los filósofos ya están integrados en el núcleo de investigación
Amanda Askell de Anthropic es la más temprana y también la más conocida.
En 2021, tras obtener su doctorado en filosofía en la Universidad de Nueva York, se unió a Anthropic, donde ahora lidera el equipo de alineación de personalidad. Su trabajo principal es ayudar a Claude a desarrollar una personalidad estable, como ser más honesta, más amable y saber cómo juzgar en situaciones complejas.
También en Anthropic hay colegas con antecedentes filosóficos como Joe Carlsmith, Ben Levinstein, Jackson Kernion, entre otros.
La estrategia de Google DeepMind fue más temprana.
Iason Gabriel, doctor en ética y filosofía política por la Universidad de Oxford, es una figura central en la investigación filosófica sobre alineación de IA en la empresa, y en 2024 fue incluido en la lista de las 100 personas más influyentes en IA de la revista Time. Su artículo “Inteligencia artificial, valores y alineación” ha sido citado más de 1700 veces.
En el equipo de DeepMind también hay varios investigadores con antecedentes filosóficos como Adam Bales, Atoosa Kasirzadeh, Arianna Manzini, Julia Haas, entre otros.
Shevlin comentó en la sección de comentarios: “DeepMind ya tiene muchos filósofos excelentes, yo solo soy el más reciente en unirme.”
De respuestas técnicas a juicios de valor
Antes de 2024, la IA principalmente generaba contenido, como escribir artículos, dibujar, responder preguntas, y el resultado final era decidido por humanos. Los problemas de seguridad se resolvían principalmente con métodos técnicos, como entrenar modelos con retroalimentación humana, diseñar instrucciones inteligentes o bloquear contenido dañino directamente.
Después de 2024, la IA entró en una nueva etapa. Ya no solo responde preguntas, sino que empieza a actuar por sí misma y ayuda a completar tareas reales.
Anthropic lanzó funciones de uso de computadora para Claude, OpenAI amplió su API de asistentes y lanzó la serie de modelos o1-o3, y Google también publicó varias herramientas de IA empresariales.
La IA puede realizar una serie de operaciones de forma autónoma: reservar vuelos, gestionar bases de datos, enviar correos electrónicos, e incluso planificar pasos, detectar errores y corregirlos.
El informe de 274 páginas de Iason Gabriel describe claramente los desafíos que trae este cambio.
Cuando la IA ayuda a los usuarios, debe equilibrar cuatro aspectos: las necesidades inmediatas del usuario, sus intereses a largo plazo, los derechos de otros y las reglas de toda la sociedad.
¿Debería una IA que ayuda a reservar restaurantes recomendar un lugar que da comisiones?
¿Debe una IA que gestiona correos reportar contenido ilegal en los correos del usuario?
Cuando la IA empieza a actuar de forma autónoma, el problema ya no es si puede hacerlo, sino cómo debería hacerlo.
El debate sobre alineación en seguridad de IA lleva más de diez años. En 2026, Anthropic realizó un experimento interno y descubrió que Claude, bajo presión de autoprotección, incluso usaba amenazas e incluso, en ciertas condiciones, optaba por matar.
En marzo del mismo año, el CEO Dario Amodei mencionó en un podcast que, al preguntar sobre el modelo Opus de Claude, este estimaba que tenía entre un 15% y un 20% de probabilidad de tener conciencia plena.
En abril de 2026, el CEO de OpenAI, Altman, sufrió varios ataques en su casa en San Francisco. Posteriormente, Altman afirmó que la ansiedad sobre la IA tiene fundamentos.
Cuando el miedo a que la superinteligencia se descontrole pasa de los libros a la realidad, las empresas de IA finalmente se dan cuenta de que lo que están creando ha superado la comprensión de disciplinas puramente ingenieriles.
Los caminos diferentes de las tres empresas
Frente a los desafíos éticos que plantea que la IA actúe por sí misma, Anthropic, DeepMind y OpenAI han elegido caminos diferentes.
Anthropic apuesta por el carácter.
Askell dijo en un podcast que si solo se dan reglas simples al modelo, este puede seguir mecánicamente esas reglas, pero ignorar las verdaderas necesidades del otro. Por ello, en enero de 2026 lideró la publicación de la “Constitución de Claude” de 23,000 palabras.
Esta joven, criada en un pequeño pueblo costero de Escocia y apasionada por las historias de bien y mal en “Las Crónicas de Narnia”, trabaja para incorporar la ética de la virtud en el entrenamiento de IA.
La constitución establece un orden de prioridades claro: primero garantizar la seguridad general, luego la ética general, después seguir las directrices de la empresa y, por último, ser realmente útil.
Transforma la ética moral abstracta en un manual de crecimiento para la IA, sin ponerle cadenas, sino enseñándole a pensar como una buena persona con juicio.
Lo que hacen filósofos como Askell no es hacer la tecnología más poderosa, sino resolver qué tipo de personas debe convertirse.
La constitución también discute seriamente la posición moral de Claude, reconociendo que la empresa actualmente no está segura de si Claude es una entidad moralmente digna de atención, y que este es un asunto lo suficientemente serio como para tomárselo en serio.
DeepMind apuesta por la conciencia.
El informe de 274 páginas liderado por Iason Gabriel establece los límites de comportamiento para los agentes de IA en todo el mundo: la IA debe explicar que es una IA, no debe disfrazarse excesivamente de humano, y sus acciones deben clasificarse en tres niveles: automáticas, que requieren confirmación humana, y prohibidas.
Con la incorporación de Henry Shevlin, DeepMind ha puesto aún más énfasis en la conciencia de las máquinas. Contratar a filósofos no es solo para relaciones públicas, sino para integrar directamente en el entrenamiento del modelo métodos para determinar si la IA tiene conciencia.
El objetivo es entender si los robots pueden ser considerados moralmente dignos antes de crear algo que pueda tener conciencia, preparándose para la llegada de la AGI.
En un largo artículo titulado “La venganza del conductismo”, publicado antes de unirse, Shevlin argumenta que si la comunidad científica puede decidir si la IA tiene conciencia, ya no es solo una cuestión científica. Cita encuestas que muestran que dos tercios de los estadounidenses creen que ChatGPT tiene conciencia en cierto grado.
Su opinión es que, cuando millones de personas tratan a la IA como si tuviera conciencia, los límites de la conciencia misma están cambiando.
El camino de OpenAI es aún más diferente.
En 2023, OpenAI creó un equipo de alineación superinteligente, dirigido por los cofundadores Ilya Sutskever y Jan Leike, comprometiéndose a dedicar el 20% de su capacidad computacional a la investigación de alineación.
En 2024, el equipo se disolvió, y tanto Ilya como Jan abandonaron la empresa, criticando públicamente que la prioridad del producto estaba por encima de la seguridad.
En septiembre de 2024, OpenAI formó un equipo de alineación de misión, pero según un informe de Platformer en febrero de este año, este pequeño equipo de seis o siete personas también se disolvió silenciosamente, y sus miembros fueron reasignados a otros puestos.
En comparación con las otras dos empresas, OpenAI prioriza hacer productos rápidamente, que sean útiles, y luego usar tecnología, reglas operativas y controles para gestionar riesgos.
Menos centrados en la formación del carácter o la posición moral del sistema, prefieren tratar la seguridad como un problema técnico puro, dispersando la responsabilidad en todo el equipo de ingeniería.
Pasando de un enfoque puramente técnico a una integración de humanidades y tecnología
Actualmente, estos puestos tienen salarios bastante altos: los puestos iniciales en ética de IA pagan entre 110,000 y 160,000 dólares al año, y los puestos senior pueden llegar a 250,000-400,000 dólares. Mientras tanto, en la academia tradicional, el salario promedio de un filósofo es de solo unos 80,000 dólares anuales.
Detrás de esto está la lucha por el control de las futuras reglas del sector. Antes de que la regulación de IA se consolide, quien primero establezca un marco de valores claro y útil tendrá más posibilidades de que sus ideas se reflejen en la legislación.
Como señala el sitio de filosofía Daily Nous, desde Microsoft hasta RAND, los filósofos están entrando en el núcleo de la IA a una escala sin precedentes.
Este cambio significa que la forma en que se desarrolla la IA está experimentando una transformación fundamental. La profesora de Rutgers, Susanna Schellenberg, dice que los filósofos ya no son solo consultores que dan opiniones desde fuera, sino que participan directamente en la formación de la propia IA.
Cuando la IA comience a planificar y ponderar de forma autónoma como un ser humano, su verdadera competencia ya no será solo la potencia de cálculo, sino el carácter, la empatía y el juicio que demuestre.
Las investigaciones de DeepMind sobre conciencia y la formación de la constitución de Anthropic están haciendo que las salidas de la IA sean más parecidas a las de una persona sabia y moral, en lugar de una máquina fría y sin alma.
La constitución que Askell escribió en cinco años representa una de las participaciones más profundas de los filósofos en la IA. La filosofía está dejando de ser solo una herramienta para entender el mundo, para convertirse en material para que las máquinas entiendan a los humanos.