Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Karen Hao: Los motivos de lucro impulsan el desarrollo de la IA, las tecnologías actuales dañan a la sociedad y la explotación laboral es rampante en la industria | El Diario de un CEO
Puntos clave
Introducción del invitado
Karen Hao es una colaboradora de The Atlantic, copresentadora del podcast de la BBC The Interface, y autora superventas del New York Times de Empire of AI. Anteriormente fue reportera de The Wall Street Journal, cubriendo empresas tecnológicas estadounidenses y chinas. Su periodismo de investigación ha revelado ideas de insiders de OpenAI sobre las luchas de poder de la industria y las preocupaciones éticas.
La carrera impulsada por el lucro por la supremacía de la IA
— Karen Hao
El panorama competitivo del desarrollo de IA está fuertemente influenciado por incentivos financieros.
— Karen Hao
Las grandes empresas tecnológicas están motivadas por las enormes ganancias asociadas con los avances de la IA.
— Karen Hao
Comprender estas motivaciones es crucial para analizar el futuro de la IA.
La carrera por la supremacía de la IA podría exacerbar las desigualdades globales.
Los motivos de lucro pueden eclipsar las consideraciones éticas en el desarrollo de la IA.
El daño social de las tecnologías actuales de IA
— Karen Hao
Las consecuencias negativas de las tecnologías de IA a menudo se pasan por alto.
Las implicaciones éticas del desarrollo de IA necesitan más atención.
El impacto de la IA en la sociedad incluye la explotación y el daño a las personas.
— Karen Hao
Abordar estos daños requiere una perspectiva crítica sobre el impacto social de la IA.
Poner el foco en el lucro puede llevar a descuidar la responsabilidad social.
Se necesita una mayor conciencia sobre el daño social que causa la IA para tener debates informados.
Explotación laboral en la industria de la IA
— Karen Hao
La industria de la IA interrumpe las trayectorias profesionales tradicionales y la seguridad laboral.
— Karen Hao
A menudo, los trabajadores son despedidos y luego reentrenados para apoyar a los modelos de IA.
Este ciclo de explotación pone de relieve problemas sistémicos dentro del mercado laboral de la IA.
Las implicaciones económicas de los procesos de entrenamiento de la IA necesitan más escrutinio.
Los efectos perjudiciales sobre los trabajadores son una preocupación importante.
Comprender estas dinámicas es crucial para abordar la explotación laboral en la IA.
La disparidad entre el discurso sobre la IA y la realidad
— Karen Hao
Las promesas de las empresas de IA a menudo no coinciden con las realidades a las que se enfrentan comunidades diversas.
— Karen Hao
La disparidad pone de relieve la necesidad de una comprensión más amplia del impacto de la IA.
Los beneficios que se perciben de la IA no se distribuyen equitativamente a nivel global.
Examinar perspectivas diversas es crucial para comprender la influencia real de la IA.
Las limitaciones de las promesas de la IA subrayan la importancia de la inclusión.
Una visión integral del impacto de la IA requiere mirar más allá de los centros tecnológicos.
La ambigüedad al definir la inteligencia general artificial
— Karen Hao
Definir los objetivos de la IA es difícil debido a la ambigüedad en la inteligencia humana.
— Karen Hao
Las empresas pueden manipular la definición de AGI para adaptarla a sus intereses.
— Karen Hao
La flexibilidad estratégica al enmarcar las tecnologías afecta los debates regulatorios.
La percepción pública y la confianza se ven influidas por la forma en que las empresas definen la AGI.
Comprender estos desafíos es crucial para tener debates informados sobre la IA.
Los posibles riesgos existenciales de la IA
— Karen Hao
Los riesgos potenciales de la IA ponen de relieve la urgencia de las conversaciones sobre seguridad.
El contexto histórico es importante para comprender las amenazas existenciales de la IA.
Figuras clave como Sam Altman y Elon Musk desempeñan un papel significativo en las conversaciones sobre la IA.
— Karen Hao
La conversación sobre la seguridad de la IA es fundamental para abordar los posibles riesgos.
La concienciación del público sobre las amenazas existenciales de la IA es necesaria para la toma de decisiones informada.
La urgencia de las conversaciones sobre la seguridad de la IA no puede exagerarse.
Dinámicas de liderazgo y preocupaciones estratégicas en OpenAI
— Karen Hao
Las preocupaciones sobre la imprevisibilidad de Elon Musk influyeron en las decisiones de liderazgo.
— Karen Hao
Los procesos internos de toma de decisiones en OpenAI ponen de relieve preocupaciones estratégicas.
Las dinámicas entre Musk y Altman fueron significativas durante la formación de OpenAI.
Las decisiones de liderazgo se vieron influenciadas por consideraciones personales y estratégicas.
Comprender estas dinámicas ofrece información sobre el liderazgo tecnológico.
Las preocupaciones estratégicas sobre el liderazgo son cruciales para comprender la estructura de OpenAI.
La percepción polarizadora de Sam Altman
— Karen Hao
Las percepciones sobre Altman varían según su alineación con su visión.
— Karen Hao
Quienes no están de acuerdo con su visión pueden sentirse manipulados por él.
— Karen Hao
La naturaleza subjetiva de la evaluación del liderazgo se hace evidente en el caso de Altman.
Comprender las dinámicas del liderazgo y la visión es crucial en la tecnología.
La dualidad de las percepciones pone de manifiesto la complejidad del liderazgo tecnológico.