Incluso si no era la intención que plataformas como ChatGPT se convirtieran en compañeros de IA de los que las personas dependieran emocionalmente, "claramente no se hizo lo suficiente en los pasos de seguridad" para prevenirlo por completo, según un VP de Políticas Públicas en un episodio reciente de podcast.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Republicar
  • Compartir
Comentar
0/400
MetaEggplantvip
· hace4h
bajo perfil voy a terminar adicto a la IA fr
Ver originalesResponder0
DegenMcsleeplessvip
· hace15h
no voy a mentir hermano, esto impacta diferente...
Ver originalesResponder0
AirdropHuntressvip
· hace15h
Otra granja de recolección de datos con intenciones ocultas
Ver originalesResponder0
SatoshiNotNakamotovip
· hace15h
lmao quién no vio esto venir fr
Ver originalesResponder0
GasGoblinvip
· hace15h
los pasos de seguridad son inútiles
Ver originalesResponder0
TokenomicsTherapistvip
· hace15h
smh la seguridad de la IA es una broma fr
Ver originalesResponder0
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)