Incluso si no era la intención que plataformas como ChatGPT se convirtieran en compañeros de IA de los que las personas dependieran emocionalmente, "claramente no se hizo lo suficiente en los pasos de seguridad" para prevenirlo por completo, según un VP de Políticas Públicas en un episodio reciente de podcast.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
6
Republicar
Compartir
Comentar
0/400
MetaEggplant
· hace4h
bajo perfil voy a terminar adicto a la IA fr
Ver originalesResponder0
DegenMcsleepless
· hace15h
no voy a mentir hermano, esto impacta diferente...
Ver originalesResponder0
AirdropHuntress
· hace15h
Otra granja de recolección de datos con intenciones ocultas
Incluso si no era la intención que plataformas como ChatGPT se convirtieran en compañeros de IA de los que las personas dependieran emocionalmente, "claramente no se hizo lo suficiente en los pasos de seguridad" para prevenirlo por completo, según un VP de Políticas Públicas en un episodio reciente de podcast.