Mesmo que não fosse a intenção de plataformas como o ChatGPT tornarem-se companheiros de IA dos quais as pessoas dependem emocionalmente, "claramente não foi feito o suficiente nos passos de segurança" para prevenir isso totalmente, segundo um VP de Políticas Públicas em um episódio recente de podcast.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
14 Curtidas
Recompensa
14
6
Repostar
Compartilhar
Comentário
0/400
MetaEggplant
· 8h atrás
lowkey vou acabar viciado em ai fr
Ver originalResponder0
DegenMcsleepless
· 18h atrás
não vou mentir, mano, isso bate diferente...
Ver originalResponder0
AirdropHuntress
· 18h atrás
Mais um campo de fazer as pessoas de parvas com dados.
Mesmo que não fosse a intenção de plataformas como o ChatGPT tornarem-se companheiros de IA dos quais as pessoas dependem emocionalmente, "claramente não foi feito o suficiente nos passos de segurança" para prevenir isso totalmente, segundo um VP de Políticas Públicas em um episódio recente de podcast.