Mesmo que não fosse a intenção de plataformas como o ChatGPT tornarem-se companheiros de IA dos quais as pessoas dependem emocionalmente, "claramente não foi feito o suficiente nos passos de segurança" para prevenir isso totalmente, segundo um VP de Políticas Públicas em um episódio recente de podcast.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
14 gostos
Recompensa
14
6
Republicar
Partilhar
Comentar
0/400
MetaEggplant
· 11h atrás
lowkey vou acabar viciado em ai fr
Ver originalResponder0
DegenMcsleepless
· 21h atrás
não vou mentir, mano, isso bate diferente...
Ver originalResponder0
AirdropHuntress
· 22h atrás
Mais um campo de fazer as pessoas de parvas com dados.
Mesmo que não fosse a intenção de plataformas como o ChatGPT tornarem-se companheiros de IA dos quais as pessoas dependem emocionalmente, "claramente não foi feito o suficiente nos passos de segurança" para prevenir isso totalmente, segundo um VP de Políticas Públicas em um episódio recente de podcast.