Mesmo que não fosse a intenção de plataformas como o ChatGPT tornarem-se companheiros de IA dos quais as pessoas dependem emocionalmente, "claramente não foi feito o suficiente nos passos de segurança" para prevenir isso totalmente, segundo um VP de Políticas Públicas em um episódio recente de podcast.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 6
  • Republicar
  • Partilhar
Comentar
0/400
MetaEggplantvip
· 11h atrás
lowkey vou acabar viciado em ai fr
Ver originalResponder0
DegenMcsleeplessvip
· 21h atrás
não vou mentir, mano, isso bate diferente...
Ver originalResponder0
AirdropHuntressvip
· 22h atrás
Mais um campo de fazer as pessoas de parvas com dados.
Ver originalResponder0
SatoshiNotNakamotovip
· 22h atrás
lmao quem não viu isso a vir fr
Ver originalResponder0
GasGoblinvip
· 22h atrás
os passos de segurança não servem para nada
Ver originalResponder0
TokenomicsTherapistvip
· 22h atrás
smh a segurança da IA é uma piada fr
Ver originalResponder0
  • Fixar
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)