Mesmo que não fosse a intenção de plataformas como o ChatGPT tornarem-se companheiros de IA dos quais as pessoas dependem emocionalmente, "claramente não foi feito o suficiente nos passos de segurança" para prevenir isso totalmente, segundo um VP de Políticas Públicas em um episódio recente de podcast.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 6
  • Repostar
  • Compartilhar
Comentário
0/400
MetaEggplantvip
· 8h atrás
lowkey vou acabar viciado em ai fr
Ver originalResponder0
DegenMcsleeplessvip
· 18h atrás
não vou mentir, mano, isso bate diferente...
Ver originalResponder0
AirdropHuntressvip
· 18h atrás
Mais um campo de fazer as pessoas de parvas com dados.
Ver originalResponder0
SatoshiNotNakamotovip
· 18h atrás
lmao quem não viu isso a vir fr
Ver originalResponder0
GasGoblinvip
· 19h atrás
os passos de segurança não servem para nada
Ver originalResponder0
TokenomicsTherapistvip
· 19h atrás
smh a segurança da IA é uma piada fr
Ver originalResponder0
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)