O principal perigo da IA não está em algo poder dar errado, mas na rapidez com que isso acontece. Historicamente, o ser humano na cadeia de tomada de decisão era uma espécie de fusível — algo que atrasava os processos o suficiente para que, no momento certo, o julgamento fosse acionado. A IA baseada em agentes elimina completamente esse fusível. Somente as consequências de ataques cibernéticos ofensivos deveriam fazer qualquer conselho de administração ficar em alerta. Antes, a economia impedia os malfeitores de automatizar ataques em toda a sua extensão: simplesmente não era lucrativo. O aprendizado de máquina remove essa limitação. Quando sistemas de IA interagem entre si fora de um ambiente controlado e algo dá errado na velocidade de uma máquina — pode ser impossível parar isso. As consequências imprevistas dessa tecnologia, sobre as quais ainda nem começamos a pensar, não se desenvolverão lentamente.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar