Le principal danger de l'IA ne réside pas dans le fait que quelque chose puisse mal tourner, mais dans la rapidité avec laquelle cela se produit. Historiquement, l'humain dans la chaîne de prise de décision était une sorte de fusible — quelque chose qui ralentissait les processus suffisamment pour que le jugement s'active au bon moment. L'IA agentive supprime complètement ce fusible. Seules les conséquences des attaques cybernétiques offensives devraient suffire à faire froncer les sourcils de tout conseil d'administration. Auparavant, l'économie freinait les malfaiteurs de l'automatisation complète des attaques : cela n'était tout simplement pas rentable. L'apprentissage automatique supprime cette limite. Lorsque des systèmes d'IA interagissent entre eux en dehors d'un environnement contrôlé et que quelque chose tourne mal à la vitesse de la machine — il peut s'avérer impossible de l'arrêter. Les conséquences imprévues de cette technologie, auxquelles nous n'avons même pas encore commencé à penser, ne se développeront pas lentement.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler