AWS propose une nouvelle perspective : l'intelligence artificielle clé réside dans le temps plutôt que dans la taille du modèle

robot
Création du résumé en cours

Nouvelles ME : Message, le 1er avril (UTC+8). Récemment, Amazon Science a publié une prise de position, estimant que, à mesure que la taille des modèles d’IA augmente, leurs capacités d’analyse pourraient au contraire diminuer. AWS a découvert une formule susceptible de changer la donne, indiquant que la clé de l’intelligence réside dans le temps, plutôt que dans la taille des paramètres du modèle. Cela suggère que le développement de l’intelligence artificielle devrait davantage se concentrer sur l’efficacité d’apprentissage, l’entraînement continu et la capacité d’adaptation, plutôt que sur l’augmentation pure et simple de la taille des modèles. Les domaines de recherche d’Amazon Science sont variés : raisonnement automatique, cloud computing et systèmes, vision par ordinateur, IA conversationnelle et traitement du langage naturel, apprentissage automatique, technologies quantiques, robotique, etc. L’objectif est de construire, grâce à une exploration interdisciplinaire, des systèmes d’IA plus efficaces, fiables et évolutifs. (Source : InFoQ)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler