La croissance du trafic AI dépasse celle de l'humain de 8 fois ! La veille du « retournement » du trafic : les agents intelligents AI sont en train d'épuiser la vieille mine d'or d'Internet

robot
Création du résumé en cours

Demandez à l’IA : comment le trafic généré par les machines peut bouleverser les modèles économiques traditionnels d’Internet ?

Cette image semble être générée par l’IA

Internet agentique est arrivé.

À l’heure locale du 26 mars 2026, la société de cybersécurité HUMAN Security a publié son rapport annuel intitulé « The 2026 State of AI Traffic & Cyberthreat Benchmark Report » (État de référence du trafic d’IA et des cybermenaces en 2026).

Sur la base de plus de un trillion (10 000 milliards) de données d’interactions traitées par sa plateforme de défense Human Defense Platform, le rapport révèle un tournant structurel dans le système de trafic Internet :

En 2025, le rythme d’expansion du trafic automatisé a atteint près de 8 fois celui du trafic humain réel, et le pool de trafic sous-jacent d’Internet subit une reconstruction en profondeur, avec un basculement vers une domination des machines.

Écart de vitesse de 8 fois

En retirant l’emballage conceptuel, les données centrales du rapport dessinent un changement net et clair dans la structure du trafic. Sur l’ensemble de l’année 2025, le trafic automatisé sur l’ensemble du réseau a augmenté de 23,51 % en glissement annuel, tandis que le trafic lié aux activités humaines n’a augmenté que de 3,10 % ; cet écart de vitesse, proche de 8 fois, indique que le trafic de machines est devenu le moteur central de la croissance du trafic réseau. L’élan moteur qui alimente ce changement est précisément la généralisation et le déploiement des grands modèles génératifs.

Le rapport indique qu’entre janvier et décembre 2025, le trafic mensuel propulsé par l’IA a progressé de 187 % par rapport au début de l’année, atteignant presque un triplement. Parmi les plus susceptibles d’avoir un impact sur l’industrie, on trouve le trafic d’IA de type agent (Agentic AI traffic), dont l’augmentation en glissement annuel explose jusqu’à 7851 %. Bien que la base en 2024 soit plus faible, ce chiffre atteste du déploiement et de la diffusion rapides de l’IA agentique.

Contrairement aux crawlers et outils d’extraction de données traditionnels, qui ne font que lire des pages web, les agents intelligents d’IA représentés par OpenAI’s Atlas et Perplexity’s Comet disposent d’une autonomie élevée et de capacités de compréhension des intentions extrêmement fortes.

Ils ne sont plus de simples programmes utilitaires, mais des entités capables, comme des humains, de naviguer de manière autonome sur Internet, d’interagir, et même d’effectuer des opérations complexes comme remplir des formulaires et exécuter des transactions. La forte dynamique de croissance du trafic automatisé fait apparaître progressivement un point d’inflexion où, en volume absolu, le trafic des machines finit par dépasser le trafic humain réel.

En cas de concentration du trafic, la logique de monétisation d’Internet traditionnelle échoue

Cette reconstruction du trafic ne se répartit pas uniformément sur l’ensemble du réseau, mais présente au contraire une concentration marquée au niveau sectoriel. Le rapport indique clairement qu’en 2025, plus de 95 % du trafic piloté par l’IA est hautement concentré dans trois grands pôles d’activité : le retail et l’e-commerce, le streaming et les médias, le tourisme et les hôtels.

Parmi eux, le retail et l’e-commerce constituent encore plus le secteur principal qui porte le trafic des crawlers entraînant l’IA : devenant ainsi le domaine majeur de pénétration du trafic des machines. 62,5 % du trafic des crawlers d’IA destinés à l’entraînement pointe vers ce secteur, qui devient la plateforme centrale pour le déploiement du trafic de machines.

Le changement de structure du trafic extrait directement les fondations de base du modèle économique d’Internet des vingt dernières années. Auparavant, la logique traditionnelle de monétisation numérique—qu’il s’agisse de publicité numérique, de conversion e-commerce ou d’abonnements à du contenu—reposait entièrement sur l’attention humaine et le taux de clics (CTR) : chaque clic et chaque temps passé correspondent à des consommateurs humains potentiels, formant le modèle classique de « tunnel de trafic ».

Cependant, lorsque d’innombrables agents intelligents d’IA remplacent les humains et exécutent de façon autonome des actions telles que la comparaison des prix, la collecte d’informations, la réservation de billets d’avion, voire des premières communications commerciales, ce modèle classique fait face à un échec fondamental. Les agents intelligents d’IA n’ont pas d’impulsion d’achat, ne se laissent pas guider par la publicité visuelle, et se conforment uniquement à l’échange de données et à l’exécution de tâches selon l’efficacité et la logique ; les indicateurs de conversion commerciaux traditionnels centrés sur l’attention humaine ne peuvent donc plus s’adapter aux caractéristiques du trafic de machines.

Cela signifie que les « douves » de l’actif numérique des entreprises doivent être recalculées : les plateformes doivent non seulement assumer les coûts de calcul et de bande passante des centres de données liés à des requêtes de machines à haute fréquence et à grande échelle, mais aussi, sous l’anticipation d’une montée rapide du trafic non humain, réinitialiser le système d’indicateurs de conversion commerciale à la base, en passant de « capter l’attention humaine » à « s’adapter aux besoins d’interaction des machines ».

Réinitialisation des bases attaque-défense

Le changement de la couleur du trafic augmente simultanément le coût de calcul et les exigences techniques de la défense en cybersécurité sur l’ensemble du réseau.

Face aux grands modèles et aux agents intelligents d’IA présentant des caractéristiques hautement anthropomorphes, les systèmes de gestion des risques traditionnels fondés sur une simple logique comportementale (comme les CAPTCHA de vérification par image), sont devenus trop difficiles à utiliser pour distinguer efficacement le trafic automatisé bénin du trafic automatisé malveillant ; l’efficacité de la défense chute fortement, et la difficulté de quantifier et de différencier les activités automatisées à l’échelle de tout le réseau augmente également de manière abrupte.

Les données d’attaque divulguées par le rapport attestent de ce défi : en 2025, la proportion de trafic mondial visant à mener des attaques de captation de données (Scraping) s’est approchée de 20 %, soit près du double de celle de 2022 ; les tentatives de détournement de compte après connexion (ATO) ont même été multipliées par quatre en glissement annuel, avec en moyenne 402k attaques par organisation et par an.

Les attaquants malveillants exploitent les caractéristiques de l’IA pour générer massivement des stratégies de phishing personnalisées, et pour simuler des comportements humains afin de contourner les règles de sécurité existantes ; les arsenaux des deux parties dans l’attaque et la défense ont été entièrement modernisés.

Cette tendance oblige la défense en cybersécurité à opérer un transfert fondamental vers le centre de commandement :

D’une simple « identification de l’identité du robot », vers une « validation approfondie de l’intention de la requête ».

Dans le mécanisme d’exécution de « l’Internet agentique (Agentic Internet) » proposé par le rapport, le critère central d’évaluation du trafic n’est plus « s’il s’agit d’une machine », mais « si l’interaction possède une intention fiable » : qu’il s’agisse d’humains ou d’agents intelligents d’IA, seule la validation de la légitimité de leur intention comportementale permet de mettre en place une défense efficace.

Et, dans cette toute nouvelle écologie réseau, la question de savoir comment, tout en adoptant l’efficacité de l’automatisation par l’IA, garantir que les actifs de données publics ne soient pas consommés sans limites et que l’équité du commerce numérique ne soit pas compromise, devient une considération d’efficacité et de conformité que les plateformes technologiques, les entreprises et les fournisseurs de sécurité doivent clarifier ensemble. Cela apporte également une nouvelle problématique pour la construction du système de confiance réseau de prochaine génération. (Cet article a été publié pour la première fois dans l’application Ti Media ; auteur : Technews de Silicon Valley, rédaction : Jiao Yan)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler