Nouveau chapitre pour les robots humanoïdes ! Texas Instruments (TXN.US) s’associe à Nvidia (NVDA.US) pour fusionner l’IA et la détection et embraser la révolution « IA physique ».

L’entreprise géante des puces axée sur les solutions de puces pour circuits analogiques et de traitement embarqué — Texas Instruments (TXN.US), qui a longtemps le titre de « baromètre de la demande mondiale de semi-conducteurs » — combine de manière exhaustive sa gamme de produits de contrôle en temps réel, de capteurs et d’alimentation avec les composants de calcul robotique avancés de Nvidia (NVDA.US), ainsi que la perception basée sur une architecture Ethernet et des technologies de simulation exclusives. Cette approche fournit aux développeurs un soutien technique majeur, les aidant à construire, déployer et produire à grande échelle des robots humanoïdes, et d’autres équipements finaux appelés « intelligence artificielle physique » (IA physique).

	D’après les informations médiatiques actuelles, la coopération entre le géant des puces analogiques Texas Instruments et Nvidia pourrait faire franchir un cap supplémentaire aux systèmes intelligents de robots humanoïdes, plutôt que de se limiter au simple fait de « concevoir des robots ensemble » à un niveau superficiel. Leur dernière collaboration ressemble davantage à la construction, au niveau de la pile technologique de base, d’une infrastructure robotique plus complète, plus sûre et plus facile à déployer à grande échelle : cela apporte une aide concrète à l’industrialisation et à la commercialisation des robots humanoïdes.

	À mesure que le marché nourrit de plus en plus l’attente d’associer d’énormes charges de travail d’inférence AI à l’exécution dans le monde réel, la coopération entre Nvidia et Texas Instruments n’est pas seulement une superposition entre puces et couche de capteurs. Il s’agit d’une construction coordonnée, allant de l’inférence AI, de la perception en temps réel, jusqu’au système de contrôle au niveau le plus bas : c’est une base importante pour permettre aux robots humanoïdes d’accéder à de vraies applications dans le monde réel.

	Le directeur général du département automatisation industrielle et robotique de Texas Instruments, Giovanni Campanella, a déclaré : « La gamme complète de produits de Texas Instruments comble le fossé entre les puissantes capacités de calcul AI de Nvidia et les besoins des applications réelles, permettant aux développeurs de valider plus tôt un système d’exploitation complet de type humanoïde. » Dans sa déclaration, il a également mentionné : « Cette approche intégrée accélérera l’évolution des prototypes/ébauches vers des robots humanoïdes commercialisables, et garantira que ces robots peuvent travailler en toute sécurité avec des humains. »

	Nvidia s’engage récemment, sans aucun doute, à promouvoir les technologies d’intelligence artificielle les plus avancées vers des domaines plus vastes — par exemple les équipements finaux appelés « intelligence artificielle physique » (IA physique), tels que les robots et les véhicules de conduite autonome — afin de continuer à stimuler l’expansion de la demande et à trouver de nouveaux points de croissance au-delà de l’activité des centres de données. Selon l’analyse du PDG de Nvidia, Jensen Huang, « l’IA physique » met l’accent sur la capacité des robots/systèmes d’opération autonomes à percevoir, raisonner et accomplir une séquence complète d’actions dans le monde réel, et une époque où l’évolution de la civilisation humaine est assistée par « l’IA physique » est sur le point de se profiler. « L’IA physique » met l’accent sur le fait que les robots/systèmes autonomes doivent percevoir, raisonner et agir dans le monde réel, et ces trois capacités sont les outils clés qui font passer les modèles de « capables uniquement de dialoguer » à « capables de faire le travail dans le monde physique ».

	Texas Instruments s’associe à Nvidia, visant les trois couches les plus difficiles à synchroniser dans les systèmes de robotique : perception au niveau de base + contrôle + inférence AI.

	Dans le cadre de cette collaboration, Texas Instruments a conçu une solution de fusion de capteurs. En combinant sa technologie de radar à ondes millimétriques avec la technologie robotique Nvidia Jetson Thor, et en s’appuyant sur le pont de capteurs Holoscan exclusif de Nvidia, elle permet une perception 3D à faible latence et une prise de conscience de la sécurité, afin de soutenir le développement de la technologie des robots humanoïdes. Les résultats de développement les plus récents des deux parties seront présentés lors de l’événement très attendu Nvidia GTC, qui se tiendra à San José, en Californie, du 16 au 19 mars.

	Deepu Talla, vice-président des activités robots et edge AI de Nvidia, a déclaré : « L’exploitation sûre des robots humanoïdes dans des environnements imprévisibles nécessite des capacités de calcul et de traitement extrêmement puissantes afin de synchroniser des modèles AI extrêmement complexes, des données de capteurs en temps réel et des systèmes de contrôle des moteurs. »

	En fusionnant les données de caméras haute définition et de radar, la solution conjointe de Texas Instruments et Nvidia améliore l’itération des technologies de détection, de localisation et de suivi d’objets, tout en réduisant les faux positifs/les fausses alertes du système, améliorant ainsi les capacités de prise de décision en temps réel des robots humanoïdes.

	Les experts de l’industrie robotique estiment généralement qu’il reste encore quelques années avant que des robots humanoïdes autonomes possédant de véritables capacités générales n’existent. Cependant, les progrès systémiques dans les domaines de la perception, de l’inférence et de la coordination des mouvements constituent une condition préalable nécessaire à un déploiement commercial. La coopération entre Texas Instruments et Nvidia est précisément une étape clé pour faire passer l’industrie de la phase « validation par algorithmes et simulation » à celle de « fonctionnement sûr dans le monde réel ». Cela contribuera grandement à améliorer l’efficacité de développement globale du secteur, à renforcer la robustesse des systèmes et, à terme, à raccourcir le chemin vers la production de masse.

	Dans la recherche et le développement en robotique, l’écart Sim to Real (de la simulation au réel) est depuis toujours l’un des plus grands défis. Même si les algorithmes AI fonctionnent bien dans des modèles de simulation, ils peuvent encore échouer dans des environnements réels complexes. En tant que plateforme d’inférence hautes performances, Nvidia Jetson Thor est déjà utilisée par plusieurs entreprises pour des applications robotiques, et les modules de contrôle et de capteurs de Texas Instruments ajoutent à cette plateforme une capacité directe d’interaction avec le monde physique. La combinaison des deux permettra aux développeurs de valider plus tôt et plus précisément la perception, les mouvements et la sécurité du système, réduisant efficacement la durée de validation des prototypes et diminuant les coûts d’itération.

	Texas Instruments intègre son contrôleur en temps réel, ses capteurs de perception (par exemple, radar à ondes millimétriques mmWave) et sa technologie de gestion de l’alimentation, avec la plateforme de calcul robotique hautes performances de Nvidia (Jetson Thor) et le Holoscan Sensor Bridge. Cela forme une chaîne complète allant des capteurs au contrôle, puis au calcul d’inférence. Par rapport à une architecture traditionnelle qui ne s’appuie que sur une caméra de vision + un système d’inférence GPU, cette solution de fusion des capteurs permet une perception 3D à faible latence et une prise de conscience de la sécurité, améliorant la capacité globale des robots à comprendre leur environnement en temps réel : c’est un maillon clé pour passer à des systèmes réellement déployables.

	Lorsqu’un robot humanoïde exécute des tâches, il a non seulement besoin d’une inférence AI complexe, mais il doit aussi traiter en temps réel la fusion de capteurs (sensor fusion), le contrôle des mouvements multi-articulaires, et les décisions de sécurité au niveau edge. Ces fonctions doivent être réalisées en un temps extrêmement court. Le radar à ondes millimétriques de Texas Instruments, ainsi que sa technologie de passerelle avec Ethernet, peuvent aider les robots à détecter et à suivre des objets de manière plus fiable que les solutions traditionnelles à base de caméras, dans des environnements complexes (par exemple, des portes en verre, une lumière forte/faible, ainsi que la fumée et la poussière). Cette amélioration de la couche de perception matérielle pose des bases solides pour le fonctionnement dans le réel.

	**La méga-vague des robots humanoïdes**

	Plusieurs entreprises technologiques dont le siège est aux États-Unis s’efforcent de développer des robots humanoïdes à fréquences élevées. Par exemple, Tesla (TSLA.US), leader dans les véhicules électriques, l’IA et la robotique, développe un robot humanoïde appelé Optimus, destiné à des usages industriels et grand public.

	Figure AI, soutenue par Microsoft (MSFT.US) et OpenAI, cherche à créer un robot humanoïde de type général capable de gérer une multitude de tâches. Figure AI indique : « Ces robots peuvent éliminer les tâches dangereuses et désagréables, et finalement permettre à la société humaine de vivre une vie plus heureuse et plus significative. » Boston Dynamics espère clairement que son robot Atlas pourra « transformer radicalement l’environnement de travail industriel ».

	Dans le monde entier, de Tesla Optimus à l’ultra-système Helix de Figure AI, en passant par les efforts de R&D d’autres entreprises technologiques, tout cela reflète un déploiement dense des capitaux et de l’industrie dans ce segment. Les données actuelles de l’industrie montrent que divers prototypes de robots humanoïdes ont réalisé des progrès significatifs en matière de fonctionnalités, de perception et de contrôle des mouvements. Des caractéristiques telles que l’équilibre bipède, la perception de l’environnement et la décision multimodale deviennent progressivement plus mûres. Parallèlement, les coûts de la chaîne industrielle et la performance des composants clés continuent de s’améliorer, tandis qu’une concurrence se dessine avec plusieurs voies technologiques en coexistence. Tout cela pousse la transition des recherches conceptuelles vers des pilotes dans des scénarios réels. Cette dynamique positive indique que l’industrie passe de la « période de spéculation sur les tendances » à une phase de capitalisation technique réelle et de déploiement à l’échelle, même s’il reste une fenêtre de temps avant une adoption à grande échelle. Des organismes de recherche estiment qu’au cours des dix prochaines années, la taille du marché de ce secteur augmentera significativement ; des projets représentatifs, comme Optimus de Tesla, prévoient d’atteindre des objectifs de fiabilité et de sécurité élevées, et prévoient de lancer des plans de production de masse dans les prochaines années.

	À l’heure actuelle, le moteur central du développement de robots humanoïdes réside dans la fusion approfondie de l’IA, de la perception, de la prise de décision et du contrôle des mouvements. Cela inclut notamment l’utilisation de grands modèles pour comprendre les informations du langage et de la vision, la prise de décision par priorité en renforcement (reinforcement learning), ainsi que la fusion de capteurs (comme la vision, le radar et la sensation de force). De tels systèmes peuvent non seulement marcher dans des environnements contrôlés, mais aussi exécuter des tâches de niveau supérieur, comme le transport de charges logistiques, des inspections de maintenance ou des travaux de service en collaboration avec des humains. Des institutions comme Morgan Stanley estiment que cette percée technologique combinée est la clé pour rendre les déploiements commerciaux réalisables. Les analystes de Morgan Stanley prévoient que le marché des robots humanoïdes dépassera au final l’industrie automobile traditionnelle. Ils s’attendent à ce qu’en 2050, les revenus annuels du marché mondial des robots humanoïdes dépassent 5 000 milliards de dollars, et que le nombre de robots humanoïdes puisse alors dépasser 1 milliard d’unités.

	Cependant, dans un article récent de revue, le professeur de l’Université de Californie à Berkeley et expert en robotique Ken Goldberg (Ken Goldberg) a déclaré que les ingénieurs ont encore un long chemin à parcourir avant de fabriquer des robots humanoïdes dotés de compétences réellement pratiques.

	Goldberg a déclaré : « Nous connaissons tous très bien ChatGPT et les travaux étonnants qu’il a réalisés en vision et en langage, mais la plupart des chercheurs professionnels sont très inquiets de ce genre d’analogie : à présent, puisque nous avons résolu tous ces problèmes, nous sommes prêts à résoudre les grands problèmes liés aux robots humanoïdes, et cela se produira l’an prochain. Je ne dis pas que cela ne se produira pas, mais je dis que cela ne se produira pas dans deux ans, cinq ans, voire dix ans. Nous voulons simplement réinitialiser les attentes pour éviter de créer une bulle, qui finirait par provoquer un retentissement massif. »
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler