Couvrant toutes les bases matérielles – et logicielles – avec des IPU


fonctionnalité sponsorisée En deux décennies, Intel a conduit le changement architectural le plus important dans le centre de données depuis l’avènement du mainframe System/360 dans les années 1960 et l’essor des serveurs RISC/Unix dans les années 1980. Et ce fut la création de la plate-forme X86. usage général, une toile universelle sur laquelle les développeurs de logiciels pourraient peindre leurs applications à partir de la palette de couleurs de langage de programmation la plus large possible.

Cette plate-forme informatique à usage général nous a bien servi, mais l’architecture des systèmes dans le centre de données évolue, notamment à mesure que les performances augmentent grâce à l’horloge de Dennard et à la mise à l’échelle de la puissance et aux progrès de la loi de Moore en matière de performances et d’économie.Les transistors ont diminué grâce aux limites de la physique. Pour être franc, les cœurs X86, et en fait les cœurs de toute architecture de processeur, sont chers et le travail qu’ils effectuent est si important qu’ils ne peuvent plus assumer bon nombre des tâches qu’ils devaient également effectuer – des tâches qui ont donc été initialement générées. Plate-forme universelle X86 et extraite de ce qui aurait été des périphériques externes sur les cartes PCI-Express ou le réseau du centre de données – tels que l’exécution de pilotes de réseau et de stockage ou de couches de virtualisation en tant qu’hyperviseurs, ou la compression et le cryptage des données pour accélérer et sécuriser les mouvements de données au sein du centre de données et entre les nœuds de serveur exécutant des applications distribuées.

Le passage à ce qu’Intel appelle les unités de traitement d’infrastructure, ou IPU, a commencé par une accélération instantanée à l’aide de FPGA que de nombreuses organisations de services financiers utilisaient pour le trading à grande vitesse et d’autres applications, de sorte que les transformations de données couramment effectuées, sans modification, pourrait être mis en logique programmable et donc non codé pour s’exécuter sur le CPU dans un langage de haut niveau qui effectuerait la tâche beaucoup plus lentement.

En peu de temps, les SmartNIC sont apparues, qui avaient toutes sortes d’accélérations de réseau et de stockage, ce qui signifie que des routines, des algorithmes et des protocoles pouvant s’exécuter sur le processeur aux côtés du système d’exploitation sur un serveur ont été placés sur la carte d’interface du réseau du serveur. Ces SmartNIC ont évolué et pourraient éventuellement exécuter un commutateur virtuel Open vSwitch complet pour les hyperviseurs. Mais ils n’avaient pas leurs propres cœurs de calcul à usage général pour exécuter un large éventail de fonctions définies par logiciel, juste des accélérateurs renforcés pour accélérer des fonctions spécifiques.

Avec l’UIP, ce modèle de déchargement a été porté à un autre niveau, avec une mise en réseau et une informatique sophistiquées placées sur le contrôleur de réseau d’un serveur, ce qui en fait vraiment un système à part entière – mais qui peut effectuer des tâches telles que l’exécution d’un hyperviseur complet et la virtualisation, l’accès virtualisé au réseau et au stockage, la compression et le chiffrement des données, et d’innombrables autres routines de programmation en plus d’un moteur de traitement de paquets natif qui peut éliminer ce travail à la fois des serveurs et de l’infrastructure de commutation. L’IPU a des cœurs à usage général et un système d’exploitation complet et, en un sens, est une sorte de serveur complémentaire à part entière.

Avec l’IPU, le serveur recommence à faire ce pour quoi il a été conçu : exécuter un système d’exploitation et une application, et rien de plus. Et peut-être qu’un jour, le serveur n’exécutera pas un système d’exploitation complet, offrant une isolation parfaite entre les charges de travail exécutées sur les processeurs – très probablement parfois avec son propre GPU ou FPGA ou des compléments neuromorphiques – et l’ensemble de la pile de plans de contrôle exécutés dans les IPU. .

L’effet secondaire important de cette architecture hybride CPU-IPU est que tout le contrôle de l’infrastructure d’un cloud se trouve dans l’IPU et que toutes les ressources des locataires de ce cloud sont isolées des CPU. Ceci est important pour fournir une mutualisation sécurisée sur les clouds.

L’évolution de NIC à IPU

La plupart des entreprises ne sont pas prêtes à passer d’un serveur qui fait presque tout à une IPU qui aide le serveur à faire la plupart des choses à l’exception de l’exécution des applications. Par conséquent, Intel vend toujours des NIC simples, des SmartNIC et des IPU dotés de processeurs de classe serveur pour le calcul et de FPGA ou ASIC personnalisés pour fournir une puissance de calcul et une programmation substantielles.

Voici comment Intel est passé des NIC aux IPU au cours des cinq dernières années :

La gamme de dispositifs “Creek” sont des SmartNIC, la gamme de dispositifs “Spring Canyon” sont des IPU accélérées par FPGA et la gamme de dispositifs “Mount” sont des IPU accélérées par ASIC. Le premier de ces derniers appareils, appelé “Mount Evans”, est une IPU très sophistiquée qui a été développée conjointement avec Google et qui sera commercialisée par Intel afin que d’autres entreprises puissent bénéficier de ses capacités substantielles. (Nous avons approfondi l’architecture de Mount Evans, ainsi que le SmartNIC “Arrow Creek” et l’IPU “Oak Springs Canyon” lors de leur dévoilement en août dernier.)

Comme d’habitude, les hyperscalers et les constructeurs de cloud ouvrent la voie avec les SmartNIC et les IPU, chacun pour ses propres besoins et motivé par les besoins techniques et économiques de leurs charges de travail spécifiques. Et les télécoms et autres fournisseurs de services seront juste derrière eux, suivis par les grandes entreprises qui souhaitent bénéficier des avantages des SmartNIC et des IPU pour leurs clouds privés.

Les entreprises n’investissent pas dans des produits uniques, elles investissent dans des feuilles de route qui tracent les livraisons successives de produits, c’est pourquoi Intel a publié une feuille de route jusqu’en 2026 pour sa gamme d’UIP lors de l’événement Intel Vision de la semaine dernière, que nous avons couvert en détail, mais que nous ajoutera ici pour rappeler à tous qu’il y a une cadence de deux ans pour que le produit IPU soit livré dans un proche avenir.

Les entreprises n’achètent pas seulement du matériel non plus, elles achètent également des environnements logiciels qui permettent à ces appareils d’être utilisés pour de nombreuses fonctions sans avoir à créer entièrement cette fonctionnalité par elles-mêmes. Et d’où l’avènement du kit de développement de programmeur d’infrastructure (IPDK), que vous voyez en bonne place dans la feuille de route ci-dessus en tant que compagnon du kit de développement de plan de données (DPDK) et du kit de développement de performances de stockage (SPDK) anciennement défendus par Intel et largement adoptés par l’industrie de votre part. Toutes trois sont des communautés open source, ce qui est un facteur clé de leur évolution rapide et de leur adoption. Sans logiciel – et plus particulièrement les kits de développement qui permettent aux organisations de créer leur propre logiciel d’infrastructure personnalisé ou de l’acheter à des tiers – tout cela n’est qu’une belle architecture matérielle pour les livres d’histoire.

« IPDK est absolument essentiel pour faire évoluer l’activité IPU », a déclaré Patricia Kummrow, vice-présidente et directrice générale de la division Ethernet d’Intel. la prochaine plateforme. “Certains clients ont leurs propres équipes logicielles et peuvent prendre du matériel et le faire chanter. Les autres clients ne le font pas. Mount Evans est un couteau suisse. Il y a tellement de possibilités avec cet appareil, et nous voulons que les gens soient pleinement capables de prendre soin de profiter de toute la programmabilité. Et sans un bon kit de développement, tout le monde ne pourra pas l’utiliser au maximum. Et donc l’IPDK est essentiel pour que nous puissions finalement étendre cela, et notre engagement avec l’IPDK est fort pour cette raison.

Mais l’IPDK étant un projet open source, d’autres entreprises, dont Google, le premier client de Mount Evans, peuvent participer et partager le contrôle de l’orientation future des logiciels prenant en charge la feuille de route IPU d’Intel. Et la beauté est que l’IPDK créera du code qui peut fonctionner sur les IPU (y compris les IPU/DPU non Intel) basés sur des FPGA ou ASIC personnalisés, ainsi que sur des CPU ou une infrastructure de commutation programmable.

L’idée des IPU – certains les appellent des unités de traitement de données ou DPU – commence à décoller, et c’est parce que la bonne idée et la bonne technologie se rejoignent au bon moment, lorsque l’infrastructure doit changer pour les raisons évoquées. au dessus.

“Nous nous sommes associés à Google et avons parlé de Mount Evans, et depuis la publication de ce produit, nous avons parlé à de nombreux autres clients et avons constaté un grand intérêt au-delà des hyperscalers et des clouds”, déclare Kummrow. « Nous avons des IPU dans six des huit plus grands hyperscalers et constructeurs de cloud, et nous constatons une applicabilité du centre de données à la périphérie, de l’infrastructure mutualisée partagée à l’infrastructure bare metal. Le fait est que les IPU nous permettent de configurer les plates-formes de centres de données de différentes manières, et cette tendance à la désagrégation au niveau de la plate-forme autorisée par les IPU se poursuivra.

Il y a actuellement quatre facteurs principaux derrière le passage aux UPI, et trois d’entre eux sont techniques et l’un d’eux est rentable.

“Le déchargement du réseau était le cas d’utilisation initial des IPU, et maintenant le stockage hiérarchisé et le stockage sans disque sont le deuxième vecteur le plus puissant”, explique Kummrow. “La sécurité est désormais le troisième moteur, et le besoin de sécurité s’accélère dans le datacenter et je pense que ce sera également un moteur à la périphérie.”

Le quatrième facteur à l’origine de l’adoption des IPU est le coût, et les données des premiers utilisateurs de l’hyperscaler suggèrent que les clients peuvent économiser 30 % à 40 % sur leur infrastructure de serveurs en déchargeant les fonctions de mise en réseau, de stockage et de sécurité des CPU vers leurs systèmes pour les IPU. Les hyperscalers apportent des modifications architecturales pour économiser 20 %, et c’est beaucoup plus. C’est donc un bon indicateur d’enthousiasme. Il en va de même pour le succès d’Amazon Web Services avec ses SmartNIC “Nitro” maison, qui évoluent vers des appareils de type IPU qui prennent en charge les hyperviseurs d’Amazon. D’une certaine manière, AWS a mis en production des appareils de type IPU à grande échelle, et maintenant Intel commercialisera cette idée auprès d’autres hyperscalers et constructeurs de cloud. Cette technologie atteindra certainement les grandes entreprises et les prestataires de services ainsi que les centres HPC.

Ce qui signifie que ce n’est peut-être qu’une question de temps avant que chaque serveur du centre de données dispose d’une sorte d’IPU.

Ce contenu est sponsorisé par Intel.

Leave a Comment