Portefeuille Intel : Comment Intel alimente-t-il le monde numérique intelligent et connecté ?

Publié: 2022-08-16
Image de la bannière du portefeuille Intel

Intel joue un rôle important dans la transformation numérique des organisations. Dans cet article, Shreejith G Krishnan d'Intel Corporation est en conversation avec Asheet Makhija (chef d'entreprise - Techjockey Infotech) et nous présentera le vaste portefeuille de solutions Intel.

Asheet- Bonjour à tous, je m'appelle Asheet Makhija , je représente SISL Techjockey , et nous sommes ici pour discuter de certains aspects importants autour d'Intel, du portefeuille d'Intel et des avancées d'Intel face à la technologie et à la puissance de traitement qu'elle a générée au fil des ans. .

Je suis sûr que nous connaissons tous Intel et son portefeuille qui a évolué au fil des ans, mais je pense qu'il est important pour nous d'avoir le dernier contexte d'Intel en tant qu'organisation et de la technologie Intel du côté progressiste.

Nous sommes heureux de vous présenter Sreejith Gopala Krishnan , architecte de position partenaire pour l' intégrateur de systèmes national et l' intégrateur de systèmes mondiaux chez Intel Corporation . Il a été notre personne de référence chaque fois qu'il s'agissait de trouver des solutions et je peux donc dire avec confiance qu'il est le meilleur homme pour discuter des sujets à traiter.

Pour commencer, discutons avec vous de la partie Datacenter Portfolio. Et la première chose qui me vient à l'esprit concerne la transformation numérique. Nous savons donc tous que la transformation numérique et tout ce qui l'entoure s'est vraiment accéléré au cours des dernières années et de nombreuses organisations sont soit sur la bonne voie, soit ont déjà mûri dans une assez large mesure.

Comment Intel alimente-t-il l'image de la fonctionnalité du monde numérique intelligent et connecté

Table des matières

Quel a été le jeu d'Intel dans cet aspect de la transformation numérique de l'organisation au cours des dernières années et aujourd'hui ?

Sreejith - Bien sûr, tout d'abord, merci Asheet, et merci à l'équipe SISL d'avoir mis en place cette discussion. Comme vous l'avez souligné à juste titre, la transformation numérique entre enfin dans le courant dominant et Intel a été assez aligné pour élaborer la bonne stratégie et permettre l'ensemble de la fondation.

Il a construit des technologies qui ont jeté les bases de la performance et de l'agilité nécessaires pour atteindre les objectifs communs que nous essayons de résoudre pour les clients.

Au cours des deux dernières décennies, Intel a utilisé une stratégie holistique et je tiens à signaler à tout le monde qu'il essaie de créer des produits de pointe afin qu'il y ait une innovation continue dans le matériel et l'infrastructure.

Une fois que nous avons mis en place les produits leaders, il est important pour nous de construire un écosystème en place et d'optimiser les solutions. De plus, vous devez travailler avec des partenaires de l'écosystème pour l'activer et le proposer aux clients finaux.

C'est pourquoi Intel essaie de travailler avec un large éventail de partenaires, qu'il s'agisse d'optimiser et d'améliorer les performances des charges de travail afin qu'elles fonctionnent au mieux sur le matériel Intel. C'est là qu'il propose cette approche d'optimisation de certaines des bibliothèques open source.

Intel a été un important contributeur à la communauté open source. Nous prenons certaines des charges de travail avancées comme l'IA ou l'analyse avancée qui permettent cela et entrons dans la transformation numérique.

Il a optimisé certains de ces frameworks d'IA, qu'il s'agisse de flux tensoriels ou de pytorch, qui sont comme les frameworks les plus utilisés dans AI Space.

Intel travaille avec la communauté open source pour optimiser et tirer le meilleur parti du matériel Intel lorsque vous exécutez ou lorsque vous créez des applications pour atteindre cette plate-forme d'IA. Donc, pas seulement cela, Intel travaille également avec l'écosystème.

Intel fait également des acquisitions et des investissements stratégiques dans le domaine de l'IA, dont certains sont Mobileye - ils sont dans une entreprise de conduite autonome et ils développent des systèmes avancés d'assistance à la conduite basés sur la vision. Intel a également Movidius, car nous parlons maintenant de l'histoire du cloud X.

Nous proposons également ces conceptions Movidius dans lesquelles vous avez des puces de processeur à faible consommation d'énergie pour la vision par ordinateur et le type iotique de cas d'utilisation que nous essayons de résoudre en ce moment.

À travers tous ces investissements stratégiques, Intel joue un rôle déterminant et pilote toute cette transformation numérique grâce à ses produits leaders. Il rassemble également l'écosystème pour accélérer toute cette transformation.

Asheet- Parfait, vous avez parlé des progrès technologiques qu'Intel fait du côté de l'infrastructure, puis vous avez également parlé des écosystèmes.

Je veux dire, je peux confirmer que vous avez absolument raison parce que nous recevons beaucoup de soutien d'Intel, puis vous avez parlé de toutes les contributions qu'Intel apporte à l'open source et au développement communautaire et aux acquisitions stratégiques qu'Intel a faites.

Je pense que c'est une assez bonne vue à 360 degrés ou une façon de voir l'ensemble de la transformation numérique telle qu'elle se produit dans l'industrie aujourd'hui. Cela signifie également qu'Intel a évolué progressivement, de manière cohérente et très globale, passant d'une organisation centrée sur les processeurs à une entreprise centrée sur les données.

Le rôle d'Intel dans la transformation de la technologie des centres de données

Centre de données

Donc, ce serait bien si vous pouviez simplement nous parler de ce qui se passe réellement du côté des centres de données en ce qui concerne tout ce qu'Intel a fait.

Sreejith- Bien sûr Asheet, merci d'avoir soulevé ce point parce que nous avons parlé de notre transformation d'une entreprise centrée sur les processus en une entreprise centrée sur les données.

La mission d'Intel a toujours été de concevoir l'avenir des centres de données. Nous construisons des produits pour répondre aux solutions de bout en bout allant de l'informatique H à la 5G que nous considérons comme une tendance et bien sûr le cloud et les domaines émergents de l'IA et de l'analyse avancée.

Intel est le leader dans l'aspect processeur ou dans les processus de fabrication de l'industrie informatique depuis près de cinq décennies maintenant. Ce qu'Intel a fait, c'est investir dans une nouvelle approche pour créer une infrastructure afin d'accélérer toute cette transformation centrée sur les données.

Lorsqu'il s'agit de transformation informatique, il n'est pas toujours juste de souligner un seul aspect qui est le processeur. Il est important de souligner et de disposer d'une plate-forme optimisée de pile de bout en bout et d'une pile optimisée pour piloter les centres de données modernes. Lorsqu'Intel construit ces produits d'infrastructure pour le centre de données, il essaie de créer des produits pour trois segments différents.

  1. Pour déplacer les données plus rapidement
  2. Pour stocker de plus en plus de données
  3. Pour traiter ces données le plus rapidement possible.

Au cours des dernières années, nous avons assisté à une explosion de la quantité de données générées, ce qui équivaut également à une sorte d'explosion du trafic de données. Le trafic réseau est assez élevé dans le centre de données, qu'il soit est-ouest ou nord-sud. Ainsi, dans cet aspect, à mesure que le trafic augmente, la connectivité peut devenir un goulot d'étranglement.

Pour utiliser et libérer complètement le calcul haute performance, Intel apporte de nombreux produits dans le portefeuille réseau et a également acquis une société appelée "Barefoot" - un leader dans la fabrication de commutateurs programmables et tirant parti du DPDK - Data Programming Developing Toolkit pour accélérer l'ensemble de la mise en réseau définie par logiciel et en déplaçant les données aussi rapidement que possible.

Maintenant que nous nous sommes occupés de l'aspect réseau, la prochaine étape consiste à stocker autant de données que possible et à les stocker sur un support très rapide qui accélère l'accès aux données et réduit la latence. Intel innove dans de nombreuses nouvelles technologies de mémoire - "Optane" et grâce à la technologie sans transistor qu'Intel propose dans le segment de la mémoire.

Intel a innové au fil des ans et est l'un des membres fondateurs de NVME, USB également. De même, nous avons également cette nouvelle technologie appelée Optane qui est introduite dans la mémoire et l'espace de stockage qui résout de nombreux problèmes que nous voyons dans les opérations quotidiennes du centre de données.

Enfin, nous devons traiter cette quantité de données, car Intel construit en fait un large portefeuille de produits allant du CPU au XPO (qui fait référence au traitement de tout et n'importe quoi). Et vous conviendrez certainement qu'à ce stade, nous construisons des piles ou des logiciels qui peuvent être traités avec le CPU, avec le GPO ou avec un FPGA ou d'autres actifs personnalisés. Il est important de noter que ces différents types de matériel rendent la vie de vos développeurs très difficile lorsque vous développez des produits pour répondre à ces différents niveaux de matériel.

Ainsi, Intel propose une nouvelle stratégie appelée une API - où vous pouvez déplacer votre application de manière transparente sur différentes plates-formes logicielles ou matérielles pour tirer parti du meilleur de ces architectures sur place.

De cette façon, elle évolue d'une entreprise centrée sur le processeur à une entreprise centrée sur les dates en impliquant les derniers et les plus grands obstacles dans les produits. Avec cette stratégie d'API unique, il s'agit en quelque sorte de créer la meilleure application pour vos charges de travail centrées sur les données.

Asheet - Parfait. Donc, nous pouvons résumer que la première et la plus importante chose est la quantité de données qui est transférée, la deuxième est le stockage requis pour l'assemblage, et la troisième est bien sûr le traitement.

Ce qui m'amène à la question suivante concernant les données qui sont créées ou qui sont répliquées ?

L'année dernière, en 2020, il y avait un excès de 64 zettaoctets de données qui ont été sous une forme ou une autre créées ou répliquées, ce qui signifie également qu'une grande partie de la charge qui s'abat sur l'infrastructure est le composant le plus important/coûteux de toute infrastructure, c'est la DRAM.

Comment Intel relève-t-il les défis liés aux coûts ?

Intel relève les défis des coûts

Comment Intel optimise-t-il et relève-t-il le défi des coûts dans le portefeuille global ?

Sreejith -DRAM est assez cher et est également l'un des composants les plus chers. Lorsque nous essayons de consommer ou de traiter les quantités de données générées, la mémoire joue un rôle vital et il est très important que nous nous attaquions à ce problème. Pour cela, Intel a mis au point une nouvelle technologie - "Intel Optane". La nouvelle technologie de mémoire est votre réponse aux problèmes que vous venez d'énoncer dans lesquels nous avons besoin d'une plus grande capacité de mémoire mais avec un TCOS pas si élevé.

Optane propose également des produits tels que la mémoire de première main, la mémoire persistante Optane et les disques SSD Optane.

Je suis fier de dire qu'Intel a innové en matière de mémoire et d'espace de stockage. Avec Intel Optane en place, il peut augmenter l'utilisation et l'optimisation globales de votre centre de données. Lorsque vous voyez vraiment que les utilisations du processeur sont assez faibles et que les taux de réécriture dont une application a besoin pour atteindre ce type de performances optimales pour vos charges de travail gourmandes en mémoire, Optane joue un rôle très important.

Optane propose des produits dans deux segments différents.

Un produit de type DRAM appelait une mémoire persistante optane et avec cela en place, ce que vous voyez, c'est que nous n'essayons pas de nier l'histoire complète de la DRAM hors de l'image de la zone du centre de données. Lorsque nous essayons d'utiliser Optane en conjonction avec DRAM, vous essayez d'augmenter la densité de mémoire dans votre centre de données global afin que vous puissiez mieux utiliser les processeurs. L'un des principaux aspects que nous avons vus jusqu'à présent est que votre processeur est assez rapide et que vous ne tirez pas toujours le meilleur parti de votre processeur, car il est généralement inactif.

Il est donc très important pour nous de comprendre que nous devons disposer de la bonne capacité de mémoire plus près du processeur pour mieux l'utiliser. La mémoire persistante Optane joue un rôle très important pour que vous puissiez empiler plus de mémoire plus près de votre processeur et ne pas compromettre votre TCOS. Ce n'est pas quelque chose quand il s'agit d'améliorer vos performances, vous ne voulez pas supporter des coûts illimités. Donc, nous avons gardé un contrôle sur cela.

Maintenant, en quoi Optane est différent des autres technologies que vous voyez sur le marché.

Il existe quelque chose appelé une vidéo de stockage 3D X point qui est différente de la conception de la mémoire que vous voyez dans la technologie à base de transistors qui est actuellement utilisée sur le marché du stockage ou des SSD.

Les cas d'utilisation auxquels nous pouvons nous référer en ce qui concerne la technologie Optane sont la virtualisation ; car c'est quelque chose où vous pouvez parler de densité et d'amélioration de l'utilisation de votre centre de données global.

Et lorsqu'il s'agit d'un centre de données, nous examinons normalement le coût du point de vue du serveur, ce n'est donc pas exactement le coût que nous devons uniquement examiner, car lorsqu'il s'agit d'acquérir des serveurs, vous vous occupez en quelque sorte de la licence. le coût, le coût opérationnel, le refroidissement du centre de données et d'autres aspects également.

Il est donc important de prendre en compte le récit du centre de données de bout en bout. C'est là qu'il est très important de passer d'une architecture scale-out à une architecture scale-up, et dans cet aspect, la mémoire Optane joue un rôle majeur.

De plus, pour les bases de données en mémoire comme SAP HANA, où vous devez charger toutes les données de la capacité ou des disques SSD sur votre mémoire pour être traitées, la mémoire Optane vous offre cette quantité supplémentaire de mémoire avec un TCOS moindre et une persistance des données plus élevée.

La DRAM est volatile et la mémoire persistante est de nature non volatile. Donc, cet avantage supplémentaire que vous obtiendrez avec la mémoire Optane.

Asheet - J'ai compris, merci Sreejith. Pouvez-vous nous donner une feuille de route afin de comprendre la vision de toute la data centricity qu'Intel a. Vous savez comment cela va évoluer car cela va continuer à évoluer et Intel est vraiment l'une des technologies déterminantes de l'industrie.

Feuille de route Intel : la voie à suivre

Feuille de route Intel

Et donc, vous êtes à l'avant-garde de la façon dont les choses vont bouger, donc juste un aperçu rapide de la vision et tout ce que vous pouvez partager du point de vue de la feuille de route ?

Sreejith - L'une des grandes choses qui se passe est qu'il innove continuellement. Cela dit, nous avons une feuille de route très solide pour notre portefeuille centré sur les données.

Je veux aborder certains des produits phares que nous proposons :

  1. Nous avons déjà des processeurs de 3e génération sur le marché et nous avons également nos processeurs de 4e génération à venir l'année prochaine également.
  2. Dans l'espace Optane, nous avons jusqu'à présent eu des séries 100-200 et nous proposons également notre prochaine mémoire optane de canal.
  3. Nous avons également des produits alignés dans notre espace GPO, ce qui constituera une amélioration de produit très substantielle que nous apporterons en quelque sorte au segment de la charge de travail vectorielle.
  4. Également livré avec un produit appelé IPO appartenant qui vous donnera cet accélérateur pour tous vos besoins de charge de travail avancés en ce qui concerne la 5G ou certaines des autres applications d'accélérateur.

Nous avons donc un portefeuille de bout en bout, que ce soit de l'Edge au Cloud, répondant à de multiples besoins de charges de travail, que ce soit dans le segment des processeurs, les GPO ou la mémoire. De cette façon, nous sommes fortement alignés sur une feuille de route solide pour les années à venir du point de vue d'Intel.

Asheet- Merci beaucoup Sreejith, ce fut une excellente conversation autour du portefeuille de centres de données. J'apprécie vraiment votre temps pour cette conversation, et c'était très instructif.

DEUXIÈME SÉRIE

Passons maintenant au lancement de la 3e génération Xeon – ICX. Veuillez nous indiquer quel est le dernier processeur Xeon qui a été lancé pour les charges de travail des centres de données et le segment des services, et faites le plein de ses principales fonctionnalités.

Sreejith - Bien sûr, merci Asheet encore une fois de m'avoir invité. Donc, pour revenir sur ce que sont les Xeon - comme la plupart d'entre vous le savent tous, les processeurs évolutifs de Xeon sont conçus pour les charges de travail des centres de données.

Nous avons lancé notre premier processeur Xeon en 2017 et nous sommes fiers de dire que nous avons livré plus de 50 millions de processeurs évolutifs Xeon à des clients du monde entier. Cela dit, nous avons récemment lancé notre dernier processeur Xeon de 3e génération qui s'appelle Ice Lake et est principalement lancé pour les segments de service grand public à 1 et 2 sockets.

Ainsi, Ice Lake prend en fait le relais de notre précédent processeur de 2e génération, qui est Cascade Lake. Pour souligner un peu plus ce que Ice Lake a à offrir, il s'agit du premier processeur Xeon qui utilise notre technologie de traitement 10 nm.

Nous avons apporté de nombreuses avancées telles que le développement d'une architecture évolutive et équilibrée que nous essayons d'intégrer à la famille de processeurs Xeon. Parallèlement à cela en place spécifiquement pour les processeurs évolutifs de Xeon - Ice Lake, nous avons augmenté le nombre de processeurs. Nous avons commencé à prendre en charge jusqu'à 40 cœurs par processeur unique dans cette version. Nous avons également apporté de nombreuses améliorations aux instructions par cycle.

Nous avons apporté une amélioration d'environ 20 % des instructions par cycle grâce à cette version, ce qui traduit directement les performances des charges de travail sur la grande variété de spectres que nous essayons de résoudre en ce moment.

De plus, certaines des autres améliorations matérielles que nous avons essayé d'apporter dans cette version augmentent les canaux de mémoire. Ainsi, comme vous le comprenez tous, le besoin de mémoire ne cesse de croître avec les transformations informatiques auxquelles nous assistons en ce moment. Nous avons donc également amélioré le matériel pour prendre en charge de plus en plus de canaux de mémoire.

Nous sommes passés de 6 à 8 dans cette version, et nous avons également ajouté la prise en charge du PCIe gen 4 via cette version, ce qui ajoute 2 fois plus de bande passante par rapport aux précédentes versions PCIe gen 3 qui sont sur le marché.

Ce sont quelques-unes des améliorations apportées au matériel que nous avons apportées. En dehors de cela, il existe des différenciateurs clés par rapport à la concurrence sur le marché. Ice Lake vous apporte les autres accélérateurs - le seul processeur du marché qui propose une accélération intégrée de l'IA. Cela dit, l'IA est l'une des principales charges de travail que nous essayons de voir dans chaque segment pour résoudre les problèmes des clients.

Le GPU est quelque chose qui est utilisé de manière significative pour toutes les charges de travail d'IA. Intel utilise cette stratégie consistant à ne pas utiliser de GPU dans toutes les charges de travail d'IA. Ainsi, Intel propose cet accélérateur d'IA intégré au processeur, vous n'avez donc pas à payer plus pour prendre en charge le traitement des charges de travail vectorielles.

Ce processeur peut prendre en charge vos charges de travail à usage général ainsi que les charges de travail avancées, qu'il s'agisse de l'IA via le boost d'apprentissage en profondeur et les autres accélérateurs. Ceux-ci sont intégrés au processeur du Xeon ainsi qu'aux accélérateurs AVX-512.

Nous essayons de le construire et de l'améliorer continuellement de génération en génération et ce sont quelques-uns des principaux facteurs de différenciation pour lesquels vous devriez choisir les processeurs Intel Ice Lake. Surtout en ce qui concerne ces technologies de niche, qu'il s'agisse de charges de travail d'IA, d'analyse ou de réseau, qui ne cessent de croître dans le segment des centres de données.

Asheet- Ce sont les améliorations à venir dans le nombre de cœurs, le processeur, les instructions par cycle et les canaux de mémoire. En outre, comment il peut être utilisé pour la charge de travail à usage général et les charges de travail vectorielles, en particulier l'ensemble des charges de travail AI et Advanced Analytics qui s'y trouvent.

Si nous devions établir des parallèles avec le processeur de la génération Xeon précédente, comment les performances sont-elles améliorées par rapport au processeur de la génération précédente ?

Sreejith- Sûrement, c'est une bonne question. Lorsque nous essayons de proposer ces nouveaux produits, il y a toujours cette question "Qu'est-ce que nous obtenons de plus ?" et "Pourquoi opter pour le dernier processeur ?".

Si vous comparez notre premier et notre dernier voyage de cinq ans dans l'industrie des processeurs et le segment du traitement, nous avons vu près de 3,5 fois les performances génération sur génération sur une période de cinq ans. Donc, si vous comparez vos processeurs Broadwell que nous avions, Skylake puis Cascade Lake et Ice Lake. En comparant notre génération de cinq ans à ce que nous avons récemment lancé, il y a une amélioration de 3,5 fois.

Non seulement cela, si nous prenons Cascade Lake, en lui-même, nous constatons une amélioration des performances de près de 1,46 fois de génération en génération. Nous y parvenons grâce à l'amélioration de 20 % d'instructions par cycle que nous avons apportée. Les améliorations apportées à l'architecture, telles que les canaux de mémoire, sont passées de 6 à 8. La prise en charge du dernier produit de mémoire persistante Optane qui est obtenu 200 série Barlow passe. Outre cette prise en charge de PCIe gen 4 également, ce qui représente une amélioration de 2 fois les performances par rapport à notre génération précédente.

Ainsi, vous disposez maintenant de plus de voies PCIe pour prendre en charge les SSD basés sur PCIe de génération 4, le réseau et les cartes Ethernet que vous souhaitez brancher sur ces voies PCIe. Ainsi, de cette façon, nous avons apporté des améliorations significatives par rapport à nos générations précédentes. De plus, nous avons essayé d'intégrer de nombreux accélérateurs (en dehors des accélérateurs d'IA dont nous avons parlé) pour répondre à vos besoins en matière de sécurité. De plus, les accélérateurs Crypto sont assez importants dans le monde d'aujourd'hui, car nous travaillions tous à domicile au milieu de cette pandémie.

Nous sommes tous connectés à des VPN, ce qui ajoute beaucoup de charges au traitement de vos applications liées à la sécurité. C'est là qu'Intel Ice Lake a introduit cet accélérateur pour améliorer les performances et pas seulement la sécurité. L'IA, même pour une large gamme de charges de travail, y compris les disques à usage général, a vu une amélioration de près de 70 % d'une génération à l'autre par rapport à nos processeurs de génération précédente

Asheet- Il est donc très intéressant de constater qu'il y a eu une amélioration de 3,5 fois au cours des cinq dernières années et je pense que cette tendance se poursuit depuis de nombreuses années pour Intel. Merci pour la précision sur les instructions par cycle, le boost de canal mémoire et l'accélérateur, notamment autour de l'IA et de la sécurité.

Donc, vous avez mentionné où se situe toute l'histoire Edge to Cloud et tout le mouvement de Edge vers cloud pour diverses organisations. Alors, comment Ice Lake s'intègre-t-il dans toute cette initiative Edge to cloud ? Comment le client peut-il s'assurer que c'est la voie à suivre lorsqu'il s'agit de la feuille de route de la périphérie au cloud pour une organisation ?

Sreejith - Vous avez bien fait remarquer qu'il est important d'améliorer les produits pour avoir un récit plus proche de Edge to Cloud car en ce qui concerne les exigences de chaque segment, les exigences Edge to Cloud sont assez uniques. En ce qui concerne les serveurs basés sur Edge, les exigences sont assez différentes des exigences du centre de données d'entreprise.

Ainsi, lorsque vous choisissez un processeur pour vos besoins quotidiens d'exécution de l'histoire de la périphérie au cloud, nous prenons en considération trois facteurs principaux, les 3 P :

  1. Prix
  2. Du pouvoir
  3. Performance

Ice Lake propose le portefeuille de centres de données pour toutes les charges de travail de votre centre de données d'entreprise. Ainsi, il est aussi flexible que possible de prendre en charge vos charges de travail à usage général, les charges de travail d'IA, la 5G ou les charges de travail liées au réseau. Ainsi, Ice Lake joue ainsi un rôle essentiel dans la résolution de la plupart des problèmes liés aux centres de données et même pour certains aspects de la 5G et du HPC.

Intel a cette flexibilité grâce à la technologie de sélection de vitesse d'Intel, qui revient à avoir plusieurs profils construits sur un seul processeur. Ainsi, lorsqu'il s'agit de répondre aux exigences de votre charge de travail, certains peuvent avoir besoin de cœurs à haute priorité, certains peuvent avoir besoin de cœurs à faible priorité, certains peuvent avoir besoin d'une fréquence élevée, d'autres peuvent avoir besoin d'une fréquence basse. Ainsi, il n'est pas toujours facile de se procurer des serveurs pour chacun de ces segments.

Intel a mis au point cette technologie de sélection de vitesse dans laquelle un seul serveur avec un seul processeur peut en quelque sorte différencier différents profils en regroupant ces cœurs pour différentes exigences de charge de travail. C'est la flexibilité offerte par Intel qui n'est disponible avec aucun autre processeur proposé par les concurrents sur le marché.

Intel jette les bases d'un véritable scénario hybride et multi-cloud avec des performances constantes et une migration transparente, également en ce qui concerne les machines virtuelles et l'échelle mondiale. Donc, avec tous ces aspects de la transition entre la périphérie et le cloud en innovant dans le matériel et en connectant le logiciel, le matériel. Avec tous les partenaires réunis, Intel favorise des performances flexibles de la périphérie au cloud.

Asheet- Merci beaucoup, je pense que ce fut une excellente conversation autour du dernier processeur Xeon qui est le Ice Lake et j'apprécie vraiment que vous preniez le temps de le faire.

TROISIÈME SÉRIE

Maintenant, nous allons discuter de la "stratégie d'Intel en matière de sécurité et de certains des avantages en termes de performances" qui existent avec Intel. Discutons de l'aspect sécurité de la stratégie Intel et de l'architecture Intel.

Alors Sreejith, pourquoi ne nous expliquez-vous pas simplement les solutions de sécurité des centres de données d'Intel qui existent et la stratégie globale d'Intel en matière de sécurité, car elle est devenue encore plus importante ces derniers temps !

Sreejith - Bien sûr Asheet, il est vrai que nous ne pouvons pas souligner l'importance de la sécurité dans ce scénario. Intel se concentre sur la protection des données tout au long de ses phases. Il y a trois phases différentes lorsqu'il s'agit de protéger les données

  1. Données en mouvement
  2. Données au repos
  3. Données utilisées

Intel dit que la sécurité est bonne comme la couche en dessous. Peu importe la sécurité de la plupart des applications dans le monde, mais si la plate-forme est compromise ou si l'espace de stockage sous-jacent ou le système d'exploitation est compromis, il peut facilement falsifier l'échelle. Vous pouvez penser à ce qui peut arriver à votre application. C'est donc là qu'Intel apporte cette stratégie de protection des données en mouvement, en cours d'utilisation et au repos également.

Venir avec cette technologie innovante dans le domaine de la sécurité, c'est commencer la sécurité à la couche la plus basse qui est le silicium. C'est l'un des niveaux les plus granulaires que vous pouvez atteindre pour protéger votre plate-forme sous-jacente, nous essayons donc de protéger la plate-forme en établissant une chaîne de confiance qui vous offre ce peu plus de résilience.

Lorsqu'il s'agit de répondre aux besoins quotidiens des applications, certaines de ces solutions ou fonctionnalités de sécurité importantes que nous proposons dans la plate-forme sont :

  • Intel SGX - C'est une fonctionnalité clé qui a commencé à prendre en charge Intel SGX à partir de nos processus de la série E que nous avions précédemment. Nous nous sommes considérablement améliorés pour vous fournir des enclaves sécurisées pour protéger les applications au niveau le plus granulaire. Ainsi, il protège une application qui s'exécute en mémoire, il protège cette mémoire dans laquelle votre application s'exécute. Ainsi, il vous offre une protection de niveau granulaire contre les attaques les plus sophistiquées telles que les attaques de votre acheteur ou les attaques de micrologiciels.
  • Cryptage total de la mémoire - Cette fonctionnalité fournit un cryptage en bloc de l'ensemble de la mémoire système pour se protéger contre toutes les attaques physiques qui se produisent sur le marché. Il garantit que toute la mémoire accessible à partir du processeur Intel est entièrement cryptée, y compris vos informations d'identification client, les clés de cryptage et les autres informations personnelles IPR sur la mémoire externe, de sorte que tout cela est protégé via la fonctionnalité TME.
  • Intel Homomorphic Encryption - Il s'agit d'une boîte à outils conçue pour fournir une solution logicielle et matérielle bien réglée qui améliore les performances des solutions basées sur HE (cryptage homomorphe) sur les dernières plates-formes.
  • Résilience du micrologiciel de la plate-forme - Il empêche le CPU et le BMC de recevoir de l'alimentation jusqu'à ce que la signature ait été complètement vérifiée. Ainsi, il construit cette plate-forme de confiance grâce à la résilience du micrologiciel en construisant cette base en surveillant et en filtrant toutes les activités malveillantes qui se produisent sur la base du système.

C'est donc ce niveau de sécurité au niveau matériel qu'Intel essaie d'apporter et non d'améliorer en quelque sorte les calculs, car la sécurité est une charge de travail informatique intensive. Lorsque vous essayez d'intégrer ces nouvelles fonctionnalités dans le processeur, vous retirez beaucoup de viande de votre processeur.

Si vous exécutez vos charges de travail à usage général avec ces applications hautement sécurisées, vous pouvez rencontrer des problèmes tels que des voisins bruyants dans lesquels vous supprimez tous les cœurs. Le donner à vos applications sécurisées et à vos charges de travail à usage général en prendra un coup.

Afin d'éviter qu'Intel ne propose «l'accélération cryptographique» qui est disponible avec notre processeur évolutif Xeon de 3e génération. Dans lequel ces accélérateurs cryptographiques ainsi que les innovations logicielles offrent une grande amélioration des performances pour les algorithmes cryptographiques les plus largement utilisés. Il vous fournit également un cryptage et un décryptage rapides et puissants avec AVX-512 que nous avons déjà dans les processeurs maintenant.

C'est donc tout le réseau ou l'histoire de la cryptographie que nous voulons relier à nos processeurs Ice Lake et à d'autres exigences.

Asheet- Fantastique, j'ai vraiment adoré tout cela parce que tout cela m'a ouvert les yeux. Nous sommes nourris et blindés du fait qu'il doit y avoir une sécurité au niveau des applications, une sécurité au niveau des données et une sécurité physique. Nous ne pensons probablement pas à ce qui est requis au niveau du silicium et vous avez brillamment précisé que la sécurité est aussi bonne que la plate-forme, que la couche en dessous.

Je pense que tout cet aspect de la protection au niveau le plus granulaire et des graphiques autour de la mémoire totale, puis du cryptage en masse, de la résilience du micrologiciel de la plate-forme. Je pense que ce sont quelques-unes des choses qui sont très intéressantes, donc des choses formidables sont faites par Intel à ce sujet.

Je naviguais et je suis tombé sur l'informatique confidentielle et la façon dont Intel la considère. Il s'agit davantage d'isoler les données entre diverses parties privilégiées d'un système, ce qui m'amène à la question suivante de

Que fait Intel autour de l'informatique confidentielle ?

Sreejith - Bien sûr. L'informatique confidentielle, comme vous l'avez dit, prend de l'ampleur comme n'importe quoi d'autre. Parallèlement à cela, Intel est un membre fondateur du Confidential Computing Consortium et, après avoir dit que nous avons retouché le SGX en tant que technologie.

Intel SGX est une technologie clé qui contribue à améliorer l'informatique confidentielle et cette technologie est également déjà déployée par de nombreux acteurs du cloud. Donc, si je dois prendre un exemple ici – Azure Microsoft ; il offre l'informatique confidentielle en tant que service tirant parti de la technologie intellisys.

Ainsi, Intel SGX est un ingrédient clé de l'informatique confidentielle que de nombreux fournisseurs de cloud proposent en ce moment et qui est disponible sur la plate-forme Intel. Ce qu'il offre, c'est un cryptage matériel de la mémoire qui isole votre code d'application spécifique et les données disponibles dans la mémoire. Il autorise le code au niveau de l'utilisateur et peut allouer des régions de mémoire privées que nous appelons des « enclaves ».

Par exemple, si vous exécutez l'hyperviseur avec environ cinq applications et que vous avez deux applications qui sont extrêmement critiques pour vous sur ces cinq. Imaginez la plate-forme intégrée dans laquelle votre application est très sécurisée, mais les autres applications ne le sont pas. Si ces applications qui ne sont pas sécurisées sont attaquées, elles peuvent également facilement attaquer les autres applications hautement critiques.

Il est donc essentiel d'aborder ces aspects et c'est là que SGX vous propose cette enclave privée ou ces régions de mémoire privées qui sont complètement isolées des autres applications qui fonctionnent dans la même mémoire. Ainsi, de cette manière, nous aidons les applications hautement critiques à se protéger contre les attaques logicielles, que ce soit au niveau du système d'exploitation ou au niveau du pilote, ou au niveau du bios.

It will help you prevent attacks against the memory bus snooping attacks and other sophisticated attacks like the cold boot attacks against the memory contention RAM. So, at these levels, SGX provides you with protection by offering you the smallest attack surface.

So, some of the malware that kind of subverts any other software component, can be completely avoided by using the SGX technology. It offers a processor reserved memory kind of thing by protecting the platform from all the other applications which kind of comprise your underlying platform.

So that's how Intel is playing a very key role in confidential computing, and we are slowly improving this and with time. I am sure this will get translated into a very good story for you to take it to your end customers.

Asheet – Ok thanks Sreejith. And again, this was a good explanation that you gave around security and strategy.

So, are you sure this is something which not only Intel is focusing upon and all the SI's are also focusing on this, whether its National or Global Si-set you work with.

It's obvious because customers are focused on it so we all better be focused on it, and this is something which is the need of the hour.

As SISL and Techjockey we are taking a lot of initiatives around security, and we have got a pretty strong team around this. But I want to understand what is really happening in all the SI space you work with for both the applications which are being developed to the solutions which are being deployed, proposed and the discussions that you had. So just take us through that it will be enlightening for us.

Sreejith- Surely, it is good that you brought this up because like we stressed, security is one the most important aspects. When we are trying to build the solutions, it is important to notice that we leverage these features which are available at the platform.

For that, we need to have the right SI partners, the right ISV ecosystem partners, and the s as well. So, we can only take this to the end customers as a package, so it is important that we bring this entire narrative together to address the challenges that customers are facing at this point.

Intel has been working a lot within this space and is leveraging packing the SGX technology to kind of provide you that confidential computing. Also, to provide improved security for your finance-based industries and likewise the leg partners like Azure Microsoft who are offering confidential computing as a service and Alibaba Cloud as well, they are also leveraging the SGX.

So, there are some of the key partners that we are working together with, and I am sure more and more partners will sign up for this. We look forward to partnering with SISL as well in future to maybe come up with something, maybe confidential computing as a service or maybe some improved secure virtual machine as a service.

So, these aspects are something that we can work together on going forward and we look forward to such a conversation as well to some of the enterprise customers and leading customers as well.

Asheet- Great, thank you and I think we'll be glad to have such a conversation with you. It's good to know that there is a lot of momentum which is there around Intel's security solutions with these ISP's.

So just to round up all the discussions around Datacenter solutions in the first one, then the 3rd gen Xeon ICX launch in the second one, and now around security. So, if we just package all of these together and look at how the performance has improved for Edge to cloud for all the customers with all these Intel offerings. Could you just summarize all this and give us a snapshot of everything that we have discussed.

Sreejith- Definitely so, going back to one of the top questions that you had on transformation from a process-centric company to a data-centric company we can actually touch on that. When it comes to any workload's performance right, it is important to understand that the workload's performance just not necessarily defined by the speed of the processor or the frequency of the processor which is operating so it is not just limited to that we need to have a high-speed processor.

It has to work in conjunction with the right amount of memory as well as the right amount of storage and network as well in place so as to have a high-performance workload.

So, with that aspect it is important to note that they need to build an optimized server or an optimized platform that can help the workload in a holistic way with respect to storing data, processing data, moving data. So, all these aspects have to be stitched together in order to provide the actual performance story to your data center workloads which kind of translates that into building the best applications for your modern data centers.

So, this is how I want to summarize the entire performance story that Intel is trying to build, and we look forward to our collaboration as well in the journey together.

Asheet- Thank you very much Sreejith for yet another great discussion. It's really heartening to know that Intel for so many years has been at the forefront of technological advancements and still is and it's going to continue for a long long time to come as long as we can foresee.