Portfolio firmy Intel: w jaki sposób firma Intel napędza inteligentny i połączony cyfrowy świat

Opublikowany: 2022-08-16
Obraz banera w portfolio firmy Intel

Firma Intel odgrywa znaczącą rolę we wprowadzaniu cyfrowej transformacji w organizacjach. W tym artykule Shreejith G Krishnan z Intel Corporation rozmawia z Asheet Makhija (Business Head – Techjockey Infotech) i przeprowadzi nas przez szerokie portfolio rozwiązań Intela.

Arkusz- Witam wszystkich, nazywam się Asheet Makhija , reprezentuję SISL Techjockey , i jesteśmy tutaj, aby omówić kilka ważnych aspektów dotyczących Intela, portfolio Intela i postępów Intela w obliczu technologii i mocy obliczeniowej, którą generuje przez lata .

Jestem pewien, że wszyscy znamy Intela i jego portfolio, które ewoluowało przez lata, ale myślę, że ważne jest dla nas poznanie najnowszego kontekstu, w którym znajduje się Intel jako organizacja i technologia Intela po stronie progresywnej.

Z przyjemnością przedstawiamy Sreejitha Gopala Krishnana , architekta pozycji partnera w krajowym integratorze systemów i globalnym integratorze systemów w firmie Intel Corporation . Był naszą osobą, do której chodziliśmy, jeśli chodzi o rozwiązania, więc mogę śmiało powiedzieć, że jest najlepszym facetem do omawiania aktualnych tematów.

Na początek porozmawiajmy z Tobą o części Datacenter Portfolio. A pierwsze, co przychodzi mi do głowy, to transformacja cyfrowa. Dlatego wszyscy wiemy, że transformacja cyfrowa i wszystko wokół cyfryzacji naprawdę nabrało tempa w ciągu ostatnich kilku lat i wiele organizacji albo jest na dobrej drodze, albo już dojrzało w dość dużym stopniu.

W jaki sposób firma Intel zasila inteligentny i połączony cyfrowy świat?

Spis treści

Jaka była gra Intela w tym aspekcie cyfrowej transformacji dla organizacji w ciągu ostatnich kilku lat i na dzień dzisiejszy?

Sreejith- Jasne, przede wszystkim dziękuję Asheet i dziękuję zespołowi SISL za przygotowanie tej dyskusji. Jak słusznie zauważyłeś, cyfrowa transformacja w końcu wkracza do głównego nurtu, a firma Intel jest dość dostosowana do budowania właściwej strategii i umożliwiania całej fundacji.

Tworzył technologie, które zbudowały fundament pod wydajność i zwinność potrzebną do spełnienia wspólnych celów, które staramy się rozwiązać dla klientów.

W ciągu ostatnich kilku dekad Intel stosował holistyczną strategię i chcę, aby wszyscy zauważyli, że stara się budować wiodące produkty, aby zapewnić ciągłe innowacje w zakresie sprzętu i infrastruktury.

Gdy już mamy produkty lidera, ważne jest dla nas zbudowanie ekosystemu i optymalizacja rozwiązań. Co więcej, musisz współpracować z partnerami ekosystemu, aby to umożliwić i dostarczyć klientom końcowym.

Dlatego Intel stara się współpracować z szeroką gamą partnerów, optymalizując i poprawiając wydajność obciążeń, aby działała najlepiej na sprzęcie Intela. Właśnie tam wymyśla podejście polegające na optymalizacji niektórych bibliotek open-source.

Intel jest silnym uczestnikiem społeczności open-source. Bierzemy niektóre z zaawansowanych obciążeń, takich jak sztuczna inteligencja lub zaawansowana analityka, które to umożliwiają, i wprowadzamy transformację cyfrową.

Zoptymalizowano niektóre z tych frameworków AI, czy to przepływy tensorowe, czy pytorch, które są jak najczęściej używane frameworki w AI Space.

Firma Intel współpracuje ze społecznością open source, aby zoptymalizować i jak najlepiej wykorzystać sprzęt firmy Intel, gdy pracujesz lub tworzysz aplikacje, aby osiągnąć tę platformę AI. Więc nie tylko to, Intel pracuje również z ekosystemem.

Intel strategicznie dokonuje również pewnych przejęć i inwestycji w przestrzeń AI, z których część to Mobileye – są w firmie zajmującej się autonomiczną jazdą i opracowują zaawansowane systemy wspomagania kierowcy oparte na wizji. Intel ma też Movidiusa, ponieważ mówimy teraz o historii chmury X.

Opracowujemy również te projekty Movidius, w których masz chipy procesorów o niskim poborze mocy dla wizji komputerowej i iotycznych przypadków użycia, które próbujemy rozwiązać w tej chwili.

Dzięki tym wszystkim strategicznym inwestycjom firma Intel odgrywa kluczową rolę i napędza całą transformację cyfrową poprzez swoje wiodące produkty. Łączy również ekosystem, aby przyspieszyć całą transformację.

Asheet – Idealnie, mówiłeś o postępach technologicznych, które Intel robi po stronie infrastruktury, a także o ekosystemach.

To znaczy, mogę potwierdzić, że masz absolutną rację, ponieważ otrzymujemy duże wsparcie ze strony firmy Intel, a potem mówiłeś o wszystkich wkładach, jakie Intel wnosi w open source i rozwój oparty na społeczności oraz strategiczne przejęcia, których dokonuje Intel.

Myślę, że to całkiem niezły widok 360 stopni lub sposób patrzenia na całą transformację cyfrową, jaka ma miejsce w dzisiejszej branży. Oznacza to również, że Intel stopniowo, konsekwentnie i bardzo globalnie ewoluował od organizacji skupiającej się na procesorach do firmy zorientowanej na dane.

Rola firmy Intel w przekształcaniu technologii centrów danych

Centrum danych

Byłoby więc dobrze, gdybyś mógł po prostu opowiedzieć nam, co naprawdę dzieje się po stronie centrum danych w odniesieniu do wszystkiego, co robi Intel.

Sreejith- Sure Asheet, dziękuję za przyniesienie tego punktu, ponieważ głośno mówiliśmy o naszej transformacji z firmy zorientowanej na procesy w firmę zorientowaną na dane.

Misją Intela zawsze było projektowanie przyszłości centrów danych. Tworzymy produkty, aby zaspokoić kompleksowe rozwiązania skalujące się od obliczeń H do 5G, które postrzegamy jako trend i oczywiście chmurę oraz rozwijające się dziedziny sztucznej inteligencji i zaawansowanej analityki.

Intel od prawie pięćdziesięciu lat jest liderem w dziedzinie procesorów lub procesów produkcyjnych w branży komputerowej. Firma Intel zainwestowała w nowe podejście do tworzenia infrastruktury, aby przyspieszyć całą transformację zorientowaną na dane.

Jeśli chodzi o transformację IT, nie zawsze właściwe jest wskazywanie tylko jednego aspektu, jakim jest procesor. Należy podkreślić i potrzebować kompleksowej platformy zoptymalizowanej pod kątem stosu i zoptymalizowanego stosu do obsługi nowoczesnych centrów danych. Kiedy Intel buduje te produkty infrastrukturalne dla centrum danych, stara się tworzyć produkty dla trzech różnych segmentów.

  1. Aby szybciej przenosić dane
  2. Aby przechowywać coraz więcej danych
  3. Przetwarzanie tych danych tak szybko, jak to możliwe.

W ciągu ostatnich kilku lat byliśmy świadkami eksplozji ilości generowanych danych, co jest równoznaczne z eksplozją ruchu danych. Ruch sieciowy w centrum danych jest dość duży, zarówno w kierunku wschód-zachód, jak i północ-południe. Tak więc w tym aspekcie w miarę wzrostu ruchu łączność może stać się wąskim gardłem.

Aby w pełni wykorzystać i uwolnić moc obliczeniową o wysokiej wydajności, Intel wprowadza wiele produktów do portfolio sieciowego, a także przejął firmę o nazwie „Barefoot” – lidera w produkcji przełączników programowalnych i wykorzystującego DPDK – Data Programming Toolkit do przyspieszenia cała sieć zdefiniowana programowo i przenoszenie danych tak szybko, jak to możliwe.

Teraz, gdy zajęliśmy się aspektem sieciowym, następnym krokiem jest przechowywanie jak największej ilości danych i przechowywanie ich na bardzo szybkim nośniku, który przyspiesza dostęp do danych i zmniejsza opóźnienia. Intel wprowadza innowacje w wielu nowych technologiach pamięci – „Optane” i dzięki technologii bez tranzystorów, którą Intel oferuje w segmencie pamięci.

Intel od lat wprowadza innowacje i jest jednym z członków założycieli NVME, USB. Podobnie mamy tę nową technologię o nazwie Optane, która jest wprowadzana w pamięci i przestrzeni dyskowej, co rozwiązuje wiele problemów, które widzimy w codziennych operacjach w centrum danych.

Wreszcie, musimy przetworzyć tę ilość danych, ponieważ Intel w rzeczywistości buduje szerokie portfolio produktów, od procesora do XPO (co odnosi się do przetwarzania wszystkiego i wszystkiego). I na pewno zgodzisz się, że w tym momencie budujemy stosy lub tworzymy oprogramowanie, które może być przetwarzane za pomocą procesora, GPO lub FPGA lub innych niestandardowych zasobów. Należy zauważyć, że te różne rodzaje sprzętu bardzo utrudniają życie programistom podczas opracowywania produktów dostosowanych do różnych poziomów sprzętu.

Dlatego firma Intel opracowuje nową strategię o nazwie jeden interfejs API — dzięki której można bezproblemowo przenosić aplikację na różne platformy programowe lub sprzętowe, aby wykorzystać najlepsze z tych architektur w danym miejscu.

W ten sposób ewoluuje od firmy zorientowanej na procesory do firmy zorientowanej na randki, angażując najnowsze i największe przeszkody w produktach. Wraz z tą strategią jednego interfejsu API nadchodzi rodzaj tworzenia najlepszej aplikacji dla obciążeń zorientowanych na dane.

Arkusz- idealny. Można więc podsumować, że pierwszą i najważniejszą rzeczą jest ilość przesyłanych danych, drugą pamięć, która jest wymagana do montażu, a trzecią oczywiście przetwarzanie.

Co prowadzi mnie do kolejnego pytania dotyczącego danych, które są tworzone lub które są replikowane?

W ubiegłym roku, w 2020 r., wystąpiło nadmiar 64 zetabajtów danych, które zostały w jakiejś formie utworzone lub zreplikowane, co oznacza również, że większość obciążenia, które ma miejsce na infrastrukturze, jest najważniejszym/najdroższym elementem każdej infrastruktury, jaką jest DRAM.

Jak firma Intel radzi sobie z wyzwaniami związanymi z kosztami?

Firma Intel odpowiada na wyzwania związane z kosztami

W jaki sposób firma Intel optymalizuje i rozwiązuje problem kosztów w całym portfolio?

Sreejith- DRAM jest dość drogi i jest jednym z najdroższych komponentów. Kiedy próbujemy konsumować lub przetwarzać ilości generowanych danych, pamięć odgrywa bardzo istotną rolę i bardzo ważne jest, abyśmy zajęli się tym problemem. W tym celu Intel opracował nową technologię – „Intel Optane”. Nowa technologia pamięci jest Twoją odpowiedzią na problemy, o których właśnie wspomniałeś, w których potrzebujemy większej pojemności pamięci, ale przy niezbyt wysokim TCOS.

Optane oferuje również produkty, takie jak pamięć z pierwszej ręki, pamięć trwała Optane i dyski SSD Optane.

Z dumą mogę powiedzieć, że Intel wprowadza innowacje w pamięci i przestrzeni dyskowej. Dzięki technologii Intel Optane może zwiększyć ogólne wykorzystanie i optymalizację centrum danych. Kiedy naprawdę zobaczysz, że wykorzystanie procesora jest dość niskie, a współczynniki ponownego zapisu, których aplikacja wymaga, aby osiągnąć taką optymalną wydajność w przypadku obciążeń intensywnie korzystających z pamięci, Optane odgrywa bardzo ważną rolę.

Optane wymyśla produkty w dwóch różnych segmentach.

Produkt podobny do DRAM wymagał trwałej pamięci optycznej, a dzięki temu, co widzisz, nie próbujemy zanegować całej historii DRAM z obrazu obszaru centrum danych. Kiedy próbujemy używać Optane w połączeniu z DRAM, próbujesz zwiększyć gęstość pamięci w całym centrum danych, aby lepiej wykorzystać procesory. Jednym z głównych aspektów, które widzieliśmy do tej pory, jest to, że twój procesor jest dość szybki i nie zawsze uzyskujesz to, co najlepsze z procesora, ponieważ w większości jest on bezczynny.

Dlatego bardzo ważne jest, abyśmy zrozumieli, że musimy mieć odpowiednią pojemność pamięci bliżej procesora, aby lepiej ją wykorzystać. Pamięć trwała Optane odgrywa bardzo istotną rolę, dzięki czemu można umieścić w szafie więcej pamięci bliżej procesora i nie naruszać TCOS. To nie jest coś, jeśli chodzi o poprawę wydajności, nie chcesz ponosić nieograniczonych kosztów. Tak więc sprawdziliśmy to.

Teraz, jak Optane różni się od innych technologii, które widzisz na rynku.

Istnieje coś, co nazywa się wideo z pamięcią punktową 3D X, która różni się od konstrukcji pamięci, którą można zobaczyć w technologii opartej na tranzystorach, która jest obecnie używana na rynku pamięci masowej lub dysków SSD.

Zastosowane przypadki, do których możemy się odnieść, jeśli chodzi o technologię Optane, to wirtualizacja; ponieważ jest to coś, w czym można mówić o gęstości i poprawie wykorzystania całego centrum danych.

A jeśli chodzi o centrum danych, zwykle patrzymy na koszt z perspektywy serwera, więc nie jest to dokładnie koszt, na który musimy się tylko przyjrzeć, ponieważ jeśli chodzi o zamawianie serwerów, w pewnym sensie zajmujesz się licencjonowaniem koszty, koszty operacyjne, chłodzenie centrum danych i inne aspekty.

Dlatego ważne jest, aby wziąć pod uwagę narrację kompleksowego centrum danych. W tym miejscu bardzo ważne jest przejście od architektury skalowalnej do architektury skalowalnej, aw tym aspekcie pamięć Optane odgrywa ważną rolę.

Ponadto w przypadku baz danych w pamięci, takich jak SAP HANA, w których należy załadować całe dane z pojemności lub dysków SSD do pamięci w celu przetworzenia, pamięć Optane oferuje dodatkową ilość pamięci przy niższym TCOS i większej trwałości danych.

DRAM jest ulotna, a pamięć trwała jest z natury nieulotna. Dzięki pamięci Optane zyskujesz dodatkową przewagę.

Arkusz- Rozumiem, dzięki Sreejith. Czy możesz dać nam plan działania, aby zrozumieć wizję całej koncentracji na danych, którą ma Intel. Wiesz, jak to się rozwinie, ponieważ będzie ewoluować, a Intel naprawdę mówi o jednej z kluczowych technologii w branży.

Plan działania firmy Intel: przyszłość

Mapa drogowa firmy Intel

I tak jesteś na czele tego, jak sprawy się potoczą, więc tylko szybki podgląd wizji i wszystko, co możesz udostępnić z perspektywy mapy drogowej?

Sreejith- Jedną z wielkich rzeczy, która się dzieje, jest ciągłe wprowadzanie innowacji. To powiedziawszy, mamy bardzo dobrą mapę drogową dla naszego portfolio zorientowanego na dane.

Chcę poruszyć niektóre z wiodących produktów, które wymyślamy:

  1. Mamy już na rynku procesory trzeciej generacji, a w przyszłym roku pojawią się również procesory czwartej generacji.
  2. W przestrzeni Optane mieliśmy do tej pory serie 100-200, a my również pracujemy nad naszą kolejną pamięcią kanałową Optane.
  3. Mamy również produkty ustawione w naszej przestrzeni GPO, co będzie bardzo istotnym ulepszeniem produktu, które w pewnym sensie wprowadzamy do segmentu obciążeń wektorowych.
  4. Dostępny również z produktem o nazwie IPO, który zapewni Ci ten akcelerator dla wszystkich Twoich zaawansowanych potrzeb związanych z obciążeniem, jeśli chodzi o 5G lub niektóre inne aplikacje akceleracyjne.

Mamy więc kompleksowe portfolio, niezależnie od tego, czy chodzi o rozwiązania od Edge do Cloud, które zaspokajają potrzeby wielu obciążeń roboczych, czy to w segmencie procesorów, GPO, czy pamięci. W ten sposób jesteśmy silnie związani z silną mapą drogową na nadchodzące lata z perspektywy Intela.

Arkusz- Dziękuję bardzo Sreejith, to była świetna rozmowa na temat portfolio centrów danych. Naprawdę doceniam Twój czas poświęcony na tę rozmowę i to było całkiem pouczające.

DRUGA SERIA

Teraz przejdźmy do premiery Xeona trzeciej generacji – ICX. Powiedz nam, jaki jest najnowszy procesor Xeon, który został wprowadzony do obsługi obciążeń centrów danych i segmentu usług, i zapoznaj się z jego kluczowymi funkcjami.

Sreejith- Jasne, jeszcze raz dziękuję Asheet za przyjęcie mnie tutaj. Tak więc, aby zmienić to, czym są Xeon — jak większość z Was wie, skalowalne procesory Xeon są przeznaczone do obciążeń centrów danych.

W 2017 roku wprowadziliśmy nasz pierwszy procesor Xeon i z dumą możemy powiedzieć, że wysłaliśmy ponad 50 milionów skalowalnych procesorów Xeon do klientów na całym świecie. Mając to na uwadze, niedawno wprowadziliśmy na rynek nasz najnowszy procesor Xeon trzeciej generacji, który nosi nazwę Ice Lake i jest wprowadzany głównie do głównych segmentów usług z 1 i 2 gniazdami

Tak więc Ice Lake faktycznie przejmuje nasz poprzedni procesor drugiej generacji, czyli Cascade Lake. Aby jeszcze bardziej podkreślić to, co Ice Lake ma do zaoferowania, jest to pierwszy procesor Xeon, który wykorzystuje naszą technologię przetwarzania 10 nm.

Wprowadziliśmy wiele ulepszeń, takich jak opracowanie skalowalnej i zrównoważonej architektury, którą staramy się wprowadzić w rodzinie procesorów Xeon. Wraz z tym, który został wprowadzony specjalnie dla skalowalnych procesorów Xeon – Ice Lake, zwiększyliśmy liczbę procesorów. W tej wersji rozpoczęliśmy obsługę do 40 rdzeni na pojedynczy procesor. Wprowadziliśmy również wiele ulepszeń do instrukcji na cykl.

W tym wydaniu wprowadziliśmy około 20% ulepszeń instrukcji na cykl, co w pewnym sensie bezpośrednio przekłada wydajność obciążeń w szerokim zakresie spektrum, które próbujemy rozwiązać w tej chwili.

Ponadto niektóre z innych ulepszeń sprzętowych, które próbowaliśmy wprowadzić w tym wydaniu, zwiększają ilość kanałów pamięci. Tak więc, jak wszyscy rozumiecie, zapotrzebowanie na pamięć stale rośnie wraz z transformacjami IT, których jesteśmy obecnie świadkami. Ulepszyliśmy więc również sprzęt, aby obsługiwać coraz więcej kanałów pamięci.

W tym wydaniu poprawiliśmy się z 6 do 8, a także dodaliśmy obsługę PCIe gen 4, co zwiększa przepustowość dwukrotnie większą w porównaniu z poprzednimi wersjami PCIe gen 3, które są dostępne na rynku.

Oto niektóre z ulepszeń w sprzęcie, które wprowadziliśmy. Poza tym istnieje kilka kluczowych różnic w porównaniu z konkurencją na rynku. Ice Lake oferuje inne akceleratory — jedyny procesor na rynku, który ma wbudowaną akcelerację AI. Powiedziawszy więc, że sztuczna inteligencja jest jednym z kluczowych obciążeń, które staramy się widzieć w każdym segmencie, aby rozwiązać problemy klientów.

GPU to coś, co jest w znacznym stopniu wykorzystywane do wszelkich obciążeń AI. Intel stosuje tę strategię nieużywania GPU we wszystkich obciążeniach AI. Tak więc Intel wymyśla akcelerator AI wbudowany w procesor, dzięki czemu nie musisz płacić więcej, aby zająć się przetwarzaniem obciążeń wektorowych.

Ten procesor może zająć się zadaniami ogólnego przeznaczenia, a także zaawansowanymi zadaniami, niezależnie od tego, czy jest to sztuczna inteligencja, dzięki wzmocnieniu uczenia głębokiego i innym akceleratorom. Są one wbudowane w procesor Xeon, a także w akceleratory AVX-512.

Staramy się go budować i ulepszać w sposób ciągły z pokolenia na generację i to są niektóre z kluczowych wyróżników, dlaczego powinieneś wybrać procesory Intel Ice Lake. Zwłaszcza jeśli chodzi o te niszowe technologie, czy to AI, Analytics, czy obciążenia sieciowe, które stale rosną w segmencie centrów danych.

Arkusz- Były to ulepszenia dotyczące liczby rdzeni, procesora, instrukcji na cykl i kanałów pamięci. Ponadto, w jaki sposób można go używać do obciążeń ogólnego przeznaczenia i obciążeń wektorowych, zwłaszcza wszystkich istniejących obciążeń sztucznej inteligencji i zaawansowanej analizy.

Jeśli mielibyśmy narysować paralele z procesorem poprzedniej generacji Xeon, w jaki sposób zwiększa się wydajność w porównaniu z procesorem poprzedniej generacji?

Sreejith- Z pewnością to dobre pytanie. Kiedy próbujemy wymyślić te nowe produkty, zawsze pojawia się pytanie „Co więcej dostaniemy?” i „Dlaczego warto wybrać najnowszy procesor?”.

Jeśli porównasz naszą pierwszą i ostatnią pięcioletnią podróż w branży procesorów i segmencie przetwarzania, zauważyliśmy prawie 3,5-krotną wydajność generacja na generację w ciągu pięciu lat. Tak więc, jeśli porównujesz swoje procesory Broadwell, które mieliśmy, wtedy Skylake, Cascade Lake i Ice Lake. Porównując naszą pięcioletnią generację z tym, co niedawno wprowadziliśmy, nastąpiła 3,5-krotna poprawa.

Nie tylko to, jeśli weźmiemy Cascade Lake, w tym samym to widzimy prawie 1,46-krotną poprawę wydajności generacja na generację. Osiągamy to dzięki ulepszeniu o 20% instrukcji na cykl, które wprowadziliśmy. Udoskonalenia architektury, takie jak zwiększenie liczby kanałów pamięci, wprowadziliśmy z 6 do 8. Wsparcie dla najnowszego produktu pamięci trwałej Optane, który uzyskuje się 200 serii przepustki Barlowa. Oprócz tego wsparcie dla PCIe gen 4, co stanowi dwukrotną poprawę wydajności w porównaniu z naszą poprzednią generacją.

Masz teraz więcej linii PCIe do obsługi dysków SSD 4. generacji opartych na PCIe, a także kart sieciowych i ethernetowych, które chcesz podłączyć do tych linii PCIe. W ten sposób wprowadziliśmy znaczne ulepszenia w stosunku do naszych poprzednich pokoleń. Ponadto staraliśmy się wprowadzić wiele akceleratorów (oprócz akceleratorów AI, o których mówiliśmy), aby zadbać o Twoje potrzeby bezpieczeństwa. Ponadto akceleratory Crypto są dość znaczące w dzisiejszym świecie, ponieważ wszyscy pracowaliśmy w domu podczas tej pandemii.

Wszyscy jesteśmy połączeni z VPN, co znacznie obciąża przetwarzanie aplikacji związanych z bezpieczeństwem. Właśnie tam Intel Ice Lake wprowadził ten akcelerator, aby poprawić wydajność, a nie tylko bezpieczeństwo. Sztuczna inteligencja nawet w przypadku szerokiego zakresu obciążeń, w tym dysków ogólnego przeznaczenia, odnotowała prawie 70% poprawę w porównaniu z naszymi procesorami poprzedniej generacji

Arkusz: To bardzo interesujące, że w ciągu ostatnich pięciu lat nastąpiła 3,5-krotna poprawa i myślę, że ta tendencja utrzymywała się przez wiele lat w przypadku Intela. Dziękuję za wyjaśnienie instrukcji na cykl, zwiększenie liczby kanałów pamięci i akcelerator, zwłaszcza w zakresie sztucznej inteligencji i bezpieczeństwa.

Wspomniałeś więc, gdzie cała historia Edge to Cloud i cały ruch z Edge do chmury dla różnych organizacji. Jak więc Ice Lake wpisuje się w całą inicjatywę Edge do chmury? W jaki sposób klient zyskuje pewność, że jest to właściwy kierunek, jeśli chodzi o mapę drogową organizacji z Edge do chmury?

Sreejith- Wskazałeś słusznie, ważne jest, aby ulepszać produkty, aby miały narrację bliższą Edge to Cloud, ponieważ jeśli chodzi o wymagania dla każdego segmentu, wymagania Edge to Cloud są dość wyjątkowe. Jeśli chodzi o serwery oparte na Edge, wymagania znacznie różnią się od wymagań centrum danych Enterprise.

Tak więc, kiedy wybierasz procesor do swoich codziennych potrzeb związanych z prowadzeniem historii od krawędzi do chmury, bierzemy pod uwagę trzy główne czynniki: 3 Ps:

  1. Cena £
  2. Moc
  3. Wydajność

Ice Lake oferuje portfolio centrów danych dla wszystkich obciążeń centrów danych przedsiębiorstwa. Dzięki temu można maksymalnie elastycznie zająć się obciążeniami ogólnego przeznaczenia, obciążeniami AI, 5G lub obciążeniami związanymi z siecią. W ten sposób Ice Lake odgrywa kluczową rolę w rozwiązywaniu większości problemów dotyczących centrów danych, a nawet niektórych aspektów 5G i HPC.

Intel zapewnia tę elastyczność dzięki technologii Speed ​​Select firmy Intel, która jest podobna do posiadania wielu profili wbudowanych w jeden procesor. Tak więc, jeśli chodzi o spełnienie wymagań dotyczących obciążenia, niektórzy mogą potrzebować rdzeni o wysokim priorytecie, niektórzy mogą potrzebować rdzeni o niskim priorytecie, niektórzy mogą wymagać wysokiej częstotliwości, a niektórzy mogą wymagać niskiej częstotliwości. Dlatego nie zawsze łatwo jest pozyskać serwery dla każdego z tych segmentów.

Firma Intel wprowadziła tę technologię Speed ​​Select, w której pojedynczy serwer z pojedynczym procesorem może w pewnym sensie rozróżniać różne profile, grupując te rdzenie w celu dostosowania do różnych wymagań dotyczących obciążenia. Jest to elastyczność oferowana przez firmę Intel, która nie jest dostępna z żadnymi innymi procesorami oferowanymi przez konkurentów na rynku.

Firma Intel buduje fundamenty pod scenariusz prawdziwej hybrydy i wielu chmur ze stałą wydajnością i bezproblemową migracją, również w odniesieniu do maszyn wirtualnych i skali globalnej. Tak więc, z wszystkimi tymi aspektami łączenia krawędzi z chmurą w rodzaju innowacji w sprzęcie i łączenia oprogramowania ze sprzętem. Wspólnie ze wszystkimi partnerami firma Intel zapewnia elastyczną wydajność od brzegów do chmury.

Arkusz: Dziękuję bardzo, myślę, że była to świetna rozmowa na temat najnowszego procesora Xeon, którym jest Ice Lake i naprawdę doceniam poświęcenie czasu, aby to zrobić.

TRZECIA SERIA

Teraz omówimy „strategię firmy Intel w zakresie bezpieczeństwa i niektórych korzyści związanych z wydajnością”, które istnieją z firmą Intel. Omówmy aspekt bezpieczeństwa strategii Intela i architektury Intela.

Więc Sreejith, dlaczego po prostu nie przeprowadzisz nas przez rozwiązania Intela w zakresie bezpieczeństwa centrów danych, które tam są, oraz ogólną strategię Intela dotyczącą bezpieczeństwa, ponieważ stała się ona jeszcze ważniejsza w ostatnich czasach!

Sreejith- Jasne Asheet, to prawda, że ​​nie możemy podkreślać wagi bezpieczeństwa w tym scenariuszu. Firma Intel koncentruje się na ochronie danych na wszystkich etapach. Istnieją trzy różne fazy, jeśli chodzi o ochronę danych

  1. Dane w ruchu
  2. Dane w spoczynku
  3. Dane w użyciu

Intel twierdzi, że bezpieczeństwo jest dobre, jak warstwa pod nim. Nie ma znaczenia, jak bezpieczna jest większość aplikacji na świecie, ale jeśli zostanie naruszona platforma lub podstawowa przestrzeń dyskowa lub system operacyjny, może łatwo sfałszować drabinę. Możesz pomyśleć, co może się stać z Twoją aplikacją. W tym miejscu firma Intel wprowadza strategię ochrony danych w ruchu, w użyciu i w spoczynku.

Wymyślanie tej innowacyjnej technologii w aspekcie bezpieczeństwa polega na uruchomieniu zabezpieczenia od najniższej warstwy, jaką jest krzem. Jest to jeden z najbardziej szczegółowych poziomów, z których można skorzystać, aby chronić swoją podstawową platformę, dlatego staramy się chronić platformę, ustanawiając łańcuch zaufania, który zapewnia dodatkową odporność.

Jeśli chodzi o zaspokajanie codziennych potrzeb aplikacji, niektóre z tych rozwiązań lub ważnych funkcji bezpieczeństwa, które wprowadzamy na platformie, to:

  • Intel SGX – Jest to kluczowa funkcja, która zaczęła wspierać Intel SGX z naszych procesów serii E, które mieliśmy wcześniej. Udoskonaliliśmy się znacznie, aby zapewnić bezpieczne enklawy do rodzaju ochrony aplikacji na najbardziej szczegółowym poziomie. Tak więc chroni aplikację, która działa w pamięci, chroni pamięć, w której działa twoja aplikacja. Zapewnia więc ochronę na poziomie szczegółowym przed najbardziej wyrafinowanymi atakami, takimi jak ataki kupującego lub ataki na oprogramowanie układowe.
  • Całkowite szyfrowanie pamięci — ta funkcja zapewnia zbiorcze szyfrowanie całej pamięci systemowej w celu ochrony przed wszystkimi fizycznymi atakami, które mają miejsce na rynku. Gwarantuje, że cała pamięć, do której uzyskuje się dostęp z procesora Intela, jest całkowicie zaszyfrowana, w tym dane uwierzytelniające klienta, klucze szyfrowania i inne dane osobowe IPR w wersecie pamięci zewnętrznej, więc wszystko to jest chronione przez funkcjonalność TME.
  • Intel Homomorphic Encryption — jest to zestaw narzędzi zaprojektowany w celu zapewnienia dobrze dostrojonego rozwiązania programowego i sprzętowego, które zwiększa wydajność rozwiązań opartych na HE (szyfrowanie homomorficzne) na najnowszych platformach.
  • Odporność oprogramowania sprzętowego platformy — zatrzymuje zasilanie procesora i BMC do momentu całkowitej weryfikacji podpisu. Tak więc buduje tę zaufaną platformę poprzez odporność oprogramowania układowego poprzez budowanie tej podstawy poprzez monitorowanie i filtrowanie wszystkich złośliwych działań, które mają miejsce w bazie systemu.

Tak więc jest to ten poziom bezpieczeństwa na poziomie sprzętowym, który Intel próbuje wprowadzić, a nie w pewnym sensie poprawiać obliczenia, ponieważ bezpieczeństwo to intensywne obciążenie komputera. Kiedy próbujesz wprowadzić te nowe funkcje do procesora, zabierasz z niego dużo mięsa.

Jeśli korzystasz z zadań ogólnego przeznaczenia wraz z tymi wysoce bezpiecznymi aplikacjami, możesz napotkać problemy, takie jak hałaśliwi sąsiedzi, w których usuwasz wszystkie rdzenie. Udostępnienie go bezpiecznym aplikacjom i obciążeniom ogólnego przeznaczenia przyniesie cios.

Aby uniknąć tego, Intel wymyśla „akcelerację kryptograficzną”, która jest dostępna z naszym skalowalnym procesorem Xeon trzeciej generacji. Przy czym te akceleratory kryptograficzne wraz z innowacjami w zakresie oprogramowania zapewniają znaczną poprawę wydajności najczęściej używanych algorytmów kryptograficznych. Zapewnia również szybkie i silne szyfrowanie i deszyfrowanie wraz z AVX-512, które już mamy w procesorach.

To jest cała historia sieci lub krypto, którą chcemy połączyć przez nasze procesory Ice Lake i inne wymogi.

Asheet- Fantastyczne, naprawdę podobało mi się to wszystko, ponieważ wszystko to otworzyło mi oczy. Jesteśmy karmieni i uzbrojeni w fakt, że muszą istnieć zabezpieczenia na poziomie aplikacji, zabezpieczenia na poziomie danych i zabezpieczenia fizyczne. Prawdopodobnie nie myślimy o tym, co jest wymagane na poziomie krzemowym, a Ty genialnie wyjaśniłeś, że bezpieczeństwo jest tak dobre, jak platforma, jak warstwa pod nią.

Myślę, że cały ten aspekt ochrony na najbardziej szczegółowym poziomie i grafiki wokół całkowitej pamięci, a następnie zbiorczego szyfrowania, odporności oprogramowania układowego platformy. Myślę, że to tylko niektóre z rzeczy, które są bardzo interesujące, więc Intel wokół tego robi świetne rzeczy.

Przeglądałem i natknąłem się na poufne przetwarzanie i sposób, w jaki Intel na to patrzy. To bardziej izolacja danych pomiędzy różnymi uprzywilejowanymi częściami systemu, co prowadzi mnie do kolejnego pytania:

Co firma Intel robi w związku z przetwarzaniem poufnym?

Sreejith- Jasne. Tak więc poufne przetwarzanie, jak powiedziałeś, nabiera tempa jak wszystko. Oprócz tego Intel jest członkiem założycielem Confidential Computing Consortium i powiedział, że poprawiliśmy SGX jako technologię.

Intel SGX to kluczowa technologia, która przyczynia się do poprawy poufnego przetwarzania danych, a technologia ta jest już wdrażana przez wielu graczy w chmurze. Jeśli więc muszę wziąć przykład – Azure Microsoft; oferuje poufne przetwarzanie jako usługę wykorzystującą technologię intellisys.

Tak więc Intel SGX jest kluczowym składnikiem poufnego przetwarzania, które obecnie oferuje wielu dostawców usług w chmurze i jest dostępny na platformie Intel. To, co oferuje, to sprzętowe szyfrowanie pamięci, które izoluje kod konkretnej aplikacji i dane dostępne w pamięci. Pozwala na kod na poziomie użytkownika i może przydzielać prywatne regiony pamięci, które nazywamy „enklawami”.

Na przykład, jeśli używasz hipernadzorcy z około pięcioma aplikacjami i masz dwie z tych pięciu aplikacji, które są dla ciebie bardzo krytyczne. Wyobraź sobie wbudowaną platformę, w której Twoja aplikacja jest bardzo bezpieczna, ale inne aplikacje nie. Jeśli te niezabezpieczone aplikacje zostaną zaatakowane, mogą łatwo przemycić atak również na inne wysoce krytyczne aplikacje.

Dlatego bardzo ważne jest, aby zająć się tymi aspektami i właśnie tam SGX oferuje prywatną enklawę lub prywatne regiony pamięci, które są całkowicie odizolowane od innych aplikacji działających w tej samej pamięci. W ten sposób pomagamy wysoce krytycznym aplikacjom chronić się przed atakami na oprogramowanie, czy to na poziomie systemu operacyjnego, czy na poziomie sterowników, czy też na poziomie systemu BIOS.

It will help you prevent attacks against the memory bus snooping attacks and other sophisticated attacks like the cold boot attacks against the memory contention RAM. So, at these levels, SGX provides you with protection by offering you the smallest attack surface.

So, some of the malware that kind of subverts any other software component, can be completely avoided by using the SGX technology. It offers a processor reserved memory kind of thing by protecting the platform from all the other applications which kind of comprise your underlying platform.

So that's how Intel is playing a very key role in confidential computing, and we are slowly improving this and with time. I am sure this will get translated into a very good story for you to take it to your end customers.

Asheet – Ok thanks Sreejith. And again, this was a good explanation that you gave around security and strategy.

So, are you sure this is something which not only Intel is focusing upon and all the SI's are also focusing on this, whether its National or Global Si-set you work with.

It's obvious because customers are focused on it so we all better be focused on it, and this is something which is the need of the hour.

As SISL and Techjockey we are taking a lot of initiatives around security, and we have got a pretty strong team around this. But I want to understand what is really happening in all the SI space you work with for both the applications which are being developed to the solutions which are being deployed, proposed and the discussions that you had. So just take us through that it will be enlightening for us.

Sreejith- Surely, it is good that you brought this up because like we stressed, security is one the most important aspects. When we are trying to build the solutions, it is important to notice that we leverage these features which are available at the platform.

For that, we need to have the right SI partners, the right ISV ecosystem partners, and the s as well. So, we can only take this to the end customers as a package, so it is important that we bring this entire narrative together to address the challenges that customers are facing at this point.

Intel has been working a lot within this space and is leveraging packing the SGX technology to kind of provide you that confidential computing. Also, to provide improved security for your finance-based industries and likewise the leg partners like Azure Microsoft who are offering confidential computing as a service and Alibaba Cloud as well, they are also leveraging the SGX.

So, there are some of the key partners that we are working together with, and I am sure more and more partners will sign up for this. We look forward to partnering with SISL as well in future to maybe come up with something, maybe confidential computing as a service or maybe some improved secure virtual machine as a service.

So, these aspects are something that we can work together on going forward and we look forward to such a conversation as well to some of the enterprise customers and leading customers as well.

Asheet- Great, thank you and I think we'll be glad to have such a conversation with you. It's good to know that there is a lot of momentum which is there around Intel's security solutions with these ISP's.

So just to round up all the discussions around Datacenter solutions in the first one, then the 3rd gen Xeon ICX launch in the second one, and now around security. So, if we just package all of these together and look at how the performance has improved for Edge to cloud for all the customers with all these Intel offerings. Could you just summarize all this and give us a snapshot of everything that we have discussed.

Sreejith- Definitely so, going back to one of the top questions that you had on transformation from a process-centric company to a data-centric company we can actually touch on that. When it comes to any workload's performance right, it is important to understand that the workload's performance just not necessarily defined by the speed of the processor or the frequency of the processor which is operating so it is not just limited to that we need to have a high-speed processor.

It has to work in conjunction with the right amount of memory as well as the right amount of storage and network as well in place so as to have a high-performance workload.

So, with that aspect it is important to note that they need to build an optimized server or an optimized platform that can help the workload in a holistic way with respect to storing data, processing data, moving data. So, all these aspects have to be stitched together in order to provide the actual performance story to your data center workloads which kind of translates that into building the best applications for your modern data centers.

So, this is how I want to summarize the entire performance story that Intel is trying to build, and we look forward to our collaboration as well in the journey together.

Asheet- Thank you very much Sreejith for yet another great discussion. It's really heartening to know that Intel for so many years has been at the forefront of technological advancements and still is and it's going to continue for a long long time to come as long as we can foresee.