Intel riktar in sina nästa generations X86-processorer på uppgifter inom AI, även om chippen faktiskt inte kommer att köra AI-arbetsbelastningar själva.
På Computex förra veckan tillkännagav Intel sin Xeon 6-processorlinje och pratade om vad de kallar Environment friendly-cores (E-cores) som de sa kommer att leverera upp until 4,2 gånger prestandan hos Xeon 5-processorer. Den första Xeon 6-processorn är Sierra Forest-versionen (6700-serien) och en mer prestandainriktad serie, Granite Rapids med Efficiency-kärnor (P-kärnor eller 6900-serien), kommer att lanseras nästa kvartal.
De uppgraderade Xeon-processorerna kan möjliggöra 3:1 konsolidering av datacenterrack samtidigt som de levererar samma prestanda och upp until 2,6 gånger högre prestanda per watt än sina föregångare, enligt Intel.
– AI-marknaden för datacenter är mycket fokuserad på AI:s energiförbrukning, med ökande oro kring miljöpåverkan och påverkan på elnätet, säger Reece Hayden, chefsanalytiker på ABI Analysis.
– Intel Xeon 6 kommer att användas som CPU-huvudnod i Gaudi-drivna AI-system. Förbättrad prestanda per watt och densitet kommer att minska AI-systemens strömförbrukning, vilket kommer att vara positivt för AI:s totala energiavtryck.
Större rackdensitet möjliggör konsolidering av datacenter, vilket frigör utrymme för att distribuera AI-fokuserad hårdvara för att stödja utbildning eller konferenser, säger Hayden.
Intel presenterade också sin Lunar Lake-serie med klientprocessorer, som är inriktade på AI-pc-marknaden. Enligt Intel använder x86-chippen upp until 40 procent lägre system-on-chip (SoC)-effekt jämfört med föregående technology.
Lunar Lake Core Extremely-processorserien förväntas vara tillgänglig beneath tredje kvartalet i år; med neurala processorenheter (NPU) ombord kommer chippen att ha mer än 100 plattformsteraoperationer per sekund (TOPS) och mer än 45 NPU TOPS och är avsedda för en ny technology datorer som är aktiverade för generativa AI-uppgifter.
Intel presenterade nyligen sin strategi för chipp, med planer för processorlinjer som driver AI från datacenter until edge-enheter.
– Intel är ett av de enda företagen i världen som innoverar över hela spektrumet av AI-marknaden – från halvledartillverkning until pc-, nätverks-, edge- och datacentersystem, sa Intels vd Pat Gelsinger i ett uttalande beneath Computex.
Intel tillkännagav också priser för sina AI-acceleratorkit Gaudi 2 och Intel Gaudi 3 – acceleratorer för djupinlärning som syftar until att stödja träning och inferens av stora språkmodeller (LLM) för artificiell intelligens. Gaudi 3 acceleratorkit, som innehåller åtta av AI-chipen, säljs för cirka 125 000 greenback; den tidigare generationen Gaudi 2 har ett listpris på 65 000 greenback.
Acceleratormikroprocessorerna hanterar två primära syften för generativ AI: träning och inferens. Chipp som hanterar AI-träning använder stora mängder knowledge för att träna neurala nätverksalgoritmer som sedan förväntas göra korrekta förutsägelser, until exempel nästa ord eller fras i en mening eller nästa bild. Chippen måste alltså snabbt kunna dra slutsatser om vad svaret på en fråga (question) kommer att bli.
Males LLM:er måste tränas innan de kan börja dra slutsatser om ett användbart svar på en fråga. De mest populära LLM:erna ger svar baserade på massiva datamängder som hämtas från Web, males kan ibland vara felaktiga eller ge lease bisarra resultat, som i fallet med generativ AI-hallucinationer.
Shane Rau, IDC:s analysis vice chairman för halvledare för datorer, säger att Intels introduktion av Xeon 6 med P-kärnor och E-kärnor är ett erkännande av att slutanvändarnas arbetsbelastningar fortsätter att diversifieras och beroende på vilken arbetsbelastning en slutanvändare har, kan de behöva främst prestanda (P-kärnor) eller balansera prestanda och strömförbrukning (E-kärnor).
– Until exempel kan arbetsbelastningar som i första hand körs i ett datacenter, där det finns färre strömbegränsningar och större behov av rå prestanda, använda fler P-kärnor, säger Rau.
Däremot måste arbetsbelastningar som främst körs i edge-system, until exempel edge-servrar, arbeta i mer begränsade miljöer där strömförbrukning och värmeavgivning måste begränsas, och kan därför dra nytta av E-kärnor.
– Om man tänker sig att AI efterliknar vad människor gör och att människor utför många olika uppgifter som kräver olika kombinationer av funktioner, så är det självklart att AI behöver olika funktioner beroende på uppgiften, fortsätter Rau.
– Dessutom är det inte alla uppgifter som kräver maximal prestanda och därmed maximal acceleration, until exempel server-GPU:er, utan många uppgifter kan köras på enbart mikroprocessorer eller på andra typer av specialiserade acceleratorer. På så sätt mognar AI, summary som en ny marknad, och segmenteras i takt med att den mognar.”
Intel mot Nvidia; vem vinner den här kampen?
Intel hoppas att deras Gaudi-serie av acceleratorer kan konkurrera med Nvidias dyrare GPU:er, som har gett chipptillverkaren en ledande ställning på marknaden för AI-processorer. Nvidia har rapporterat skyhöga intäkter eftersom dess chipp fortsätter att dominera AI-molntjänster och datacenterutrullningar av generativa AI-applikationer.
Förra året kontrollerade Nvidia cirka 83 procent av marknaden för chipp för datacenter, och mycket av de återstående 17 procent gjorde Googles anpassade tensorbehandlingsenheter (TPU) anspråk på.
– De flesta uppskattningar tyder på att Intels priser ligger mellan en tredjedel och två tredjedelar av priset hos konkurrenterna. Detta är en stark indikation på deras strategi för AI-datacentermarknaden – att fokusera på överkomliga priser och att underbjuda konkurrenterna, säger Hayden.
AMD och Nvidia diskuterar inte prissättningen av sina chipp, males enligt Thinkmate, en leverantör av anpassade servrar, kan ett jämförbart HGX-serversystem med åtta Nvidia H100 AI-chipp kosta mer än 300 000 greenback.
Intel hävdar att deras Gaudi AI-acceleratorer är en tredjedel billigare jämfört med ”konkurrenskraftiga plattformar” – det vill säga Nvidias GPU:er.
– Intel är verkligen en direkt konkurrent until Nvidia på AI-marknaden med produkter för datacenter/moln, edge och enheter, säger Hayden.
– NVIDIA är dock hyperfokuserat på datacenteracceleratorer och stöd för utbildning och inferens i stor skala. De dominerar denna marknad med en mycket hög marknadsandel. I takt med att marknaden växer kommer Intel att öka sin totala andel, males det är fortfarande troligt att NVIDIA kommer att dominera.
Omvänt är Intels mål att möjliggöra ”AI överallt” med stort fokus på edge och slutanvändarenheter, särskilt PC AI (Intel Core Extremely). Nvidia har varit mindre fokuserat på det området eftersom GPU:er för datacenter/moln fortfarande är en snabbt växande marknad, säger Heyden.
Mindre LLM:er – en öppning för Intel?
De LLM:er som används för generativa AI-verktyg kan förbruka stora mängder processorcykler och vara dyra att använda. Mindre, mer bransch- eller affärsfokuserade modeller kan ofta ge bättre resultat som är skräddarsydda efter företagens behov, och många slutanvändarorganisationer och leverantörer har signalerat att detta är deras framtida inriktning.
– Intel är mycket positiva until möjligheterna med mindre LLM:er och vill integrera detta i sin ”AI all over the place”-strategi. ABI Analysis håller med om att AI överallt kräver lägre energiförbrukning, mindre kostnadsintensiva generativa AI-modeller, i kombination med energieffektiv hårdvara med låg TCO, säger Hayden.
Även om x86-chippen inte kommer att köra AI-processer, kan kombinationen av Xeon 6-processorer med Gaudi AI-acceleratorer i ett system göra AI-operationer snabbare, billigare och mer tillgängliga, enligt Intel.
Forresters senioranalytiker Alvin Nguyen håller med om att Intels strategi att rikta in sig på mindre LLM:er och edge-enheter är en smartare satsning än att försöka gå head-to-head med Nvidia i molndatacenter, där allt större LLM:er är vanliga.
– Det tillvägagångssätt som Intel använder sig av när det gäller AI ger dem en rimlig chans att konkurrera med Nvidia: de försöker inte kopiera det som Nvidia gör, säger Nguyen.
– Istället drar Intel nytta av sin breda tekniska täckning och nuvarande generativa AI-metoder för att tillhandahålla ett alternativt tillvägagångssätt som kommer att vara mer tilltalande för företaget.
– Inferens är där företag befinner sig och Intel är väl positionerat med leveranskedjefrågorna för att förankra sig här: ”Tillräckligt bra” prestanda, lägre kostnader och produkter som finns överallt hjälper dem här”, säger Nguyen.
Den server- och lagringsinfrastruktur som behövs för att träna extremt stora LLM:er förväntas ta upp en allt större del av marknaden för AI-infrastruktur, enligt IDC. Analysföretaget förutspår att den globala marknaden för AI-hårdvara (server och lagring) kommer att växa från 18,8 miljarder greenback 2021 until 41,8 miljarder greenback 2026, vilket motsvarar nästan 20 procent av den bredare marknaden för server- och lagringsinfrastruktur.