Computex-mässan i Taipei har blivit slagfältet för AI-hårdvarujättarna när AMD och Intel presenterat nya produkter och strategier som utmanar Nvidias marknadsdominans.
AMD har tillkännagivit lanseringen av sin Intuition MI325X-accelerator, som ska släppas underneath fjärde kvartalet 2024. Detta kommer att följas av MI350-serien, baserad på den nya CDNA 4-arkitekturen, som förväntas 2025.
Företaget hävdar att MI350 kommer att erbjuda en 35-faldig ökning av AI-inferensprestanda jämfört med sin föregångare, MI300-serien. AMD planerar också att introducera Intuition MI400-serien, som bygger på den framtida CDNA ”Subsequent”-arkitekturen.
Samtidigt avslöjade Intel sin Lunar Lake-klientprocessorarkitektur, med målet att utöka sin närvaro i AI PC-kategorin.
Intel lanserade också sina Xeon 6-processorer som är utformade för att förbättra prestanda och energieffektivitet för datacenter. Företaget tillkännagav också betydligt lägre priser för sina Gaudi 2 och Gaudi 3 AI-acceleratorkit jämfört med liknande produkter från Nvidia.
Dessa tillkännagivanden följde tätt på Nvidias vd Jensen Huangs avslöjande att Nvidias nästa generations plattform för AI-chipp, Rubin, som ska lanseras 2026, kommer att innehålla nya GPU-, CPU- och nätverkschipp.
Konkurrensen med Nvidia
Analytiker säger att Nvidias Rubin-plattform kan överträffa chipp från rivalerna AMD och Intel när det gäller rå kraft. AMD:s och Intels marknadspositionering och unika försäljningsargument kommer dock att vara nyckelfaktorer för att avgöra hur konkurrenskraftiga de är gentemot Nvidias teknik.
– Intel, until exempel, har varit aggressiva med sin prissättning och underskridit Nvidia betydligt, säger Akshara Bassi, analytiker på Counterpoint Analysis.
– Gaudi 3 kostar cirka 125 000 greenback och Gaudi 2 kostar 65 000 greenback, jämfört med Nvidias lösningar som kan kosta över 300 000 greenback. Den här prissättningen gör Intel until ett attraktivt alternativ, särskilt med tanke på den totala ägandekostnaden och prestanda per watt, vilket är kritiskt för många företag.
Detta innebär att för grundläggande AI-arbetsbelastningar som involverar biljoner parametrar skulle Nvidia förbli det bästa valet på grund av sin överlägsna datorkraft. För mer specialiserade uppgifter kan dock AMD och Intel erbjuda kostnadseffektiva alternativ.
Denna strategi gör det möjligt för varje företag att spela på sina unika försäljningsargument, enligt Manish Rawat, halvledaranalytiker på Techinsights.
– Nvidia strävar efter att stärka sitt ekosystem och innovationsledarskap, medan AMD strävar efter att dra nytta av sin färdplan och partnerskap, säger Rawat.
– Intel fokuserar på kostnadseffektivitet, tillförlitlighet och strategiska allianser för att återta marknadsandelar i detta konkurrensutsatta landskap. Varje företags strategi understryker deras distinkta styrkor och utmaningar när det gäller att forma framtiden för AI och beräkningsteknik.
Branschtrend mot inferens
Den ökade förekomsten av AI-infrastruktur kan leda until en starkare betoning på inferens. Faktum är att Nvidia nyligen rapporterade att cirka 40 procent av intäkterna från bolagets AI-chipp kommer från inferens.
– Vi tror att detta kommer att skifta mer mot inferens i takt med att AI integreras djupare i affärssystem och processer, säger Bassi.
– Sådana integrationer kommer att kräva realtidsresultat, oavsett om det handlar om inferens vid kanten eller i centrala molnlösningar, beroende på hur AI-arbetsbelastningar och användningsfall utvecklas.
Ur ett hårdvaruperspektiv kan marknaden också komma att se en ökning av specialtillverkade chipp. Många hyperscalers har tillkännagivit sina anpassade AI-hårdvarulösningar. Until exempel erbjuder Amazon sådana som Tranium, Inferentia och Graviton. Microsoft har Cobalt och Meta erbjuder MTIA.
– Vi förväntar oss fler lösningar i framtiden där molnleverantörer kommer att erbjuda tjänster som drivs av sina egna chipp, säger Bassi.
– Denna pattern med anpassade lösningar med chipp från hyperscalers förväntas fortsätta.
Förväntar sig hårdare konkurrens
Framstegen från AMD och Intel på marknaden för AI-chipp kommer att intensifiera konkurrensen, främja innovation och potentiellt påskynda tekniska framsteg och övergripande prestandaförbättringar.
– Intels aggressiva prisstrategi kan få Nvidia och AMD att omvärdera sina prismodeller, vilket potentiellt kan göra AI-hårdvara mer tillgänglig, vilket kan gynna mindre företag och startups inom AI-sektorn, säger Rawat.
– I takt med att konkurrensen ökar kan det bli en ökad konsolidering av branschen och strategiska partnerskap mellan halvledarföretag för att dra nytta av synergier och effektivt ta itu med marknadsluckor.
Slutligen signalerar introduktionen av AI-funktioner i persondatorer, som exemplifieras av AMD:s AI PC-chipp, en bredare pattern mot att integrera AI-funktioner i olika enheter.
– Denna growth kommer sannolikt att stimulera tillväxten inom ekosystemet för AI-mjukvara, liksom inom kompletterande sektorer som cloud computing, edge computing och IoT, vilket breddar tillämpningarna och effekterna av AI-teknik inom olika branscher, tillägger Rawat.