Черен Бял

Как стратегията на Intel “AI навсякъде” може да оспори господството на Nvidia 1

Чрез фокус върху по-персонализирани genAI модели за предприятия и индустриален стандарт Ethernet, Intel вижда път към възвръщане на господството си в нова ера на компютрите.

На годишната конференция на Intel Vision главният изпълнителен директор Пат Гелсинджър изложи амбициозен план, който включва генеративната изкуствена интелигентност (genAI) на всеки ъгъл.

Стратегията на Intel за хардуер е фокусирана около новата им GPU Gaudi 3, която е специално създадена за обучение и изпълнение на масивни модели на големи езици (LLMs), които поддържат genAI в центровете за данни. Intel също така се насочва към новата си серия процесори Xeon 6 – някои от които ще имат вградени невронни процесорни блокове (NPUs или „ускорители за изкуствен интелект“) за използване в работни станции, компютри и ръбови устройства. Intel също твърди, че процесорите Xeon 6 ще бъдат достатъчно добри за изпълнение на по-малки, по-персонализирани LLMs, които се очаква да се разпространяват.

Предложението на Intel: Чиповете им ще струват по-малко и ще използват по-приятна екосистема от тази на Nvidia.

Ключовата реч на Гелсинджър критикува популярния H100 GPU на Nvidia, като казва, че ускорителят за изкуствен интелект Gaudi 3 доставя средно 50% по-добър извод и 40% по-добра енергийна ефективност „на дроб от цената“. Intel също твърди, че Gaudi 3 представлява по-добро решение от H100 за обучение на различни видове LLMs – и може да го направи до 50% по-бързо.

Инфраструктурата за сървъри и съхранение, необходима за обучение на изключително големи LLMs, ще заеме все по-голяма част от пазара на инфраструктура за изкуствен интелект поради неутолимото им желание за изчисления и данни, според IDC Research. IDC прогнозира, че световният пазар на хардуер за изкуствен интелект (сървъри и съхранение), включително за изпълнение на генеративен AI, ще нарасне от 18,8 милиарда долара през 2021 г. на 41,8 милиарда долара през 2026 г., което представлява близо 20% от общия пазар на сървъри и съхранение.

Заедно с бързо нарастващата употреба в сървъри за данни, genAI се очаква да задвижи чипсети за изкуствен интелект за персонални компютри и други мобилни устройства на над 1,8 милиарда броя до 2030 г. Това е така, защото лаптопи, смартфони и други форми

за захранване на тези настолни, мобилни и ръбови устройства. Следващото поколение процесори Core Ultra на Intel — Lunar Lake — се очаква да бъде пуснато по-късно тази година и ще разполага с повече от 100 тера операции на секунда (TOPS) и над 45 NPU TOPS, насочени към ново поколение компютри, поддържащи genAI.

Въпреки че NPUs съществуват вече десетилетия за системи за машинно обучение, появата на ChatGPT на OpenAI през ноември 2022 г. започна възпламеняване на състезание сред производителите на чипове за доставка на най-бързите и най-способните ускорители, които да се справят с бързото приемане на genAI

Nvidia стартира с предимство пред конкурентите. Първоначално проектирани за компютърни игри, AI чиповете на Nvidia — графични процесорни блокове (GPUs) — са собствена форма на ускорители, но са скъпи в сравнение с обикновените процесори. Поради това, че GPUs на Nvidia са позиционирани така, че да извлекат предимство от златния бум на genAI, компанията бързо стана третата най-ценна компания в САЩ. Само Microsoft и Apple я надминават по пазарна стойност.

Анализаторите в индустрията се съгласяват, че конкурентният план на Intel е стабилен, но има стръмен път да стигне до Nvidia, безфабричен производител на чипове, който се гордее с около 90% от пазара на AI GPUs за данни и 80% от целия пазар на AI чипове.

С течение на времето повече от половината от бизнеса на Nvidia в областта на данните ще идва от AI услуги, изпълнявани в облака, според Радж Джоши, старши вицепрезидент на Moody’s Investors Service. „Урокът не е изгубен за доставчици на облачни услуги като Google и Amazon, всеки от които разполага със свои GPUs за поддръжка на работни натоварвания, свързани с AI“, казва той.

„По същество, има само един играч, който предоставя Nvidia и AMD GPUs, и това е TSMC в Тайван, който е водещ разработчик на полупроводници днес, както по отношение на технологията, така и на пазарния дял“, казва Джоши.

Intel не е безфабричен. Тя дълго време доминира дизайна и производството на високопроизводителни процесори, въпреки че последните предизвикателства поради genAI отразяват фундаментални промени в областта на компютърната техника.

Иронично, чипът Gaudi 3 на Intel се произвежда от TSMC с използването на технологията му с 5 нанометра (nm) в сравнение с предишния процес с 7 нанометра.

GenAI в центровете за данни днес, на ръба утре

Центровете за данни ще продължат да разполагат с процесори (CPUs) в голям брой, за да поддържат интернет услуги и облачно изчисление, но все повече ще разполагат с графични процесорни блокове (GPUs), за да поддържат изкуствен интелект (AI) — и Intel се е борила да проектира конкурентни GPUs, според професор Бенджамин Лий от Университета на Пенсилвания, Факултет по инженерни и приложни науки.

Gaudi 3 GPU на Intel и Xeon 6 CPU са по-евтини и с по-малки нужди от енергия в сравнение с Blackwell H100 и H200 GPUs на Nvidia, според старши анализатор на Forrester Research, Алвин Нгуен. По-евтин и по-ефективен чип ще помогне да се ограничат неутолимите енергийни изисквания на инструментите за genAI, като в същото време останат „производителни“, каза той.

Ускорителните микропроцесори изпълняват две основни цели за genAI: обучение и извод. Чиповете, които се занимават с обучението на изкуствения интелект, използват големи количества данни, за да обучат алгоритми на невронни мрежи, които след това се очаква да правят точни прогнози, като например следващата дума или фраза в изречение или следващото изображение. Така че чиповете също трябва бързо да извлекат какъв ще бъде отговорът на заявката (запитването).

Но големите езикови модели (LLMs) трябва да бъдат обучени, преди да могат да започнат да извеждат полезен отговор на заявка. Най-популярните LLMs предоставят отговори, базирани на големи набори от данни, взети от интернет, но понякога те могат да бъдат неточни или напълно странни, както е случаят с галюцинациите на genAI, когато технологията се отклонява.

Анализаторът на Gartner, вицепрезидент и анализатор Алън Прийстли, каза, че докато днешните GPUs предимно поддържат изчислително интензивното обучение на големи LLMs, в бъдеще бизнесът ще иска по-малки LLMs, базирани на собствени данни — не на информация от извън компанията.Ценовата политика на Nvidia в момента се базира на високопроизводителен продукт, който се справя отлично с интензивните нужди при обучението на големи езикови модели (LLMs), според Алън Прийстли. И Nvidia може да таксува продукта както иска, но това означава, че е относително лесно за конкурентите да предложат по-ниски цени на пазара.

RAG (от английски “retrieval augmented generation”) е процес, който оптимизира изхода на големите езикови модели (LLMs), като се обръща към външна база от знания извън масивните онлайн данни, на които се обучават традиционно LLMs за изкуствен интелект (genAI). С помощта на софтуера RAG, LLM може да достъпи специфични бази данни или набори от документи на конкретна организация в реално време.

Например LLM, поддържащ RAG, може да предостави на пациентите в здравната система съвети за лекарства, планиране на срещи, обновяване на рецепти и помощ при намирането на лекари и услуги в болницата. RAG може също да се използва за обработка на клиентски записи, подпомагайки по-точни и контекстно подходящи отговори на чатботи, базирани на genAI. RAG непрекъснато търси и включва актуални обновления от тези външни източници, което означава, че използваната информация е актуална.

Подкрепата за RAG и по-узко насочените LLMs е свързана с усилията на Intel за поверително изчисление и сигурност на Trusted Domain, които имат за цел да позволят на предприятията да използват своите данни, като ги защитават едновременно.

Интел се фокусира върху по-малки системи за изпълнение на големи езикови модели (LLMs). Можете да ги изпълнявате на процесор Xeon или на процесор, подсилван от невронни процесорни блокове (NPUs). Във всеки случай можете да го направите без да инвестирате милиарди долари в огромни масиви от хардуерна инфраструктура.

Gaudi 3Granite Rapids или Sierra Forrest Xeon процесорите могат да изпълняват големи езикови модели, които са необходими за бизнеса.

Intel също разчита на стандартния Ethernet в индустрията, като се съперничи с Nvidia, която използва по-проприетарния InfiniBand за високопроизводителни компютърни мрежи.

Ethernet или Infiniband?

По време на медийно обаждане тази седмица вицепрезидентът на Intel за Xeon софтуер, Дас Камхаут, заяви, че очаква чиповете Gaudi 3 да бъдат “силно конкурентни” по отношение на ценатаотворените стандарти на компанията и интегрираната мрежа на чипа, която използва Ethernet, подходящ за данни в центровете. Gaudi 3 разполага с 24 Ethernet порта, които се използват за комуникация между други чипове Gaudi, а след това за комуникация между сървърите.

В сравнение, Nvidia използва InfiniBand за мрежова комуникация и проприетарна софтуерна платформа наречена Compute Unified Device Architecture (CUDA). Този програмен модел предоставя API, което позволява на разработчиците да използват ресурсите на GPU без да се изисква специализирано знание за GPU хардуера. Платформата CUDA се е превърнала в индустриалния стандарт за ускорено изчисление с genAI и работи само с Nvidia хардуер.

Вместо проприетарна платформа, Intel работи по създаването на отворена модел на Ethernet мрежа за genAI fabrics и представи набор от AI-оптимизирани решения за Ethernet на своята конференция Vision. Компанията работи чрез Ultra Ethernet Consortium (UEC), за да проектира големи AI fabrics за мащабиране и разширение.

„Все повече разработчици на изкуствен интелект… искат да се откажат от използването на CUDA, което прави моделите много по-преносими“, казва Алън Прийстли от Gartner.

Нова надпревара за чипове

Нито Intel, нито Nvidia успяват да се справят с търсенето, предизвикано от вълната от разгръщане на големи езикови модели (genAI)GPU-тата на Nvidia вече са популярни, което доведе до скок на акциите на компанията с почти 450% от януари 2023 г. И продължава да напредва: на своята конференция GTC AI миналия месец Nvidia представи наследника на H100Blackwell B200, който доставя до 20 петафлопса изчислителна мощ.

Същевременно Intel на своята конференция Vision обяви шестото поколение процесори Xeon, включително Sierra Forest, първият процесор Xeon 6 с E-Core, който ще бъде доставен на клиентите с 144 ядра на сокет, „демонстрирайки подобрена ефективност“, според вицепрезидента на IDC ResearchПитър РутенIntel твърди, че е получил положителни отзиви от доставчици на облачни услуги, които са тествали чипа Sierra Forest.

Най-новата линия процесори Xeon 6 на Intel е насочена за използване в центровете за данниоблака и ръбовите устройства, но тези чипове ще се справят с по-малки и средни големи езикови модели.

Intel планира да пусне процесора Granite Rapids през второто тримесечие на годината. Продуктът, който се разработва на процеса Intel 3nm, споделя същата базова архитектура като тази на Sierra Forest, което позволява лесна преносимост, както и увеличена ядрена плътност и по-добра производителност на ват. Intel твърди, че процесорът Granite Rapids може да изпълнява модели като Llama-2 с до 70 милиарда параметра.

Следващото поколение процесори Xeon 6 и Core Ultra на Intel ще бъдат ключови за способността на компанията да предоставя решения за изкуствен интелект в различни сфери, включително обучение, настройка и извод, на различни места (крайни потребители, ръбови устройства и центрове за данни), според Forrester. Въпреки това, процесорите Xeon и Core Ultra се маркетират за по-малки и средни големи езикови модели. Новият процесор Gaudi 3 на Intel е специално проектиран за използване с genAI и ще бъде насочен към LLMs с 176 милиарда параметра или повече, според представител на Intel.

„Продължаващите проблеми със снабдяването на AI чипове означават, че продуктите на Intel ще бъдат търсени, гарантирайки работа както за продуктите на Intel, така и за Intel foundry“, казва Nguyen. „Заявената готовност на Intel да позволи на други компании да използват техните услуги за производство и да споделят интелектуалната си собственост – технологията, която разработват – означава, че техният обхват може да се разшири“ и към пазари, които в момента не обслужват, като например мобилните.

Коментар

  1. Hi, this is a comment.
    To get started with moderating, editing, and deleting comments, please visit the Comments screen in the dashboard.
    Commenter avatars come from Gravatar.

Вашият коментар

КОЛИЧКА

close
Call Now Button