
H200 е чудовищен графичен процесор с изкуствен интелект, който може да ускори ChatGPT
Nvidia обяви HGX H200 Tensor Core GPU. Той ще използва Hopper архитектурата за ускоряване на AI приложения. Това е продължение на H100 GPU, който беше реализиран миналата година. Ако бъде разгърнат широко, това може да доведе до много по-мощни AI модели.
Липсата на изчислителна мощност е била основна пречка за напредъка на ИИ през изминалата година. Това възпрепятства внедряването на съществуващи модели на ИИ и забавя разработването на нови. До голяма степен е виновен недостигът на мощни графични процесори, които ускоряват AI моделите. Един от начините за облекчаване на пречките при изчисленията е да се създадат повече чипове. Друга успешна насока е да се направят чиповете с изкуствен интелект по-мощни.
Добър ли е H200?
Графичните процесори са идеални за AI приложения. Те изпълняват огромен брой паралелни матрични умножения, които са необходими за функционирането на невронните мрежи. Те са от съществено значение за обучение при изграждането на AI модел. От помощ са там, където хората въвеждат входни данни в AI модел и той връща резултати.
За да се създаде интелигентност с генеративни AI и HPC приложения, огромни количества данни трябва да бъдат ефективно обработени с висока скорост. Процесът използва голяма и бърза GPU памет. Благодарение на Nvidia H200, водещата в индустрията AI супер компютърна платформа става по-бърза, за да разреши някои от най-важните предизвикателства в света.
Ресурсите на GPU са ниски и това причинява забавяне с ChatGPT. Компанията трябва да разчита на ограничаване на скоростта, за да предостави каквато и да е услуга. Използването на H200 може да даде на съществуващите AI езикови модели, които управляват ChatGPT, много повече възможности.
Nvidia
H200 е първият GPU, който предлага HBM3e памет. Благодарение на HBM3e, H200 предлага 141 GB памет и 4,8 терабайта в секунда честотна лента. Това е 2,4 пъти повече от честотната лента за паметта на Nvidia A100, която беше реализирана през 2020г.
Nvidia ще направи H200 достъпен в няколко форм фактора. Те ще включват сървърни платки Nvidia HGX H200 в четири и осем-пътни конфигурации. Те ще бъдат съвместими както с хардуера, така и със софтуера на системите HGX H100. Опцията ще бъде налична в Nvidia GH200 Grace Hopper Superchip.
Amazon Web Services, Google Cloud, Microsoft Azure и Oracle Cloud Infrastructure ще бъдат първите доставчици на облачни услуги, които ще разположат базирани на H200 инстанции от следващата година. H200 ще бъде наличен за глобални производители на системи и доставчици на облачни услуги от началото на второто тримесечие на 2024г.
Междувременно Nvidia се бори с правителството на САЩ относно експортните ограничения за своите мощни графични процесори, които ограничават продажбите в Китай. Миналата година Министерството на търговията на страната обяви ограничения, предназначени да държат напредналите технологии далеч от грешните ръце. Nvidia отговори, като създаде нови чипове, за да преодолее тези бариери, но САЩ наскоро забрани и тях.