Společnost Hewlett Packard Enterprise představila superpočítačové řešení pro generativní umělou inteligenci určené velkým podnikům, výzkumným institucím a vládním organizacím, které urychluje trénování a ladění modelů umělé inteligence (AI) pomocí soukromých datových sad. Toto řešení se skládá ze softwarové sady, která zákazníkům umožňuje trénovat a ladit modely a vyvíjet aplikace umělé inteligence. Součástí řešení jsou také kapalinou chlazené superpočítače, akcelerované výpočty, sítě, úložiště a služby, které organizacím pomáhají rychleji odemknout hodnotu AI.
“Přední světové firmy a výzkumná centra trénují a ladí modely umělé inteligence k podpoření inovace a odemknutí průlomových objevů ve výzkumu. Ovšem, aby tak mohly činit efektivně a účinně, potřebují účelová řešení,” řekl Justin Hotard, výkonný viceprezident a generální ředitel divize HPC, AI a Labs ve společnosti Hewlett Packard Enterprise. “Pro podporu generativní AI potřebují organizace využívat řešení, která jsou udržitelná a poskytují specializovaný výkon a rozsah superpočítače pro podporu trénování modelů AI. Jsme nadšeni, že můžeme rozšířit naši spolupráci se společností NVIDIA a nabídnout hotové řešení pro AI, které našim zákazníkům pomůže výrazně urychlit trénink modelů AI a jeho výsledky.”
Klíčovými součástmi tohoto superpočítačového řešení pro generativní umělou inteligenci jsou softwarové nástroje pro vytváření aplikací umělé inteligence, přizpůsobování předem vytvořených modelů a vývoj a úpravy kódu. Software je integrován se superpočítačovou technologií HPE Cray, která je založena na stejné výkonné architektuře používané v nejrychlejším superpočítači na světě a poháněna superčipy NVIDIA Grace Hopper GH200. Společně toto řešení nabízí organizacím bezprecedentní rozsah a výkon potřebný pro velké pracovní zátěže v oblasti umělé inteligence, jako je například trénování velkých jazykových modelů (LLM) a doporučovacích modelů s hlubokým učením (DLRM). Pomocí vývojového prostředí HPE Machine Learning Development Environment na tomto systému byl open source model Llama 2 s 70 miliardami parametrů vyladěn za méně než 3 minuty , což se přímo promítá do rychlejšího dosažení hodnoty pro zákazníky. Pokročilé superpočítačové schopnosti HPE podporované technologií NVIDIA zvyšují výkon systému dvoj až trojnásobně .
“Generativní umělá inteligence mění všechny průmyslové a vědecké obory,” řekl Ian Buck, viceprezident divize Hyperscale a HPC ve společnosti NVIDIA. “Spolupráce společnosti NVIDIA s HPE na tomto hotovém řešení pro trénink a simulaci AI, které je poháněno superčipy NVIDIA GH200 Grace Hopper, poskytne zákazníkům výkon potřebný k dosažení průlomových výsledků v jejich iniciativách generativní AI.”
Výkonné integrované řešení AI
Superpočítačové řešení pro generativní umělou inteligenci je účelová, integrovaná, na umělé inteligenci založená nabídka, která zahrnuje následující komplexní technologie a služby:
- Software pro akceleraci AI/ML – Sada tří softwarových nástrojů pomůže zákazníkům trénovat a ladit modely AI a vytvářet vlastní aplikace AI.
- HPE Machine Learning Development Environment je softwarová platforma pro strojové učení (ML), která umožňuje zákazníkům rychleji vyvíjet a nasazovat modely umělé inteligence díky integraci s populárními ML frameworky a zjednodušení přípravy dat.
- NVIDIA AI Enterprise urychluje přechod organizací na špičkovou umělou inteligenci díky zabezpečení, stabilitě a podpoře. Nabízí rozsáhlé rámce, předtrénované modely a nástroje, které zjednodušují vývoj a nasazení produkční AI.
- Sada HPE Cray Programming Environment nabízí programátorům kompletní sadu nástrojů pro vývoj, portování, ladění a vylepšování kódu.
- Navrženo pro škálování – Řešení založené na HPE Cray EX2500, systému třídy exascale, a vybaveném špičkovými superčipy NVIDIA GH200 Grace Hopper Superchips, lze škálovat až na tisíce grafických procesorů (GPU) s možností vyčlenit plnou kapacitu uzlů na podporu jediné pracovní zátěže s umělou inteligencí pro rychlejší dosažení hodnoty. Tento systém je první, který je vybaven konfigurací čtyř uzlů GH200 Superchip.
- Síť pro umělou inteligenci v reálném čase – HPE Slingshot Interconnect nabízí otevřenou, vysoce výkonnou síť založenou na Ethernetu, která je navržena tak, aby podporovala pracovní zátěž třídy exascale. Toto laditelné propojení, založené na technologii HPE Cray, zvyšuje výkon celého systému tím, že umožňuje extrémně vysokorychlostní síťování.
- Jednoduchost na klíč – Řešení je doplněno službou HPE Complete Care Services, která poskytuje globální specialisty pro nastavení, instalaci a kompletní podporu po celou dobu životnosti, aby se zjednodušilo zavádění AI.
Budoucnost superpočítačů a umělé inteligence bude udržitelnější
Odhaduje se, že do roku 2028 bude růst pracovních zátěží umělé inteligence vyžadovat v datových centrech přibližně 20 gigawattů energie. Zákazníci budou vyžadovat řešení, která poskytnou novou úroveň energetické účinnosti, aby minimalizovali dopad své uhlíkové stopy.
Energetická účinnost je základem iniciativ společnosti HPE v oblasti výpočetní techniky, které přinášejí řešení s kapalinovým chlazením, jež mohou přinést až o 20 % vyšší výkon na kilowatt než řešení chlazená vzduchem a spotřebovávají o 15 % méně energie.
Společnost HPE dnes dodává většinu z deseti nejvýkonnějších superpočítačů na světě s využitím přímého kapalinového chlazení (DLC), které je součástí superpočítačového řešení pro generativní umělou inteligenci, aby bylo možné efektivně chladit systémy a zároveň snížit spotřebu energie pro výpočetně náročné aplikace. Společnost HPE má jedinečnou pozici k tomu, aby pomohla organizacím uvolnit nejvýkonnější výpočetní technologie, které jim pomohou dosáhnout cílů v oblasti umělé inteligence a zároveň snížit spotřebu energie.