HPE představuje umělou inteligenci pro velké jazykové modely dostupnou skrze cloud
Společnost Hewlett Packard Enterprise vstoupila na trh s umělou inteligencí v cloudu rozšířením portfolia HPE GreenLake, které nově nabízí velké jazykové modely pro jakoukoliv firmu – od start-upů po společnosti z žebříčku Fortune 500 – s možností využití na vyžádání prostřednictvím multiklientských superpočítačových cloudových služeb.
S HPE GreenLake for Large Language Models (LLMs) mohou organizace trénovat, ladit a nasazovat rozsáhlou umělou inteligenci pomocí udržitelné superpočítačové platformy, která kombinuje softwarové řešení umělé inteligence (AI) od HPE a přední superpočítače na trhu. HPE GreenLake for LLMs bude dodáván ve spolupráci s prvním partnerem HPE, německým start-upem Aleph Alpha, který poskytne LLM pro využití v případech, které vyžadují zpracování a analýzu textu a obrazu.
HPE GreenLake for LLM je první z řady aplikací umělé inteligence zaměřených na konkrétní odvětví, které v budoucnu HPE plánuje spustit. Nápomocné budou pro modelování klimatu, ve zdravotnictví, pro životní vědu, finanční služby, výrobu a dopravu.
„Na trhu s umělou inteligencí jsme svědky generačního posunu, který bude stejně převratný jako web, mobilní zařízení nebo cloud,“ uvádí Antonio Neri, prezident a CEO společnosti HPE a dodává: „HPE všem nabízí přístup k umělé inteligenci, která byla dříve doménou vládních laboratoří a globálních cloudových gigantů, a to prostřednictvím široké škály aplikací umělé inteligence, začínaje velkými jazykovými modely, které běží na osvědčených a udržitelných superpočítačích HPE. Organizace nyní mohou využít umělou inteligenci k podpoře inovací, vylepšení a dosažení průlomů s cloudovou službou na vyžádání, která trénuje, ladí a nasazuje modely ve velkém měřítku a zodpovědně.“
HPE je globálním lídrem a expertem v oblasti superpočítačů a poskytuje bezprecedentní úroveň výkonu a škálovatelnosti pro umělou inteligenci. Společnost díky Frontieru (nejrychlejšímu superpočítači na světě) překonala rychlostní bariéru exaskalárního výpočtu.
Na rozdíl od cloudových nabídek obecného charakteru, které provozují více pracovních zátěží paralelně, HPE GreenLake for LLMs běží na AI nativní architektuře, která je navržena k provozu jedné rozsáhlé AI tréninkové a simulační zátěže, a to při plném výpočetním výkonu. Pracovat bude na stovkách až tisících CPU nebo GPU současně. Tato schopnost nabízí výraznější efektivitu, spolehlivost a účinnost pro trénování AI a vytváření přesnějších modelů, což firmám umožňuje urychlit svou cestu od POC (proof of concept – ověření konceptu) k produkci a rychleji řešit své výzvy.
HPE GreenLake for LLMs – první z řady aplikací umělé inteligence
HPE GreenLake for LLMs bude obsahovat Luminous, předtrénovaný velký jazykový model společnosti Aleph Alpha, který je nabízen v několika jazycích, včetně angličtiny, francouzštiny, němčiny, italštiny a španělštiny. LLM organizacím umožní využít svá vlastní data, trénovat a vyladit upravený model, aby učinily poznatky v reálném čase na základě svého vlastního vývoje.
Služba firmám umožňuje vytvářet a nabízet různé aplikace umělé inteligence, které mohou integrovat do svých pracovních postupů a odemknout hodnotu založenou na podnikání výzkumu.
„Pomocí superpočítačů a softwaru pro umělou inteligenci od HPE jsme účinně a rychle vytrénovali Luminous, velký jazykový model pro kritické oblasti jako jsou banky, nemocnice a právní firmy, který slouží k urychlení rozhodování a úspoře času a zdrojů,“ říká Jonas Andrulis, zakladatel a CEO společnosti Aleph Alpha. „Jsme hrdí, že jsme partnery HPE GreenLake for LLMs a těšíme se na rozšíření naší spolupráce s HPE tak, abychom dostali Luminous do cloudu a nabídli jej našim zákazníkům jako službu.“
HPE poskytuje měřítko superpočítačů pro trénink, ladění a nasazení umělé inteligence
HPE GreenLake for LLMs bude k dispozici na vyžádání a poběží na nejvýkonnějších a nejudržitelnějších superpočítačích na světě – superpočítačích HPE Cray XD – čímž firmám odpadne potřeba kupovat a spravovat vlastní superpočítače, které s sebou obvykle nesou nákladný a složitý provoz a vyžadují specifické odborné znalosti. Nabídka využívá programovací prostředí HPE Cray, plně integrovanou softwarovou sadu pro optimalizaci aplikací HPC a AI obsahuje kompletní sadu nástrojů pro vývoj, přenos, ladění a optimalizaci kódu.
HPE GreenLake for LLMs využívá udržitelné výpočetní prostředí
Společnost HPE se zavázala poskytnout svým zákazníkům udržitelné výpočetní řešení. HPE GreenLake for LLMs bude pracovat v kolokačních centrech, například v QScale v Severní Americe, které jsou navrženy k podpoře škálovatelnosti a kapacity superpočítačů a provozovány téměř ze 100 % z obnovitelné energie.
Nové portfolio výpočetních řešení pro AI
HPE podporuje tři klíčové komponenty na cestě k umělé inteligence v oblasti školení, ladění a inferenčního zpracování. Navrhnuty byly pro použití na okraji sítě a v datovém centru, pro Computer Vision at the Edge, Generative Visual AI a Natural Language Processing AI. Tato AI řešení jsou založena na nových serverech HPE ProLiant Gen11, které byly navrženy tak, aby obsahovaly pokročilou GPU akceleraci, která je pro AI zásadní. Oproti předchozím modelům servery HPE ProLiant DL380a a DL320 Gen11 zvyšují výkon AI inferenčního zpracování více než pětkrát.
Dostupnost
Společnost HPE nyní přijímá objednávky na HPE GreenLake for LLMs a očekává další dostupnost do konce kalendářního roku 2023, počínaje Severní Amerikou a dostupností v Evropě počátkem příštího roku.
Společnost HPE dnes také oznámila rozšíření svých výpočetních řešení pro inferenci umělé inteligence. Nové servery HPE ProLiant Gen11 jsou optimalizovány pro pracovní zátěž umělé inteligence díky využívání pokročilých grafických procesorů. Servery HPE ProLiant DL380a a DL320 Gen11 zvyšují výkon inferencí AI o více než pětinásobek oproti předchozím modelům.2 Více informací naleznete na stránce HPE ProLiant Servers for AI.
HPE Services poskytuje komplexní portfolio služeb obsahující strategii a návrh, provozu a správy AI iniciativ.
Více informací o HPE GreenLake for LLMs najdete na www.hpe.com/greenlake/llm
1. HPE GreenLake pro velké jazykové modely (LLM) poběží na superpočítačích, které budou zpočátku umístěny v kolokaci QScale v Quebecu, který poskytuje energii z 99,5 % z obnovitelných zdrojů.
2. NVIDIA: Srovnání výkonu generativní umělé inteligence obrazu NVIDIA L40(TensorRT 8.6.0) versus T4 (TensorRT 8.5.2), Stable diffusion v2.1 (512×512).