Nvidia H200: Nvidia એ જનરેટિવ AI મોડલ્સને તાલીમ આપવા માટે નવી ચિપનું અનાવરણ કર્યું: બધી વિગતો

Nvidia H200, કંપનીની અખબારી યાદી અનુસાર, HBM3e ઓફર કરનાર પ્રથમ GPU છે — જનરેટિવ AI અને મોટા લેંગ્વેજ મોડલ્સના પ્રવેગને પ્રોત્સાહન આપવા માટે ઝડપી, મોટી મેમરી, જ્યારે HPC વર્કલોડ માટે વૈજ્ઞાનિક કમ્પ્યુટિંગને આગળ ધપાવે છે. HBM3e સાથે, Nvidia H200 ડિલિવરી કરે છે. 141GB મેમરી 4.8 ટેરાબાઇટ પ્રતિ સેકન્ડ પર, તેની પુરોગામી Nvidia A100 ની સરખામણીમાં લગભગ બમણી ક્ષમતા અને 2.4x વધુ બેન્ડવિડ્થ, કંપનીએ નોંધ્યું છે.
ચિપ ક્યારે ઉપલબ્ધ થશે?
Nvidia H200 વૈશ્વિક સિસ્ટમ ઉત્પાદકો અને ક્લાઉડ સેવા પ્રદાતાઓ પાસેથી 2024 ના બીજા ત્રિમાસિક ગાળામાં ઉપલબ્ધ થશે. એમેઝોન વેબ સેવાઓ, ગૂગલ ક્લાઉડ, માઈક્રોસોફ્ટ એઝ્યુર અને ઓરેકલ ક્લાઉડ ઈન્ફ્રાસ્ટ્રક્ચર એ પ્રથમ ક્લાઉડ સેવા પ્રદાતાઓમાંની એક હશે જે H200-આધારિત દાખલાઓને જમાવશે. આગામી વર્ષ.
Nvidia NVLink અને NVSwitch હાઇ-સ્પીડ ઇન્ટરકનેક્ટ્સ દ્વારા સંચાલિત, HGX H200 વિવિધ એપ્લીકેશન વર્કલોડ પર સર્વોચ્ચ પ્રદર્શન પ્રદાન કરે છે, જેમાં LLM તાલીમ અને 175 બિલિયન પેરામીટર્સથી આગળના સૌથી મોટા મોડલ્સ માટે અનુમાનનો સમાવેશ થાય છે. એનવીડિયાએ જણાવ્યું હતું કે જનરેટિવ AI અને HPC એપ્લીકેશન્સમાં સૌથી વધુ પ્રદર્શન માટે આઠ-માર્ગી HGX H200 FP8 ડીપ લર્નિંગ કમ્પ્યુટના 32 પેટાફ્લોપ્સ અને 1.1TB એકંદર હાઇ-બેન્ડવિડ્થ મેમરી પ્રદાન કરે છે.
Nvidia ના ગ્રાફિક્સ પ્રોસેસિંગ યુનિટ્સ (GPUs) જનરેટિવ AI મોડલ્સના વિકાસ અને જમાવટમાં વધુને વધુ મહત્વપૂર્ણ ભૂમિકા ભજવી રહ્યા છે. GPUs આ મોડેલોને તાલીમ આપવા અને ચલાવવા માટે જરૂરી વિશાળ સમાંતર ગણતરીઓને હેન્ડલ કરવા માટે ડિઝાઇન કરવામાં આવ્યા છે, જે તેમને ઇમેજ જનરેશન, નેચરલ લેંગ્વેજ પ્રોસેસિંગ જેવા અન્ય કાર્યો માટે સારી રીતે અનુકૂળ બનાવે છે. કંપનીના GPU એ જનરેટિવ AI મોડલ્સની તાલીમ અને ચલાવવાને વેગ આપવા માટે ઘણા બધા ઓર્ડર્સ દ્વારા સક્ષમ છે. આ તેમના સમાંતર પ્રોસેસિંગ આર્કિટેક્ચરને કારણે છે, જે તેમને એકસાથે ઘણી ગણતરીઓ કરવા દે છે.