
Nvidia H200, நிறுவனத்தின் செய்திக்குறிப்பின்படி, HBM3e-ஐ வழங்கும் முதல் GPU ஆகும் – HPC பணிச்சுமைகளுக்கு அறிவியல் கணினியை முன்னேற்றும் அதே வேளையில், உருவாக்கக்கூடிய AI மற்றும் பெரிய மொழி மாடல்களின் முடுக்கத்தைத் தூண்டும் வேகமான, பெரிய நினைவகம். HBM3e உடன், Nvidia H200 வழங்குகிறது 141ஜிபி நினைவகம் வினாடிக்கு 4.8 டெராபைட்கள், அதன் முன்னோடியான என்விடியா ஏ100 உடன் ஒப்பிடும்போது கிட்டத்தட்ட இரட்டிப்பு திறன் மற்றும் 2.4 மடங்கு அதிக அலைவரிசை, நிறுவனம் குறிப்பிட்டது.
சிப் எப்போது கிடைக்கும்?
Nvidia H200 ஆனது 2024 ஆம் ஆண்டின் இரண்டாவது காலாண்டில் இருந்து உலகளாவிய கணினி உற்பத்தியாளர்கள் மற்றும் கிளவுட் சேவை வழங்குநர்களிடமிருந்து கிடைக்கும். Amazon Web Services, Google Cloud, Microsoft Azure மற்றும் Oracle Cloud Infrastructure ஆகியவை H200-அடிப்படையிலான நிகழ்வுகளை வரிசைப்படுத்தும் முதல் கிளவுட் சேவை வழங்குநர்களில் ஒன்றாக இருக்கும். அடுத்த வருடம்.
Nvidia NVLink மற்றும் NVSwitch அதிவேக இன்டர்கனெக்ட்களால் இயக்கப்படுகிறது, HGX H200 பல்வேறு பயன்பாட்டு பணிச்சுமைகளில் மிக உயர்ந்த செயல்திறனை வழங்குகிறது, LLM பயிற்சி மற்றும் 175 பில்லியன் அளவுருக்களுக்கு அப்பாற்பட்ட மிகப்பெரிய மாடல்களுக்கான அனுமானம் உட்பட. எட்டு வழி HGX H200 ஆனது 32 petaflops FP8 டீப் லேர்னிங் கம்ப்யூட் மற்றும் 1.1TB மொத்த உயர் அலைவரிசை நினைவகத்தை உருவாக்கும் AI மற்றும் HPC பயன்பாடுகளில் அதிக செயல்திறனுக்காக வழங்குகிறது என்று என்விடியா தெரிவித்துள்ளது.
என்விடியாவின் கிராபிக்ஸ் ப்ராசசிங் யூனிட்கள் (ஜிபியுக்கள்) உருவாக்கும் AI மாதிரிகளின் வளர்ச்சி மற்றும் வரிசைப்படுத்தலில் பெருகிய முறையில் முக்கிய பங்கு வகிக்கிறது. இந்த மாதிரிகளைப் பயிற்றுவிப்பதற்கும் இயக்குவதற்கும் தேவைப்படும் பாரிய இணையான கணக்கீடுகளைக் கையாளும் வகையில் GPUகள் வடிவமைக்கப்பட்டுள்ளன, மேலும் அவை பட உருவாக்கம், இயற்கையான மொழி செயலாக்கம் போன்ற பணிகளுக்கு மிகவும் பொருத்தமானவை. நிறுவனத்தின் ஜி.பீ.யூக்கள் பல ஆர்டர்கள் மூலம் ஜெனரேட்டிவ் AI மாடல்களின் பயிற்சி மற்றும் இயக்கத்தை துரிதப்படுத்த முடியும். இது அவர்களின் இணையான செயலாக்க கட்டமைப்பின் காரணமாகும், இது பல கணக்கீடுகளை ஒரே நேரத்தில் செய்ய அனுமதிக்கிறது.