تتكلف شرائح H100 ما بين 25 و40 ألف دولار، وهناك حاجة إلى الآلاف منها للعمل معًا لإنشاء أكبر النماذج في عملية التدريب الحاسوبية.
وتتمثل الترقية الرئيسية في H200 في الاشتمال على 141 غيغابايت من ذاكرة HBM3 من الجيل التالي، التي ستساعد الشريحة على إجراء "الاستدلال" أو استخدام نموذج كبير بعد تدريبها على إنشاء نصوص أو صور أو تنبؤات.
أوضحت إنفيديا إن H200 سينتج مخرجات أسرع بمرتين تقريبًا من H100، ويعتمد ذلك على اختبار باستخدام الجيل الجديد من نموذج اللغة مفتوح المصدر لشركة Meta الذي يحمل اسم Llama 2 LLM.
أدى خطط صدور وحدات معالجة الرسومات المدعمة بالذكاء الاصطناعي إلى ارتفاع سهم الشركة أكثر من 230% حتى الآن في عام 2023، وتتوقع الشركة إيرادات تبلغ نحو 16 مليار دولار للربع الثالث المالي، بزيادة 170% عن العام الماضي.