اگرچه انویدیا قصد دارد محصولاتی مانند GB200 و B100 را در نیمه دوم سال جاری عرضه کند، اما بستههای تراشههای اولیه باید از فناوری CoWoS-L پیچیدهتر و با دقت بالا استفاده کنند و فرآیند اعتبارسنجی و آزمایش را زمانبر کند. علاوه بر این، زمان بیشتری برای بهینه سازی سیستم های سرور هوش مصنوعی سری B در جنبه هایی مانند ارتباطات شبکه و عملکرد خنک کننده نیاز خواهد بود. انتظار نمی رود که محصولات GB200 و B100 تا 4 Q24 یا 1 Q25 شاهد حجم تولید قابل توجهی نباشند.
گنجاندن GB200، B100 و B200 در سری B NVIDIA تقاضا برای ظرفیت CoWoS را افزایش میدهد و TSMC را وادار میکند تا کل نیازهای ظرفیت CoWoS خود را برای سال 2024 افزایش دهد. انتظار میرود ظرفیت ماهانه تخمینی تا پایان سال به نزدیک به 40K برسد – که بسیار خیرهکننده است. افزایش 150 درصدی در سال. تا سال 2025، کل ظرفیت برنامه ریزی شده می تواند تقریباً دو برابر شود و انتظار می رود تقاضای NVIDIA بیش از نیمی از این ظرفیت را تشکیل دهد. سایر فروشندگان، مانند Amkor و Intel، در حال حاضر روی فناوری CoWoS-S تمرکز کردهاند و عمدتاً سری H NVIDIA را هدف قرار دادهاند. با توجه به اینکه انتظار میرود پیشرفتهای فناوری در کوتاهمدت چالشبرانگیز باشد، برنامههای توسعه محافظهکارانه باقی میمانند مگر اینکه این تامینکنندگان بتوانند سفارشهای اضافی فراتر از NVIDIA را تضمین کنند، مانند تراشههای ASIC خود توسعهیافته توسط ارائهدهندگان خدمات مخابراتی، که میتواند منجر به استراتژی توسعه تهاجمیتر شود.
توسعه هوش مصنوعی NVIDIA و AMD قرار است تا نیمه دوم سال HBM3e را به تسلط بر بازار اصلی سوق دهد.
TrendForce سه روند اصلی HBM را برای محصولات هسته گرافیکی NVIDIA و AMD و مشخصات برنامه ریزی شده آنها پس از سال 2024 شناسایی کرده است: اول، انتقال از HBM3 به HBM3e انتظار می رود. انتظار میرود NVIDIA در نیمه دوم سال 2024 عرضه H200 مجهز به HBM3e را افزایش دهد و جایگزین H100 بهعنوان جریان اصلی شود. پس از آن، مدلهای دیگری مانند GB200 و B100 نیز از HBM3e استفاده خواهند کرد. در همین حال، AMD قصد دارد تا MI350 جدید را تا پایان سال روانه بازار کند و ممکن است در این مدت مدلهای موقتی مانند MI32x را برای رقابت با H200 معرفی کند، زیرا هر دو از HBM3e استفاده میکنند.
دوم، توسعه مستمر قابلیت HBM برای افزایش کارایی محاسباتی کلی و پهنای باند سیستم سرورهای هوش مصنوعی وجود خواهد داشت. در حال حاضر بازار بیشتر از NVIDIA H100 80 گیگابایتی HBM استفاده می کند، که انتظار می رود تا پایان سال 2024 به 192 تا 288 گیگابایت افزایش یابد. پردازنده های گرافیکی جدید AMD که با 128 گیگابایت MI300A شروع می شوند، تا 128 گیگابایت نیز افزایش خواهند یافت. تا 288 گیگابایت.
سوم، محدوده پردازنده های گرافیکی مجهز به HBM3e از پیکربندی 8Hi به 12Hi تغییر خواهد کرد. B100 و GB200 انویدیا در حال حاضر دارای 8Hi HBM3e با ظرفیت 192 گیگابایت هستند و تا سال 2025، مدل B200 قرار است به 12Hi HBM3e مجهز شود و به 288 گیگابایت برسد. انتظار میرود MI350 آینده AMD تا پایان سال جاری عرضه شود و سری MI375 که در سال 2025 انتظار میرود، با 12Hi HBM3e نیز تا 288 گیگابایت عرضه شود.