گزارشها نشان میدهد کمپانی بزرگ انویدیا به توسعه شتابدهندههای هوش مصنوعی ادامه میدهد و اکنون با معرفی کارت گرافیک Hopper H200 با حافظه فوقسریع HBM3e توانست مرزهای پشتیبانی از قابلیتهای هوش مصنوعی را جابهجا کند.
براساس اعلام رسمی انویدیا، کارت گرافیک Hopper H200 با پشتیبانی از حافظه قدرتمند و سریع HBM3e معرفی شد که میتواند قابلیتهای هوش مصنوعی را برای توسعه این فناوری در سرورها بهبود بخشد. ازسویدیگر، این کمپانی آمریکایی از سوپرتراشههای Grace Hopper برای ابر کامپیوتر Jupiter رونمایی کرد که میتواند تحول عظیمی را ایجاد کند؛ در ادامه بهجزئیات بیشتری از این خبر میپردازیم و بهصورت کامل توضیحاتی را درباره ویژگیهای هوش مصنوعی این پردازندهها میدهیم.
همانطورکه میدانید کارت گرافیک NVIDIA H100 یکی از محبوبترین و پرفروشترین کارتهای موجود در صنعت هوش مصنوعی محسوب میشود که توسط تیم سبزپوشان برای توسعه صنایع مختلف برای مشتریان ارائه میشود. باوجوداین، امروز پلتفرم HGX H200 معرفی شد که میتواند قدرت رایانشی و پردازشی هوش مصنوعی را با استفاده از کارت گرافیک H200 و هستههای Tensor بهصورت غیرقابلتصوری بهبود بخشد. بهعبارتی دقیقتر، این کارت گرافیک جدیدترین محصول انویدیا محسوب میشود که با بهینهسازیهای سختافزاری و نرمافزاری بههمراه سریعترین حافظه جهان یعنی HBM3e عملکرد غیرقابلتصوری را برای توسعهدهندگان و مهندسان بهارمغان بیاورد.
همانطورکه پیشتر گفتیم، کارت گرافیک NVIDIA Hopper H200 به حافظه فوقسریع HBM3e با ۱۴۱ گیگابایت ظرفیت حافظه و حداکثر ۴.۸ ترابایت پهنای باند مجهز است. درمقام مقایسه، این ظرفیت و پهنای باند تقریبا ۲.۵ برابر NVIDIA H100 محسوب میشود که نشان میدهد قابلیتها و ویژگیهای پردازشی برای توسعه هوش مصنوعی فوقالعاده افزایشیافته و کمپانیهای نیازمند به کارتهای گرافیکی قدرتمند میتوانند از آن بهرهمند شوند. همچنین، H200 از مدل هوش مصنوعی زبان بزرگ Llama 2 با ۷۰ میلیارد پارامتر برخوردار میشود؛ پیشرفتهای اخیر مجموعه TensorRT-LLM نیز میتواند باعث افزایش عملکرد طیف وسیعی از برنامههای مبتنیبر هوش مصنوعی شود.
علاوهبراین، در زمان معرفی گفته شد که کارت گرافیک NVIDIA Hopper H200 در طیف گستردهای از سرورهای HGX H200 با کلاستربندی گرافیکی ۴ و ۸ طرفه دردسترس خواهد بود و هریک از آن برای مصارف مختلف در صنعت هوش مصنوعی مورد استفاده قرار میگیرد. برایمثال، کلاستر ۸ طرفه کارت گرافیک H200 در یک سرور HGX میتواند حداکثر ۳۲ پتافلاپ عملکرد رایانشی FP8 و ۱.۱ ترابایت ظرفیت حافظه را ارائه کند که فوقالعاده خیرهکننده در دنیای فناوری محسوب میشود.
ازسویدیگر، این کارت گرافیک با سرورهای HGX H100 سازگار خواهد بود و بهروزرسانی پلتفرمها بسیار ساده و آسان خواهد بود. طبق اعلام رسمی انویدیا، شرکای تجاری این کمپانی مانند ASUS، ASRock Rack، Dell، Eviden، GIGABYTE، Hewlett Packard Enterprise، Ingrasys، Lenovo، QCT، Wiwynn، Supermicro و Wistron میتواند سهماهه دوم سال ۲۰۲۴ میلادی به این کارتهای گرافیکی دسترسی داشته باشند تا برای توسعه برنامههایشان در زمینه هوش مصنوعی استفاده کنند.
درکنار کارت گرافیک Hopper H200، سوپرتراشه Grace Hopper 200 را معرفی کرد که بهعنوان یک پیروزی بزرگ برای توسعه ابر کامپیوترها محسوب میشود. چندی پیش ابر کامپیوتر بهنام Jupiter در تاسیسات Forschungszentrum Jülich کشور آلمان بهعنوان بخشی از شرکت EuroHPC در اتحادیه اروپا محسوب میشود. گزارشها نشان میدهد این ابر رایانه برای علوم مواد، تحقیقات آب و هوا، کشف دارو و موارد دیگر مورد استفاده قرار خواهد گرفت؛ همچنین باید یادآور شویم این دومین ابر کامپیوتری محسوب میشود که کمپانی NVIDIA معرفی کرد و نسخهای بهبودیافته از Isambard-AI بود که تا 21 اگزافلاپ عملکرد هوش مصنوعی را ارائه میکرد
ازنظر کلاستربندی، ابر کامپیوتر Jupiter از پردازنده BullSequana XH3000 با سیستم خنککننده مایع بهره میبرد. درمجموع، این سیستم از ۲۴۰۰۰ سوپرتراشه NVIDIA Grace Hopper 200 استفاده میکند که با فناوری Quantum-2 Infiniband به یکدیگر متصل شدهاند. باتوجهبه اینکه هر سوپرتراشه Grace Hopper از ۲۸۸ هسته پردازشی Neoverse برخوردار است، میتوان گفت ما با یک سیستم بههمراه ۷ میلیون هسته ARM مواجه هستیم که میتواند هزاران پردازش را در حوزه هوش مصنوعی انجام دهد.
معیارهای عملکرد این ابرکامپیوتر شامل ۹۰ اگزافلاپ آموزش هوش مصنوعی و یک اگزافلاپ با قدرت پردازشی بالا را پوشش میدهد و انتظار میرود از اوایل سال ۲۰۲۴ میلادی شروع بهکار کند. درحالحاضر، اخبار گستردهتری از مجموعه کارتهای گرافیک و سوپرتراشه انویدیا دردست نیست، اما بهمحض انتشار اخبار تازهتر درخصوص فعالیت ابرکامپیوتر Jupiter حتما آن را با شما در سریعترین زمان ممکن به اشتراک خواهیم گذاشت تا شما نیز با عملکرد واقعی آن آشنا شوید.
NVIDIA TESLA GRAPHICS CARD | NVIDIA H200 (SXM5) | NVIDIA H100 (SMX5) | NVIDIA H100 (PCIE) | NVIDIA A100 (SXM4) | NVIDIA A100 (PCIE4) | TESLA V100S (PCIE) | TESLA V100 (SXM2) | TESLA P100 (SXM2) | TESLA P100 (PCI-EXPRESS) | TESLA M40 (PCI-EXPRESS) | TESLA K40 (PCI-EXPRESS) |
---|---|---|---|---|---|---|---|---|---|---|---|
GPU | GH200 (Hopper) | GH100 (Hopper) | GH100 (Hopper) | GA100 (Ampere) | GA100 (Ampere) | GV100 (Volta) | GV100 (Volta) | GP100 (Pascal) | GP100 (Pascal) | GM200 (Maxwell) | GK110 (Kepler) |
Process Node | 4nm | 4nm | 4nm | 7nm | 7nm | 12nm | 12nm | 16nm | 16nm | 28nm | 28nm |
Transistors | 80 Billion | 80 Billion | 80 Billion | 54.2 Billion | 54.2 Billion | 21.1 Billion | 21.1 Billion | 15.3 Billion | 15.3 Billion | 8 Billion | 7.1 Billion |
GPU Die Size | 814mm2 | 814mm2 | 814mm2 | 826mm2 | 826mm2 | 815mm2 | 815mm2 | 610 mm2 | 610 mm2 | 601 mm2 | 551 mm2 |
SMs | 132 | 132 | 114 | 108 | 108 | 80 | 80 | 56 | 56 | 24 | 15 |
TPCs | 66 | 66 | 57 | 54 | 54 | 40 | 40 | 28 | 28 | 24 | 15 |
L2 Cache Size | 51200 KB | 51200 KB | 51200 KB | 40960 KB | 40960 KB | 6144 KB | 6144 KB | 4096 KB | 4096 KB | 3072 KB | 1536 KB |
FP32 CUDA Cores Per SM | 128 | 128 | 128 | 64 | 64 | 64 | 64 | 64 | 64 | 128 | 192 |
FP64 CUDA Cores / SM | 128 | 128 | 128 | 32 | 32 | 32 | 32 | 32 | 32 | 4 | 64 |
FP32 CUDA Cores | 16896 | 16896 | 14592 | 6912 | 6912 | 5120 | 5120 | 3584 | 3584 | 3072 | 2880 |
FP64 CUDA Cores | 16896 | 16896 | 14592 | 3456 | 3456 | 2560 | 2560 | 1792 | 1792 | 96 | 960 |
Tensor Cores | 528 | 528 | 456 | 432 | 432 | 640 | 640 | N/A | N/A | N/A | N/A |
Texture Units | 528 | 528 | 456 | 432 | 432 | 320 | 320 | 224 | 224 | 192 | 240 |
Boost Clock | ~1850 MHz | ~1850 MHz | ~1650 MHz | 1410 MHz | 1410 MHz | 1601 MHz | 1530 MHz | 1480 MHz | 1329MHz | 1114 MHz | 875 MHz |
TOPs (DNN/AI) | 3958 TOPs | 3958 TOPs | 3200 TOPs | 2496 TOPs | 2496 TOPs | 130 TOPs | 125 TOPs | N/A | N/A | N/A | N/A |
FP16 Compute | 1979 TFLOPs | 1979 TFLOPs | 1600 TFLOPs | 624 TFLOPs | 624 TFLOPs | 32.8 TFLOPs | 30.4 TFLOPs | 21.2 TFLOPs | 18.7 TFLOPs | N/A | N/A |
FP32 Compute | 67 TFLOPs | 67 TFLOPs | 800 TFLOPs | 156 TFLOPs (19.5 TFLOPs standard) | 156 TFLOPs (19.5 TFLOPs standard) | 16.4 TFLOPs | 15.7 TFLOPs | 10.6 TFLOPs | 10.0 TFLOPs | 6.8 TFLOPs | 5.04 TFLOPs |
FP64 Compute | 34 TFLOPs | 34 TFLOPs | 48 TFLOPs | 19.5 TFLOPs (9.7 TFLOPs standard) | 19.5 TFLOPs (9.7 TFLOPs standard) | 8.2 TFLOPs | 7.80 TFLOPs | 5.30 TFLOPs | 4.7 TFLOPs | 0.2 TFLOPs | 1.68 TFLOPs |
Memory Interface | 5120-bit HBM3e | 5120-bit HBM3 | 5120-bit HBM2e | 6144-bit HBM2e | 6144-bit HBM2e | 4096-bit HBM2 | 4096-bit HBM2 | 4096-bit HBM2 | 4096-bit HBM2 | 384-bit GDDR5 | 384-bit GDDR5 |
اخبار مرتبط:
۲۴۰۰۰ سوپر تراشه 😐😐😐😐 با هفت میلیون هسته یا علی چه خبره
بعد ما اینجا لنگ یه پردازنده اینتلیم
قرار برای توسعه هوش مصنوعی در علوم مختلف مثل پزشکی استفاده بشه؛ برای همین نیاز به چنین کلاستربندی داره.
تو ایرانم تقریبا بیشتر پردازندهها یا کارتهای گرافیک موجود، ولی قیمت بالایی دارن که هرکسی قدرت خرید نداره.