ابرکامپیوتر Aurora به تازگی فرآیند نصب تیغههایش را طی کرده است. این خبر توسط شرکتهای اچپی و اینتل و وزارت انرژی آمریکا در اختیار عموم قرار گرفته است. این ابرکامپیوتر با هدف انجام شبیهسازی، تحلیل داده و کاربردهای هوش مصنوعی بر روی حجم بسیار عظیمی از داده، طراحی شده است. Aurora هماکنون دارای ده هزار و 624 تیغه محاسباتی است که از پردازشگرهای گرافیکی مخصوص مراکز داده سری Max اینتل و پردازندههای زئون سری Max، قدرت میگیرند. منظور از تیغه یا Blade، کامپیوترهایی است که این ابرکامپیوتر از آنها تشکیل شده است. این ابرکامپیوتر، بیش از ۱۰۲۴ نود ذخیرهسازی دارد و ظرفیت ذخیرهسازی آن به ۲۳۰ پتابایت میرسد.
پهنای باند این ابرکامپیوتر به ۳۱ ترابایت بر ثانیه میرسد و در آن از فناوری HPE Slingshot استفاده شده است. اینتل ادعا کرده است که این ابرکامپیوتر، اولین ابرکامپیوتری خواهد بود حداکثر توان عملیاتی آن از نظر تئوری برابر با ۲ اگزافلاپ (یک اگزافلاپ برابر است با انجام یک میلیارد میلیارد عملیات در ثانیه) است.
معاون مدیرعامل شرکت اینتل و مدیر کل گروه Super Compute همچنین گفته است که: «ابرکامپیوتر Aurora اولین پیادهسازی از پردازندههای گرافیکی سری Max اینتل است که بزرگترین سیستم مبتنی بر پردازندههای Xeon Max و بزرگترین کلاستر از واحدهای پردازش گرافیکی در دنیا محسوب میشود».
- شاید به خواندن این مطلب علاقهمند باشید: نقد و بررسی سرور HPE مدل ProLiant RL300 Gen11
ویژگیها و تاریخ رونمایی از Aurora Supercomputer
ویژگیهای این ابرکامپیوتر را در ادامه این صفحه از وبلاگ هنر توسعه و ارتباطات شایگان مشاهده کنید:
- پهنای باند بالا
- تأخیر بسیار کم در پردازش وظایف
- ۲۳۰ پتابایت حافظه ذخیرهسازی
- ۱۰ پتابایت حافظه RAM
- پهنای باند ۳۱ ترابایت بر ثانیهای
- دارای ۲۱ هزار و ۲۴۸ پردازنده سری Xeon Max
- دارای ۶۳ هزار و ۷۴۴ واحد پردازش گرافیکی مخصوص مراکز داده اینتل سری Max
“ابرکامپیوتر Aurora برای عرضه در ۲۰۲۳ میلادی در نظر گرفته شده است.”
منبع: seekingalpha.com
سوالات متداول
۱. توان ابرکامپیوتر Aurora چقدر است؟
این ابرکامپیوتر توان اجرای ۲ اگزافلاپ عملیات را در هر ثانیه دارد (هر اگزافلاپ برابر با ۱ میلیارد میلیارد عملیات بر ثانیه است).
۲. ابرکامپیوتر Aurora Supercomputer برای چه کاربردهایی ساخته شده است؟
این ابرکامپیوتر برای انجام عملیاتهای مربوط به تحلیل داده، هوش مصنوعی و شبیهسازی بر روی حجم بسیار عظیمی از داده ساخته شده است.