اینفینیباند
اینفینیباند (InfiniBand یا به اختصار IB) یک استاندارد برای ارتباطات شبکههای کامپیوتری است که در ابررایانهها (کامپیوترهایی بامحاسبه کارایی بالا که توان بسیار بالا و تاخیر کم دارند) استفاده میشود. این استاندارد برای اتصال داده ها بین رایانهها و درون آنها، به عنوان یک اتصال مستقیم یا سوئیچ شده بین سرورها و سیستم های ذخیره سازی و همچنین اتصال بین سیستم های ذخیره سازی استفاده می شود، برای مقیاسپذیری بیشتر طراحی شده است و از توپولوژی شبکه پارچهای سوئیچ شده استفاده میکند .
تا سال ۲۰۱۴، این اتصال متداول ترین اتصال در ابر رایانه ها بود. ملانوکس (انویدیای امروزی) برای اینفینیباند آداپتور باس میزبان و سوئیچ شبکه تولید میکند، و در ماه فبریهی ۲۰۱۶ گزارش شد که شرکت اوراکل واحدهای سوئیچ InfiniBand و تراشههای آداپتور سرور خود را برای استفاده در خطوط تولید خود و توسط اشخاص ثالث مهندسی کرده است.[۱] کارتهای IB ملانوکس برای سولاریس، فریبیاسدی[۲][۳]، رد هت انترپرایز لینوکس، سوزه لینوکس انترپرایز، ویندوز، اچپی یوایکس، ویامویر ایاسایکسآی[۴] و ایآیایکس[۵] موجود هستند.
به عنوان یک اتصال ، IB با اترنت، کانال فیبری و مسیر همهجانبه (omni-path) اینتل رقابت می کند.
این فناوری توسط انجمن تجارت InfiniBand تبلیغ و ترویج دادهمیشود.
مشخصات
[ویرایش]عملکرد
[ویرایش]SDR | DDR | QDR | FDR10 | FDR | EDR | HDR | NDR | XDR | ||
---|---|---|---|---|---|---|---|---|---|---|
نرخ سیگنالینگ (Gbit / s) | ۲٫۵ | ۵ | ۱۰ | ۱۰٫۳۱۲۵ | [۶] | 14.0625۲۵٫۷۸۱۲۵ | ۵۰ | ۱۰۰ | ۲۵۰ | |
نظری تأثیر گذار توان عملیاتی (گیگابایت در ثانیه)[۷] |
۱ لینک | ۲ | ۴ | ۸ | ۱۰ | ۱۳٫۶۴ | ۲۵ | ۵۰ | ۱۰۰ | ۲۵۰ |
برای | ۴ پیوند۸ | ۱۶ | ۳۲ | ۴۰ | ۵۴٫۵۴ | ۱۰۰ | ۲۰۰ | ۴۰۰ | ۱۰۰۰ | |
برای | ۸ لینک۱۶ | ۳۲ | ۶۴ | ۸۰ | ۱۰۹٫۰۸ | ۲۰۰ | ۴۰۰ | ۸۰۰ | ۲۰۰۰ | |
برای ۱۲ لینک | ۲۴ | ۴۸ | ۹۶ | ۱۲۰ | ۱۶۳٫۶۴ | ۳۰۰ | ۶۰۰ | ۱۲۰۰ | ۳۰۰۰ | |
رمزگذاری (بیت) | 8b / 10b | 64b / 66b | PAM4 | tbd | ||||||
تأخیر آداپتور (μs)[۸] | ۵ | ۲٫۵ | ۱٫۳ | ۰٫۷ | ۰٫۷ | ۰٬۵ | کمتر؟ | tbd | tbd | |
سال[۹] | ۲۰۰۱، ۲۰۰۳ | ۲۰۰۵ | ۲۰۰۷ | ۲۰۱۱ | ۲۰۱۱ | 2014[۱۰] | ۲۰۱۸ | ۲۰۲۱ | بعد از سال ۲۰۲۳؟ |
پیوندها را میتوان جمع کرد: بیشتر سیستمها از یک جمع ۴× استفاده میکنند. ۸× ۱۲× لینکها بهطور معمول برای خوشهها، ابر رایانهها و اتصالات بینسوئیچی استفاده میشود.
اینفینیباند همچنین قابلیت دسترسی مستقیم حافظه از راه دور را برای سربار با پردازنده کم فراهم میکند.
توپولوژی
[ویرایش]در مقایسه با اترنت اشتراکی اولیه متوسط ، اینفینیباند از یک توپولوژی پارچه ای تغییر یافته استفاده می کند؛ همه انتقالها در آداپتور کانال شروع یا پایان مییابند، هر پردازنده شامل یک آداپتور کانال میزبان (HCA) و هر یک از تجهیزات جانبی دارای یک آداپتور کانال هدف (TCA) است. این آداپتورها می توانند اطلاعات را برای اهداف امنیتی یا کیفیت خدمات (QoS) تبادل کنند.
پیام ها
[ویرایش]InfiniBand داده ها را در بسته هایی با حجم حداکثر 4 کیلوبایت انتقال میدهد که برای تشکیل یک پیام با هم جمع می شوند. یک پیام می تواند به شبیه به موارد زیر باشد:
- دسترسی از راه دور به حافظه مستقیم برای خواندن یا نوشتن
- یک کانال ارسال یا دریافت
- یک عملیات مبتنی بر معامله (که قابل برگشت است)
- انتقال چندپخشی
- یک عملیات اتمی
اتصال فیزیکی
[ویرایش]علاوه بر اتصال به فرم برد ، می تواند با استفاده از اتصالات QSFP از مس فعال و غیرفعال (تا 10 متر) و کابل فیبر نوری (حداکثر ۱۰ کیلومتر) استفاده کند [۱۱]
همچنین انجمن اینفینیباند سیستم اتصال CXP را با استفاده از کابل های فیبر چند حالت موازی با اتصالات MPO 24 فیبربرای سرعت ۱۲۰ گیگابیت بر صانیه در مس ، کابلهای نوری فعال و گیرندههای نوری مشخص کردهاست.[نیازمند منبع]
اترنت بر پایهی InfiniBand
[ویرایش]اترنت بر پایهی InfiniBand (به اختصار EoIB) یک پیادهسازی اترنت بر روی پروتکل InfiniBand و فناوری اتصال است.
EoIB وجود همزمان چندین پهنای باند اترنت با نسخه InfiniBand (IB) متفاوت را امکان پذیر می کند.
اجرای اترنت از مجموعه پروتکل اینترنت ، که معمولاً به آن TCP/IP گفته می شود ، با برخی از پیادهسازیهای مورد استفاده بر پایهی پروتکل InfiniBand در IP از طریق IP (به اختصار IPoIB) متفاوت است.
نوع | خطوط | پهنای باند (Gbit / s) | نوع (های) اترنت سازگار | مقدار اترنت سازگار |
---|---|---|---|---|
SDR | 1 | 2.5 | GbE تا 2.5 GbE | 2 × GbE تا 1 × 2.5 GbE |
4 | 10 | GbE تا 10 GbE | 10 × GbE تا 1 10 GbE | |
8 | 20 | GbE تا 10 GbE | 20 × GbE تا 2 × 10 GbE | |
12 | 30 | GbE تا 25 GbE | 30 × GbE تا 1 × 25 GbE + 1 × | 5 GbE|
DDR | 1 | 5 | GbE تا 5 GbE | 5 × GbE تا 1 × 5 GbE |
4 | 20 | GbE تا 10 GbE | 20 × GbE تا 2 × 10 GbE | |
8 | 40 | GbE تا 40 GbE | 40 × GbE تا 1 × 40 GbE | |
12 | 60 | GbE تا 50 GbE | 60 × GbE تا 1 × 50 GbE + 1 10 GbE | |
QDR | 1 | 10 | GbE تا 10 GbE | 10 × GbE تا 1 10 GbE |
4 | 40 | GbE تا 40 GbE | 40 × GbE تا 1 × 40 GbE |
جستارهای وابسته
[ویرایش]منابع
[ویرایش]- ↑ "Oracle Engineers Its Own InfiniBand Interconnects". 23 February 2016.
- ↑ "Mellanox OFED for FreeBSD". Mellanox. Retrieved 19 September 2018.
- ↑ Mellanox Technologies (3 December 2015). "FreeBSD Kernel Interfaces Manual, mlx5en". FreeBSD Man Pages (به انگلیسی). FreeBSD. Retrieved 19 September 2018.
- ↑ "InfiniBand Cards - Overview". Mellanox. Retrieved 30 July 2014.
- ↑ "Implementing InfiniBand on IBM System p (IBM Redbook SG24-7351-00)" (PDF).
- ↑ «نسخه آرشیو شده». بایگانیشده از اصلی در ۲۶ اوت ۲۰۱۶. دریافتشده در ۲۷ آوریل ۲۰۲۱.
- ↑ "Archived copy". Archived from the original on 2011-09-29. Retrieved 2009-10-27.
{{cite web}}
: نگهداری یادکرد:عنوان آرشیو به جای عنوان (link) - ↑ http://www.hpcadvisorycouncil.com/events/2014/swiss-workshop/presos/Day_1/1_Mellanox.pdf // Mellanox
- ↑ Panda, Dhabaleswar K.; Sayantan Sur (2011). "Network Speed Acceleration with IB and HSE" (PDF). Designing Cloud and Grid Computing Systems with InfiniBand and High-Speed Ethernet. Newport Beach, CA, USA: CCGrid 2011. p. 23. Retrieved 13 September 2014.
- ↑ "InfiniBand Roadmap - Advancing InfiniBand". InfiniBand Trade Association (به انگلیسی).
- ↑ "Specification FAQ". ITA. Archived from the original on 24 November 2016. Retrieved 30 July 2014.