چطور این مقاله مهندسی کامپیوتر و IT را دانلود کنم؟
فایل انگلیسی این مقاله با شناسه 2009979 رایگان است. ترجمه چکیده این مقاله مهندسی کامپیوتر و IT در همین صفحه قابل مشاهده است. شما می توانید پس از بررسی این دو مورد نسبت به خرید و دانلود مقاله ترجمه شده اقدام نمایید
حجم فایل انگلیسی :
945 Kb
حجم فایل فارسی :
1 مگا بایت
نوع فایل های ضمیمه :
pdf+word
کلمه عبور همه فایلها :
www.daneshgahi.com
عنوان فارسي
MAERI: فعال کردن نقشه برداری جریان داده منعطف بر روی شتاب دهنده های DNN از طریق interconnect های قابل تنظیم
عنوان انگليسي
Maeri: Enabling flexible dataflow mapping over dnn accelerators via reconfigurable interconnects
این مقاله چند صفحه است؟
این مقاله ترجمه شده مهندسی کامپیوتر و IT شامل 15 صفحه انگلیسی به صورت پی دی اف و 54 صفحه متن فارسی به صورت ورد تایپ شده است
چکیده
شبکه های عصبی عمیق (DNN) نتایجی بسیار امیدواربخش در تشخیص دید و گفتار رایانه نشان داده اند و به صورت پایه و اساسی برای AI که در همه جا موجود است در آمده اند. پیچیدگی محاسباتی این الگوریتم ها و نیاز به بازدهی بالای انرژی منجر به افزایش موجی در تحقیقات در ارتباط با شتاب دهنده های سخت افزاری شده است. برای کاهش تأخیر و هزینه های انرژی دستیابی به DRAM، اکثر شتاب دهنده های DNN ماهیت فضایی دارند با صدها عنصر پردازشی (PE) که به صورت موازی کار می کنند و مستقیماً با یکدیگر ارتباط برقرار می کنند.
DNN ها با نرخ بالایی در حال تکامل هستند و در جدیدترین توپولوژی ها داشتن لایه های پیچشی، بازگشتی، ادغام و کاملاً متصل با انداره ورودی و فیلترهای متفاوت متداول است. ممکن است متراکم یا پراکنده باشند. همچنین می توانند به روشهای بی شماری (داخل یا سراسر لایه ها) تقسیم شوند تا از استفاده مجدد از داده ها (خروجی های میانی و وزن ها) بهره برداری کنند. همه موارد فوق می توانند منجر به الگوهای جریان داده متفاوت در زیر لایه شتاب دهنده شوند.
متأسفانه، بیشتر شتاب دهنده های DNN هنگام انجام یک طراحی کد دقیق از PE و تراشه شبکه (NOC)، فقط از الگوهای ثابت جریان گردش داده پشتیبانی می کنند. در حقیقت، اکثر آنها فقط برای ترافیک در یک لایه پیچشی بهینه شده اند. این نقشه برداری از دلخواه دلخواه داده ها روی پارچه را به چالش می کشد و می تواند منجر به کم استفاده شدن منابع محاسبه موجود شود.
شتاب دهنده های DNN برای فعال سازی استقرار گسترده نیاز به برنامه ریزی دارند. برای اینکه قابلیت برنامه ریزی داشته باشند، باید از داخل بتوانند تنظیم شوند تا از الگوهای مختلف جریان داده ای که می توانند روی آنها نگاشت شوند، پشتیبانی کنند. برای رفع این نیاز، ما MAERI را ارائه می دهیم، که یک شتاب دهنده DNN است و با مجموعه ای از بلوک های ساختمانی مدولار و قابل تنظیم ساخته شده است و می تواند با پیکربندی مناسب سوئیچ های کوچک، به راحتی از پارتیشن ها و نگاشت های DNN بی شمار پشتیبانی کند. MAERI، 8 الی 459 درصد بهره برداری بهتر در میان چندین نقشه برداری جریان داده بر روی نقاط شروع محصولات محکم NoC ارائه می نماید.
شبکه های عصبی عمیق (DNN)
:کلمات کلیدی
Abstract
Deep neural networks (DNN) have demonstrated highly promising results across computer vision and speech recognition, and are becoming foundational for ubiquitous AI. The computational complexity of these algorithms and a need for high energy-efficiency has led to a surge in research on hardware accelerators. To reduce the latency and energy costs of accessing DRAM, most DNN accelerators are spatial in nature, with hundreds of processing elements (PE) operating in parallel and communicating with each other directly. DNNs are evolving at a rapid rate, and it is common to have convolution, recurrent, pooling, and fully-connected layers with varying input and filter sizes in the most recent topologies. They may be dense or sparse. They can also be partitioned in myriad ways (within and across layers) to exploit data reuse (weights and intermediate outputs). All of the above can lead to different dataflow patterns within the accelerator substrate. Unfortunately, most DNN accelerators support only fixed dataflow patterns internally as they perform a careful codesign of the PEs and the network-on-chip (NoC). In fact, the majority of them are only optimized for traffic within a convolutional layer. This makes it challenging to map arbitrary dataflows on the fabric efficiently, and can lead to underutilization of the available compute resources. DNN accelerators need to be programmable to enable mass deployment. For them to be programmable, they need to be configurable internally to support the various dataflow patterns that could be mapped over them. To address this need, we present Maeri, which is a DNN accelerator built with a set of modular and configurable building blocks that can easily support myriad DNN partitions and mappings by appropriately configuring tiny switches. Maeri provides 8-459% better utilization across multiple dataflow mappings over baselines with rigid NoC fabrics.
Keywords:
MAERI
سایر منابع مهندسی کامپیوتر و IT در زمینه شبکه عصبی