view in publisher's site

Using machine learning techniques to analyze the performance of concurrent kernel execution on GPUs

Highlights•Analyses concurrency and interference situations using known GPU benchmarks.•Applies Machine Learning to predict concurrency and interference situations.•Exposes most important variables on each situation.•Compares XGboost, MLP, KNN and Logistic Regression for the proposed problem.•Presents a model that only needs kernels resource request information for prediction.AbstractHeterogeneous systems employing CPUs and GPUs are becoming increasingly popular in large-scale data centers and cloud environments. In these platforms, sharing a GPU across different applications is an important feature to improve hardware utilization and system throughput. However, under scenarios where GPUs are competitively shared, some challenges arise. The decision on the simultaneous execution of different kernels is made by the hardware and depends on the kernels resource requirements. Besides that, it is very difficult to understand all the hardware variables involved in the simultaneous execution decisions in order to describe a formal allocation method. In this work, we use machine learning techniques to understand how the resource requirements of the kernels from the most important GPU benchmarks impact their concurrent execution. We focus on making the machine learning algorithms capture the hidden patterns that make a kernel interfere in the execution of another one when they are submitted to run at the same time. The techniques analyzed were k-NN, Logistic Regression, Multilayer Perceptron and XGBoost (which obtained the best results) over the GPU benchmark suites, Rodinia, Parboil and SHOC. Our results showed that, from the features selected in the analysis, the number of blocks per grid, number of threads per block, and number of registers are the resource consumption features that most affect the performance of the concurrent execution.

استفاده از تکنیک‌های یادگیری ماشین برای تجزیه و تحلیل عملکرد اجرای همزمان کرنل بر روی پردازنده‌های گرافیکی

نکات برجسته * تجزیه و تحلیل شرایط تداخل و تداخل با استفاده از معیارهای شناخته‌شده GPU. * یادگیری ماشینی برای پیش‌بینی هم‌ارزی و شرایط تداخل. * مهم‌ترین متغیرها را در هر موقعیت در نظر می‌گیرد. XGبوست، MLP، KNN و رگرسیون منطقی را برای مساله پیشنهادی آماده می‌کند. * ارائه مدلی که تنها به هسته اطلاعات درخواست منابع برای پیش‌بینی نیاز دارد. سیستم‌های ناهمگن با استفاده از CPU ها و GPU ها به طور فزاینده‌ای در مراکز داده در مقیاس بزرگ و محیط‌های ابری محبوب شده‌اند. در این پلتفرم‌ها، اشتراک گذاری یک GPU در میان کاربردهای مختلف، یک ویژگی مهم برای بهبود استفاده از سخت‌افزار و توان عملیاتی سیستم است. با این حال، تحت سناریوهایی که در آن GPU ها به صورت رقابتی به اشتراک گذاشته می‌شوند، برخی چالش‌ها بوجود می‌آیند. تصمیم در مورد اجرای همزمان هسته‌های مختلف توسط سخت‌افزار گرفته می‌شود و به نیازهای منبع هسته‌ها بستگی دارد. علاوه بر این، درک تمام متغیرهای سخت‌افزاری درگیر در تصمیمات اجرایی همزمان به منظور توصیف یک روش تخصیص رسمی بسیار دشوار است. در این تحقیق، ما از تکنیک‌های یادگیری ماشین برای درک نحوه تاثیر الزامات منابع کرنل ها از مهم‌ترین معیارهای GPU بر اجرای همزمان آن‌ها استفاده می‌کنیم. ما بر ساخت الگوریتم های یادگیری ماشین تمرکز می‌کنیم تا الگوهای پنهانی را که باعث می‌شوند یک هسته در اجرای یکی دیگر تداخل ایجاد کند، در زمانی که آن‌ها همزمان برای اجرا ارسال می‌شوند، ثبت کنند. تکنیک‌های آنالیز شده عبارت بودند از k - NN، رگرسیون لجستیک، رگرسیون چند لایه پرسپترون و XGBoost (که بهترین نتایج را به دست آورد)بر روی مجموعه‌های بنچ‌مارک GPU، رودینیا، پاربپل و SHOC. نتایج ما نشان داد که از ویژگی‌های انتخاب‌شده در تحلیل، تعداد بلوک‌ها در هر شبکه، تعداد رشته‌ها در هر بلوک، و تعداد ثبت‌نام‌ها، ویژگی‌های مصرف منابع هستند که بیش‌ترین تاثیر را بر عملکرد اجرای همزمان دارند.
ترجمه شده با


پر ارجاع‌ترین مقالات مرتبط:

  • مقاله Software
  • ترجمه مقاله Software
  • مقاله نرم‌افزار
  • ترجمه مقاله نرم‌افزار
  • مقاله Computer Networks and Communications
  • ترجمه مقاله Computer Networks and Communications
  • مقاله شبکه‌ها و ارتباطات کامپیوتری
  • ترجمه مقاله شبکه‌ها و ارتباطات کامپیوتری
  • مقاله Hardware and Architecture
  • ترجمه مقاله Hardware and Architecture
  • مقاله سخت‌افزار و معماری
  • ترجمه مقاله سخت‌افزار و معماری
سفارش ترجمه مقاله و کتاب - شروع کنید

با استفاده از افزونه دانلود فایرفاکس چکیده مقالات به صورت خودکار تشخیص داده شده و دکمه دانلود فری‌پیپر در صفحه چکیده نمایش داده می شود.