view in publisher's site

Memory allocation anomalies in high‐performance computing applications: A study with numerical simulations

Summary A memory allocation anomaly occurs when the allocation of a set of heap blocks imposes an unnecessary overhead on the execution of an application. This overhead is particularly disturbing for high‐performance computing (HPC) applications running on shared resources—for example, numerical simulations running on clusters or clouds—because it may increase either the execution time of the application (contributing to a reduction on the overall efficiency of the shared resource) or its memory consumption (eventually inhibiting its capacity to handle larger problems). In this article, we propose a method for identifying, locating, characterizing and fixing allocation anomalies, and a tool for developers to apply the method. We experiment our method and tool with a numerical simulator aimed at approximating the solutions to partial differential equations using a finite element method. We show that taming allocation anomalies in this simulator reduces both its execution time and the memory footprint of its processes, irrespective of the specific heap allocator being employed with it. We conclude that the developer of HPC applications can benefit from the method and tool during the software development cycle.

ناهنجاری‌های تخصیص حافظه در کاربردهای محاسباتی با کارایی بالا: مطالعه‌ای با شبیه‌سازی‌های عددی

خلاصه یک ناهنجاری تخصیص حافظه زمانی رخ می‌دهد که تخصیص مجموعه‌ای از بلوک‌های هیپ، سربار غیر ضروری را بر اجرای یک برنامه تحمیل کند. این سربار به ویژه برای کاربردهای محاسباتی با عملکرد بالا (شورای عالی صلح)در حال اجرا بر روی منابع مشترک - به عنوان مثال، شبیه‌سازی‌های عددی در حال اجرا بر روی خوشه‌ها یا ابرها - نگران‌کننده است زیرا ممکن است زمان اجرای برنامه (که به کاهش کارایی کلی منبع مشترک کمک می‌کند)یا مصرف حافظه آن (که در نهایت مانع از ظرفیت آن برای رسیدگی به مشکلات بزرگ‌تر می‌شود)را افزایش دهد. در این مقاله، ما روشی را برای شناسایی، مکان‌یابی، توصیف و تثبیت ناهنجاری‌های تخصیص، و ابزاری را برای توسعه دهندگان برای اعمال این روش ارائه می‌دهیم. ما روش و ابزار خود را با یک شبیه‌ساز عددی با هدف تقریب جواب‌های معادلات دیفرانسیل جزئی با استفاده از روش آلمان محدود آزمایش می‌کنیم. ما نشان می‌دهیم که بی قاعدگی‌های تخصیص رام کردن در این شبیه‌ساز هم زمان اجرای آن و هم جای پای حافظه فرآیندهای آن را صرف‌نظر از تخصیص دهنده خاص هیپ که با آن به کار گرفته می‌شود، کاهش می‌دهد. ما نتیجه می‌گیریم که توسعه دهنده برنامه‌های شورای عالی صلح می‌تواند از این روش و ابزار در طول چرخه توسعه نرم‌افزار بهره ببرد.
ترجمه شده با


پر ارجاع‌ترین مقالات مرتبط:

  • مقاله Theoretical Computer Science
  • ترجمه مقاله Theoretical Computer Science
  • مقاله علوم کامپیوتر نظری
  • ترجمه مقاله علوم کامپیوتر نظری
  • مقاله Software
  • ترجمه مقاله Software
  • مقاله نرم‌افزار
  • ترجمه مقاله نرم‌افزار
  • مقاله Computer Science Applications
  • ترجمه مقاله Computer Science Applications
  • مقاله کاربردهای علوم کامپیوتر
  • ترجمه مقاله کاربردهای علوم کامپیوتر
  • مقاله Computer Networks and Communications
  • ترجمه مقاله Computer Networks and Communications
  • مقاله شبکه‌ها و ارتباطات کامپیوتری
  • ترجمه مقاله شبکه‌ها و ارتباطات کامپیوتری
  • مقاله Computational Theory and Mathematics
  • ترجمه مقاله Computational Theory and Mathematics
  • مقاله نظریه محاسباتی و ریاضیات
  • ترجمه مقاله نظریه محاسباتی و ریاضیات
سفارش ترجمه مقاله و کتاب - شروع کنید

با استفاده از افزونه دانلود فایرفاکس چکیده مقالات به صورت خودکار تشخیص داده شده و دکمه دانلود فری‌پیپر در صفحه چکیده نمایش داده می شود.