3 research outputs found

    Эффективность многопоточных вычислений в системах компьютерного моделирования литейных процессов

    Get PDF
    The utilization of computer simulation software for casting process simulation is becoming essential in the advancement of casting technology in aviation and other high-tech engineering fields. With the increase in the number of computational cores in modern CPUs, the use of multi-threaded computations is becoming increasingly relevant. In this study, the efficiency of multi-threaded computations in modeling casting processes was evaluated using finite element method casting simulation software ProCast and PoligonSoft, which utilize parallel computing architectures with distributed (DMP) and shared (SMP) memory, respectively. Computations were performed on Intel and AMD-based computers, varying the number of computational threads from 4 to 32. The calculation efficiency was evaluated by measuring the calculation speed increase in the filling and solidification of GP25 castings made of ML10 alloy, as well as the complex task of filling and solidification modeling nickel superalloy casing castings with radiation heat transfer simulation. The results indicate that the minimum computation time in ProCast software is observed when using 16 computational threads. This pattern holds true for both computing systems (Intel and AMD processors), and increasing the number of threads beyond this point does not make a practical difference. The performance decrease in this scenario can be attributed to the low-performance energy-efficient cores in systems based on Intel processors or the decrease in core frequency and full loading of physical cores in systems based on AMD processors. Multi-threading the modeling task in PoligonSoft software is less efficient than in ProCast, which is a result of the shared-memory architecture used in PoligonSoft. Despite the significant difference in parallel efficiency, the task of GP25 casting solidification in both PoligonSoft and ProCast is solved in a time close enough to be considered sufficient.Применение систем компьютерного моделирования литейных процессов (СКМ ЛП) становится обязательным при разработке литейной технологии в авиации и других наукоемких областях техники. В связи с увеличением числа расчетных ядер в современных процессорах актуальным становится осуществление многопоточных вычислений. В работе оценивалась эффективность многопоточных вычислений при моделировании литейных процессов с помощью конечно-элементных СКМ ЛП «ProCast» и «ПолигонСофт», использующих архитектуры параллельных расчетов с распределенной (DMP) и общей (SMP) памятью соответственно. Для вычислений применяли компьютеры на базе платформ от компаний «Intel» и «AMD». Число расчетных потоков варьировали от 4 до 32. Эффективность оценивали по приросту скорости расчета заполнения и затвердевания отливки «ГП25» из сплава МЛ10, а также решения сложной задачи моделирования заполнения и затвердевания корпусных отливок из никелевого жаропрочного сплава с учетом радиационного теплообмена. Показано, что минимальное время расчета в СКМ ЛП «ProCast» наблюдается при использовании 16 вычислительных потоков. Причем это характерно для обеих вычислительных систем (на процессорах «Intel» и «AMD»), и увеличение числа потоков выше этого предела не имеет практического смысла. Снижение производительности в данном случае может быть связано с наличием малопроизводительных энергоэффективных ядер в случае применения системы на процессоре «Intel», а также полной загрузки физических ядер и уменьшением частоты ядер для системы на процессоре от «AMD». Распараллеливание задачи моделирования в СКМ ЛП «ПолигонСофт» менее эффективно, чем в СКМ ЛП «ProCast», вследствие реализации архитектуры с общей памятью. В то же время, несмотря на значительную разницу в эффективности распараллеливания, задача затвердевания отливки «ГП25» в СКМ ЛП «ПолигонСофт» и «ProCast» решается за достаточно близкое время

    An explicit dynamics GPU structural solver for thin shell finite elements

    Get PDF
    With the availability of user oriented software tools, dedicated architectures, such as the parallel computing platform and programming model CUDA (Compute Unified Device Architecture) released by NVIDIA, one of the main producers of graphics cards, and of improved, highly performing GPU (Graphics Processing Unit) boards, GPGPU (General Purpose programming on GPU) is attracting increasing interest in the engineering community, for the development of analysis tools suitable to be used in validation/ verification and virtual reality applications. For their inherent explicit and decoupled structure, explicit dynamics finite element formulations appear to be particularly attractive for implementations on hybrid CPU/GPU or pure GPU architectures. The issue of an optimized, double-precision finite element GPU implementation of an explicit dynamics finite element solver for elastic shell problems in small strains and large displacements and rotations, using unstructured meshes, is here addressed. The conceptual difference between a GPU implementation directly adapted from a standard CPU approach and a new optimized formulation, specifically conceived for GPUs, is discussed and comparatively assessed. It is shown that a speedup factor of about 5 can be achieved by an optimized algorithm reformulation and careful memory management. A speedup of more than 40 is achieved with respect of state-of-the art commercial codes running on CPU, obtaining real-time simulations in some cases, on commodity hardware. When a last generation GPU board is used, it is shown that a problem with more than 16 millions degrees of freedom can be solved in just few hours of computing time, opening the way to virtualization approaches for real large scale engineering problems
    corecore