Obecne komputery, w tym laptopy i komputery stacjonarne, są wyposażone w procesory wielordzeniowe. Obliczenia równoległe, które wykorzystują wiele procesorów (cors) jednocześnie, są niezbędne do praktycznego zastosowania zaawansowanych symulacji. Metody obliczeń równoległych można klasyfikować w zależności od tego, czy opierają się na „pamięci współdzielonej” czy „pamięci rozproszonej”. Obliczenia równoległe „pamięci współdzielonej” są stosunkowo łatwe do wdrożenia, jednak nie są wydajne w przypadku obliczeń na dużą skalę. Z drugiej strony, obliczenia równoległe „pamięci rozproszonej” są złożone i trudne do wdrożenia, ale wykazują dobrą skalowalność w przypadku obliczeń na dużą skalę. Czwarty wykład stanowi wprowadzenie do metody obliczeń równoległych „pamięci rozproszonej” przy użyciu biblioteki MPI. Zostaną przedstawione główne funkcje MPI, a studenci nauczą się, jak generować program równoległy MPI za pomocą prostych ćwiczeń. Metoda dekompozycji domeny obliczeniowej (grid lub mesh), która jest niezbędna do obliczeń równoległych MPI, zostanie wyjaśniona przy użyciu przykładowej siatki obliczeniowej. Metoda równoległa MPI zostanie zaimplementowana w kodzie pilotażowym opracowanym w poprzednim wykładzie. Studenci będą mieli okazję przetestować wydajność równoległą kodu pilotażowego.
Wprowadzenie do zaawansowanej symulacji termohydrauliki w reaktorach jądrowych - 4
26 maja 2025, 15:15 - 18:00
Warszawa, ul. Pasteura 5, 0.03
Connect with us