Parallelrechner und Parallelprogrammierung
- Typ: Vorlesung (V)
- Semester: SS 2019
-
Ort:
Geb. 20.21, Raum 217
-
Zeit:
Mittwoch, 11:30-13:00, wöchentlich
-
Dozent:
Hartmut Häfner
Prof. Dr. Achim Streit - SWS: 2
- LVNr.: 24617
Links
Voraussetzungen | Empfehlungen: Kenntnisse zu Grundlagen aus der Lehrveranstaltung Rechnerstrukturen [24570] sind hilfreich. |
Beschreibung | Die Vorlesung gibt eine Einführung in die Welt moderner Parallel- und Höchstleistungsrechner, des Supercomputings bzw. des High-Performance Computings (HPC) und die Programmierung dieser Systeme. Zunächst werden allgemein und exemplarisch Parallelrechnersysteme vorgestellt und klassifiziert. Im Einzelnen wird auf speichergekoppelte und nachrichtengekoppelte System, Hybride System und Cluster sowie Vektorrechner eingegangen. Aktuelle Beispiele der leistungsfähigsten Supercomputer der Welt werden ebenso wie die Supercomputer am KIT kurz vorgestellt. Im zweiten Teil wird auf die Programmierung solcher Parallelrechner, die notwendigen Programmierparadigmen und Synchronisationsmechanismen, die Grundlagen paralleler Software sowie den Entwurf paralleler Programme eingegangen. Eine Einführung in die heute üblichen Methoden der parallelen Programmierung mit OpenMP und MPI runden die Veranstaltung ab. |
Literaturhinweise |
|
Lehrinhalt | Die Vorlesung gibt eine Einführung in die Welt moderner Parallel- und Höchstleistungsrechner, des Supercomputings bzw. des High-Performance Computings (HPC) und die Programmierung dieser Systeme. Zunächst werden allgemein und exemplarisch Parallelrechnersysteme vorgestellt und klassifiziert. Im Einzelnen wird auf speichergekoppelte und nachrichtengekoppelte System, Hybride System und Cluster sowie Vektorrechner eingegangen. Aktuelle Beispiele der leistungsfähigsten Supercomputer der Welt werden ebenso wie die Supercomputer am KIT kurz vorgestellt. Im zweiten Teil wird auf die Programmierung solcher Parallelrechner, die notwendigen Programmierparadigmen und Synchronisationsmechanismen, die Grundlagen paralleler Software sowie den Entwurf paralleler Programme eingegangen. Eine Einführung in die heute üblichen Methoden der parallelen Programmierung mit OpenMP und MPI runden die Veranstaltung ab. |
Arbeitsbelastung | 120 h / Semester, davon 30 h Präsenzzeit und 90 h Selbstlernen aufgrund der Komplexitätdes Stoffs |
Ziel | Studierende erörtern die Grundbegriffe paralleler Architekturen und die Konzepte ihrer Programmierung. Sie analysieren verschiedene Architekturen von Höchstleistungsrechnern und differenzierenzwischen verschiedene Typen anhand von Beispielen aus der Vergangenheit und Gegenwart. Studierende analysieren Methoden und Techniken zum Entwurf, Bewertung und Optimierung paralleler Programme, die für den Einsatz in Alltags- oder industriellen Anwendungen geeignet sind und wenden diese an. Studierende können Probleme im Bereich der Parallelprogrammierung beschreiben, analysieren, und beurteilen. |
Prüfung | Die Erfolgskontrolle wird in der Modulbeschreibung erläutert. |