Gefördert durch die

 

Teilprojekt D.9

Lastbalancierung für hochskalierbare Simulationen mit großen Teilchenzahlen

 
Darf's auch etwas größer und schneller sein?

Für Simulationen mit richtig großen Teilchenzahlen werden auch die größten Rechner benötigt. Um Aufgabenstellungen simulieren zu können, die so groß sind, dass sie an die kleinsten möglichen Experimente herankommen, muss die volle Rechenlast eines Superrechners wie Hornet, dem Stuttgarter Höchstleistungsrechner am HLRS, ausgenutzt werden. Mit seinen fast 185.000 Prozessoren ist dies schon bei einfachen Szenarien leichter gesagt als getan. Sollen wie im SFB sehr dynamische Aufgaben mit schnellen zeitlichen Änderungen der Verteilung der Teilchen simuliert werden, beispielsweise bei der Agglomeration oder der Laserablation, dann ist es eine große Herausforderung, alle verwendeten Prozessoren gleich gut zu beschäftigen. Eine gute Balancierung der Rechenlast wird zum Dreh- und Angelpunkt.

Dieses Projekt untersucht die Lastbalancierung von dynamischen Simulationen mit großen Teilchenzahlen. Neue Algorithmen müssen entwickelt und gängige Aufteilungen der Rechengebiete hinterfragt werden. Für und mit Anwendungen des SFBs wollen wir zeigen, dass es dann auch "etwas größer und schneller" sein kann.

 

Weitere Informationen über dieses Teilprojekt