0711 342033-0

18. April 2024

HPC, Simulation, Künstliche Intelligenz, Quantencomputing, (das Ende von) Moore‘s Law, digitale Konvergenz, neueste HPC-Technologien: das waren die wichtigsten Themen auf dem 7. iHURT

Am 5. Dezember 2023 war es wieder soweit: Das Höchstleistungsrechenzentrum Stuttgart (HLRS) war Gastgeber für den 7. Industrial HPC User Round Table (iHURT). Mehr als 20 Teilnehmer aus der Industrie trugen zu einer interessanten Veranstaltung bei – darunter „Big Ones“ und KMU. Neugierig, um welche Themen es ging? Die wichtigsten Punkte aus den Vorträgen haben wir im Folgenden zusammengefasst:

Keynote von Prof. Dr. Michael Resch, Direktor des HLRS: – Wie das Ende von Moore’s Law die digitale Konvergenz vorantreibt

Prof. Resch gab zum Auftakt der Veranstaltung zunächst einen kurzen Überblick über die Aktivitäten des HLRS und ging hierbei auch auf die für die Industrie relevanten Zertifikate des HLRS (ISO 27001, TISAX, EMAS, Blauer Engel) ein. Anschließend erläuterte er einige KPIs (Key Performance Indicators): In allen Bereichen (Staff, Project Funding, Training, Industrial Income) wurden über die Jahre fast stetige Zuwächse verbucht.

Dann kam Prof. Resch auf sein eigentliches Thema zu sprechen: „Moore’s law is dead? Or maybe not?“ Er stellte dabei die folgenden Aussagen gegenüber:

  • „The complexity for minimum component costs has increased at a rate of roughly a factor of two per year“ – Gordon Moore im Jahr 1965
  • „Moore’s law is dead.“ – Jensen Huang (CEO Nvidia) im Jahr 2022
  • „Innovation is not dead, and we will maintain Moore’s Law as we always have, through innovation – innovation in process, in packaging and in architecture.“ – Ann Kelleher im Jahr XX

Der springende Punkt hierbei: die Unterscheidung von Innovation/Leistungssteigerung und den dazugehörigen Kosten. Die bekannten Kurven aus der Top500-Liste zeigen alle eine Abflachung (spätestens) ab dem Jahr 2015. Prof. Resch postulierte, dass die Performance aktueller HPC-Systeme bei gleichen Kosten nicht mehr, wie früher üblich, steigt. Ergo müssen die HPC-Zentren mehr Geld ausgeben, um noch eine signifikante Leistungssteigerung zu erzielen.

Anschließend kam Prof. Resch auf das Thema „Digitale Konvergenz“ zu sprechen. Er zeigte die vier wesentlichen HPC-Ressourcen auf:

  1. HPC – systems getting faster but at a slowing rate,
  2. Data – growing exponentially,
  3. AI – methods getting better,
  4. People – new type of expertise required.

Dabei stellt sich Letzteres als drängendstes Problem dar.

Im Folgenden ging Prof. Resch auf einige der vielen Projekte am HLRS ein: CATALYST (HPC + Big Data), CIRCE (Urgent Computing), SEQUOIA (Quantum Computing + HPC + AI) sowie IKILEUS (AI Education & Training). Nähre Informationen zu den Projekten finden Interessierte auf der HLRS-Website.

Als Beispiel für „Digital Convergence at work“ verwies er auf die Vorhersage für den Bedarf an Intensivbetten während der COVID-19-Pandemie, die am HLRS durchgeführt wurde.

Den Abschluss der Keynote bildete die HLRS-Roadmap. Ein Highlight: Ende 2024 wird das „Hunter“-System installiert werden (HPE Cray EX4000 basierend auf AMDs APU MI300A mit Slingshot-Interconnect). Dieses System gilt als „Stepping Stone towards Exascale“. 2026 wird dann ein neues Rechnergebäude direkt neben dem bestehenden gebaut. Hier wird2027 das „Herder“-System einziehen(„Aiming at Exascale, focusing on sustained performance“). 2029 ist dann ein System-Upgrade („Heeler“) geplant.

Alles in allem gab der Vortrag von Prof. Resch einen breiten Überblick zum Ende von Moore’s Law, HPC, AI und QC, „towards 2032“ – der Zeitpunkt, bis zu dem die Finanzierung durch das Land BW gesichert ist.

Weiterhin trug Dr. Steffen Poppitz über HPC@Bosch vor.

Dr. Stephan Schenk: An Update on HPC@BASF

High-Performance Computing (HPC) ist für die Wettbewerbsfähigkeit von Wissenschaft und Wirtschaft von entscheidender Bedeutung und kann bei BASF gemäß Dr. Schenk auf eine jahrzehntelange Geschichte zurückblicken. Die modulare Supercomputer-Architektur, die Ressourcen vor Ort und in der Cloud kombiniert, ermöglicht skalierbare und flexible Computing-Lösungen.

Die neue Curiosity-Plattform mit modularem Design und Warmwasserkühlung verdoppelt die Rechenkapazität  Sie integriert On-Premise- und Cloud-Ressourcen für mehr Flexibilität und trägt so zur Digitalisierung von Forschung und Entwicklung bei. In der chemischen Forschung erfordern genaue Simulationen für die Entwicklung von Katalysatoren und die Vorhersage von Reaktionen eine erhebliche Rechenleistung.

Die Experten bei BASF untersuchen das Quantencomputing auf mögliche Lösungen. Hierbei liegt der Schwerpunkt kurzfristig auf hybriden Ansätzen, langfristig auf fehlertoleranter Hardware. Die Zusammenarbeit mit akademischen und kommerziellen Partnern sowie das Engagement in öffentlich geförderten Interessengruppen unterstreichen das Engagement für die Weiterentwicklung von Quantencomputern.

Dr. Thilo Dauch: HPC@Voith Hydro – Computational Challenges in Hydropowe

Voith setzt lt. Dr. Dauch zufolge auf High-Performance Computing über das Höchstleistungsrechenzentrum Stuttgart, um Hardware-Engpässe zu vermeiden. Die Cloud-basierte HLRS-Lösung ermöglicht Voith, Softwarelizenzen effizienter zu nutzen und bietet eine kosteneffiziente Alternative durch die Verschiebung von Investitions- zu Betriebskosten. Das Unternehmen erhält Zugang zu modernster Hardware ohne dauerhafte Infrastrukturinvestitionen. Die Flexibilität des HLRS erlaubt es Voith, verschiedene Hardwarekonfigurationen zu nutzen. Die zentralen Speicher- und Verwaltungsdienste vereinfachen außerdem das Datenhandling. Insgesamt bietet das HLRS eine effiziente und moderne HPC-Lösung. Skalierungstests sind von entscheidender Bedeutung. Sie helfen dabei, die optimale Anzahl von Kernen zu ermitteln, die Effizienz der Ressourcenzuweisung zu bewerten und die Nutzung von ISV-Lizenzen zu maximieren.

Die Lizenzkosten dominieren die Simulationskosten. Höhere Skalierungsfaktoren erweisen sich als vorteilhaft, da sie die spezifischen Softwarekosten senken und die Vorteile des industriellen High Performance Computing hervorheben. Laut Dr. Dauch wird insbesondere eine effiziente Skalierung innerhalb eines bestimmten Kernbereichs für eine feste Problemgröße auf HAWK beobachtet.

Dr. Gunther Mayer: HPC@Volkswagen in der technischen Entwicklung

Es gibt bei Volkswagen eine ganze Reihe verschiedener Anwendungsfälle für High-Performance Computing in der technischen Entwicklung. Dr. Mayer nennt diverse Berechnungsdisziplinen wie Crash-Simulation, Computational Fluid Dynamics (CFD), Noise-Vibration-Harshness (NVH), Mehrkörpersimulation (MKS) und mehr. Das Wachstum von Simulationsmodellen bleibt über Dekaden konstant, wobei die zusätzliche Rechenleistung für Netzverfeinerung, genauere Materialgesetze, komplexere Simulationen (z.B. alle Aspekte eines Airbags), bessere Dummy-Modelle und ähnliches genutzt wird.

Aktuelle Trends beinhalten die Verkürzung der Entwicklungszeit durch prototypenfreie Entwicklung und den Nachweis gesetzlicher Anforderungen durch Simulation. Auch die Optimierung und Kosteneinsparungen durch den Verzicht auf Prototypen bilden Schwerpunkte. Darüber hinaus wird der Einsatz von GPU-Computing für Computer Aided Engineering (CAE) diskutiert – einschließlich der ersten Welle des Offloadings auf GPUs und der zweiten Welle mit Neuimplementierung für kommende GPU-Generationen.

Des Weiteren werden künstliche Intelligenz (KI)-Workloads auf HPC vorgestellt, bei denen KI-Software oft als Software-Container vorliegt. Die Experten bei Volkswagen thematisieren außerdem die Containerisierung von HPC-Systemen . Die Idee besteht darin, alle Abhängigkeiten in den Container zu packen. Dabei spricht das Team über verschiedene Aspekte wie Do-it-Yourself-Container, Standardlösungen für Multi-Node MPI, Ausblick auf das Container-Lifecycle-Management und Synergien im Konzern. Zukunftsperspektiven sind darüber hinaus Verbesserungen in der Sicherheit, Anwender-Empowerment und die Reduzierung der Bereitstellungszeit durch Software Container.

Dr. Thomas Bönisch (HRLS): Neuste Entwicklungen in der HPC-Technologie

Inhaltlich gliederte sich der Beitrag von Dr. Bönisch in die Bereiche Speicher, CPUs, Beschleuniger, Netzwerk & weitere Architekturen sowie einen kurzen Ausflug in die Software und ins Thema Fertigungsprozesse. Die meisten dieser Themen wurden mit einer Vielzahl von Detailinformationen unterlegt. Interessant war auch der Ausblick auf den „Rechenknoten von morgen“: er zeichnet sich durch eine weiter vertiefte Speicherhierarchie aus. Abgerundet wurde der Vortrag mit einem Ausblick und Schlussfolgerungen: 1. bei den CPUs und GPUs wird ein Leistungszuwachs durch mehr Cores und neuartige Einheiten sowie die Kombination von Dies mit Chiplets erzielt (Entwicklungspfad bis 2027, über 1nm wird gesprochen); 2. Problem Leistungsaufnahme: GPUs mit bis zu 1000W TDP, CPUs mit >400W TDP; 3. Problem Anschaffungskosten (s.a. Keynote von Prof. Resch); 4. Leistungszuwachs nur noch durch neuartige/effizientere Architekturen. Der Abschlusssatz war „und dann ist da noch China“.

Zum Abschluss der Veranstaltung fand wie üblich eine offene Diskussion statt, in der zum einen die genannten Themen/Vorträge aufgegriffen wurden und zum anderen weitere Punkte wie Betriebskonzepte, Cloud Computing etc. zur Sprache kamen. Zum Abschluss der Veranstaltung fand wie üblich eine offene Diskussion statt.

Save the date: Der 8. iHurt findet am 3. Dezember 2024 statt. Melden Sie sich gerne bei Interesse (die Teilnahme ist wie immer nur auf Einladung möglich)!