0711 342033-0

14. September 2022

BUID OR BUY – HPC Workshop in Barcelona

Ende Juni trafen sich gut 30 HPC-Experten aus ganz Europa in Barcelona beim dortigen Supercomputing Center (BSC) um sich über die Frage Build or Buy (also bauen oder kaufen) auszutauschen. Erklärtes Ziel der Veranstaltung war Führungskräfte aus Forschung und Industrie aus dem High-Performance-Computing-(HPC-)Bereich zusammenzubringen und gemeinsam anspruchsvolle Anwendungsfälle zu diskutieren. Ein spezieller Fokus lag dabei auf dem Co-Design, also der Zusammenarbeit von Software- und Hardware-Herstellern mit den HPC-Zentren im Hinblick auf eine abgestimmte Entwicklung neuer Technologie.
Ausganspunkt für diese Diskussion waren die neuesten Entwicklungen im HPC und Ziel war Unterstützung bei der Definition der künftigen europäischen HPC-Roadmap.

Nachdem Daniel Opalka vom EuroHPC Joint-Undertaking, der Institution, die die von der EU co-finanzierten Pre-Exascale und Exascale-Systeme managed, einen Einstieg in das Thema und die europäische Perspektive gegeben hatte, stellte Satoshi Matsuoka von Riken aus Japan die dortige Herangehensweise an das Thema vor. Diese zeigte er am Beispiel des bis vor kurzem schnellsten Supercomputers der Welt, Fugaku, auf. Dieses System wurde tatsächlich über zehn (!) Jahr hinweg gemeinsam mit dem Hersteller zielgerichtet entwickelt. Auch wenn dieses Modell sicher nicht so einfach übertragbar ist, zeigt es doch, was möglich ist, wenn man das Co-Design so intensiv umsetzt.

Arnau Montagud Aquino and Jose Carbonell vom BSC gaben im Anschluss einen Einblick in die Anwendungen aus den Life Sciences: hier gibt es eine große Anzahl von Anwendungen aus den Bereichen Molekulardynamik, Multiskalenmodellierung oder der „Single-Cell“-Sequenzanalyse. Dabei werden Tools und an künftige heterogene Exascale-HPC-Architekturen angepasste Workflows entwickelt werden, mit dem Ziel auch hier mächtige Digitale Zwillinge zu realisieren, die z.B. die Effekte einer Behandlung des „realen“ Patienten vorauszusagen.

Thomas Lippert ging dann stärker auf Engineering Anwendungen ein, die im Center of Excellence CoE RAISE („Research on AI- and Simulation-Based Engineering at Exascale“) in den Fokus genommen werden. Bei den enormen Datenmengen, die bei anspruchsvollen (exascale-) Simulationen entstehen ist die Unterstützung durch KI-Tools auf jeden Fall eine vielversprechende Herangehensweise.

Gemeinsam mit Bastian Koller vom HLRS konnte ich dann nach dem Mittagessen unsere Perspektive speziell vor dem Hintergrund der HPC-Nutzung in der Automobilindustrie deutlich machen. Die Erfahrungen, die wir im Rahmen der public-private-Partnership hww mit Porsche seit mehr als 25 Jahren bei der Nutzung von High-End-Ressourcen gemacht haben, waren auch für die anderen Teilnehmer von großem Interesse. Vor allem weil wir am HLRS nicht nur forschungs-orientierte Industrienutzer haben, sondern auch einen klaren Produktiveinsatz der Systeme erleben. Dies stellt auch an den Betrieb Herausforderungen, die über das Normalmaß an einem wissenschaftlichen Rechenzentrum spürbar hinaus gehen (z.B. im Hinblick auf Zertifizierungen wie TISAX).

Das ist in dieser Form bei einem meteorologischen Rechenzentrum wie dem European Centre for Medium-Range Weather-Forecasts zwar nicht direkt zu finden, aber die Größe der regelmäßigen und vor allem auch zuverlässig durchzuführenden Simulationen bringt ihre eigenen Herausforderungen mit sich, wie Christine Kitchen und Thomas Geenen eindrucksvoll aufzeigten. Auch hier geht es um außerordentlich große Datenmengen verbunden mit einer hohen Verfügbarkeit.

Der zweite Tag war dann deutlich Hardware-näher: Jean-Marc Denis von SiPearl, die wesentlich an der Umsetzung im Rahmen der European Processor Initiative beteiligt sind, machte deutlich auf, wie die Frage „Build or Buy“ sich durch die gesamte Entwicklungskette für einen Prozessor hindurchzieht und oft nicht so einfach zu beantworten ist, wie mancher sich das vorstellt. Vor allem im Kontext der weltweit eng vernetzten Chip-Industries ist es oft gar nicht möglich, z.B. einen „rein-amerikanischen“ Prozessor zu finden. Dementsprechend kann auch eine auf digitale europäische Souveränität zielende Initiative nicht einfach in einem lokalen Kontext erfolgreich sein. Jesús Labarta vom BSC führte dann technisch tiefer in die Strukturen des RICS-V Beschleunigers im EPI ein.

Kristel Michielsen bildete dann den Abschluss mit einer Vorstellung von „EuroQCS – der europäischen Quantencomputer und Simulationsinfrastruktur”. Hier ist insbesondere wichtig, dass der Quantencomputer nicht als einzelnes, isoliertes System verstanden wird, sondern um ein Element, das in ein größeres modulares Supercomputing-System eingebunden ist. In diesem finden sich auch Elemente, die sich mit der Handhabung und Analyse der Daten befassen, aber auch andere Architekturen wie Beschleuniger oder auch künftige neuromorphe Prozessoren.

Den Abschluss bildeten dann zwei Panels, die sowohl über die HPC-Zentren und ihre Herausforderungen als auch über die künftigen HPC-Systeme und die an sie gestellten Erwartungen diskutierten. Hier wurden letztlich auch noch einmal die wesentlichen Aspekte der vorhergehenden Vorträge aufgearbeitet.

Diese beiden Tage waren tatsächlich sehr interessant, insbesondere aufgrund der Vielfalt der Themen und die unterschiedlichen Blickwinkel auf die Anforderungen und die Zukunft des High-Performance-Computing. Auch hat es sehr gut getan mal wieder den persönlichen Kontakt und Austausch mit den Kollegen aus Europa zu haben. Gerade die Gespräche in den Pausen oder beim Abendessen sind oft überraschend aufschlussreich und eröffnen Perspektiven, die bei den typischerweise recht fokussierten Online-Konferenzen und -Workshops nicht erreicht werden. Ein besonderer Dank geht dabei an unseren Gastgeber, das Barcelona Supercomputing Center, das ein wirkliches eindrucksvolles Beispiel für die spanische Gastfreundschaft lieferte!