© JUNGE FREIHEIT Verlag GmbH & Co. KG www.jungefreiheit.de 02/20 / 03. Januar 2020

Brüssel will nachrüsten
Supercomputer: 2020 will die EU der weltweiten Konkurrenz endlich Paroli bieten
Marc Zoellner

Die Würfel sind gefallen, doch noch muß sich Deutschland ein wenig vertrösten lassen: Bereits im Juni 2019 und weitgehend unbeachtet von den gängigen Medien hatte die „European High-Performance Computing Joint Undertaking“ (EuroHPC), die seit ihrer Gründung im November 2018 für dieses Projekt federführend zeichnet, ihre ersten acht Kandidaten für die Errichtung neuer multinationaler Hochleistungsrechenzentren benannt. Im November 2019 wurden in Straßburg die Hostingverträge zwischen der EU-Agentur und den acht Gastgebernationen unterzeichnet – und damit ein detaillierter Fahrplan bekanntgegeben, der Europa ab der zweiten Hälfte 2020 an die Spitze der weltweiten Standorte sogenannter „Supercomputer“ katapultieren soll. 

Deutschland schaut beim EU-Rechner in die Röhre

Für die EU sowie die acht ausgewählten Teilnehmer war der 26. November ein feierwürdiger Tag gewesen. Daß Deutschland bezüglich moderner Spitzentechnologie in Abhängigkeit seiner Nachbarstaaten zu geraten droht, scheint indessen niemanden groß zu bekümmern. „Diese Unterschriften stellen einen Meilenstein in der Arbeit des ‘Gemeinsamen Unternehmens’“ Joint Undertaking dar, verkündete die Bulgarin Mariya Gabriel, als damalige EU-Kommissarin . für Digitale Wirtschaft und Gesellschaft, zum Abschluß der Unterzeichnung. „Wir kommen damit unserem Ziel, Europa auf dem Gebiet der Hochleistungsrechentechnik weltweit führend zu machen, einen Schritt näher.“ 

Erwartungsgemäß hatte es ihr Land in die Reihe der Protagonisten geschafft. Neben Sofia wurden überdies Luxemburg, Portugal, Slowenien und  Tschechien als Standort je eines von fünf avisierten Rechenzentren mit einer Leistungsfähigkeit von bis zu zehn Petaflops gekürt. 

Drei weitere Systeme mit einer Rechenleistung von bis zu 150 Petaflops sollen in Finnland, Spanien und Italien installiert werden. „Ende 2020 werden europäischen Forschern und Unternehmern acht Weltklasse-Supercomputer zur Verfügung stehen“, begrüßte die Kommissarin die gelungene Zusammenarbeit zwischen den Partnernationen.Was die Magnetschwebebahn gegenüber der Postkutsche ist ein Supercomputer gegenüber herkömmlichen Rechnern: Sowohl in Fragen der Anschaffungs- und Betriebskosten als auch bezüglich der zu erwartenden Rechenleistung werden mit solchen Hochleistungsrechnern ganz neue Dimensionen betreten. 

Anschaulich läßt sich der Quantensprung an Leistungsvermögen allein schon an der Geschwindigkeit verdeutlichen, in welcher die Rechenoperationen vollzogen werden. Ein gängiges Laptop im kostengünstigen Preissegment kommt, je nach integriertem Prozessor, auf zwei bis vier Milliarden Rechenschritte pro Sekunde. In der relevanten Maßeinheit spricht man hier von sogenannten Floating Point Operations Per Second (FLOPS); jene Laptops bewegen sich dementsprechend im Bereich von zwei bis vier Gigaflops.

Der erste Digitalrechner der Geschichte, die 1941 vom Berliner Ingenieur Konrad Zuse präsentierte Z3, kam hingegen gerade einmal auf zwei Flops, also zwei Operationen pro Sekunde. 

Ein Petaflop wiederum ist das Millionenfache eines Gigaflops. Der Supercomputer aus Sofia, aufgrund seiner Leistung nominell als Peta-Supercomputer klassifiziert, wird also zehn Millionen Milliarden Rechenoperationen pro Sekunde lösen können – und somit mehrere Millionen mal schneller sein als die gängigen Laptops auf den Schreibtischen und in den Büros. 

Die drei Vor-Exa-Supercomputer in Spanien, Finnland und Italien – „vor-Exa“ getauft, da „exa“ nach „peta“ die nächst höhere Maßstufe darstellt – kommen demnach sogar auf eine Maximalleistung von 150 Millionen Milliarden Rechenschritten, das ist eine 15 mit 16 Nullen am Ende, in einer einzigen Sekunde. Gut vier Sekunden braucht das menschliche Gehirn, um diesen Satz verstehend zu lesen.

Derartige Superlative machen sich dementsprechend im Preis bemerkbar: Allein die Investitionskosten der acht geplanten Supercomputer auf dem europäischen Festland beziffert die EuroHPC auf gut eine Milliarde Euro. Je zur Hälfte wird das Budget des Projekts dabei aus dem EU-Haushalt sowie aus jenen von 18 der 30 partizipierenden Staaten geschöpft. 

In den Folgejahren bis 2027 rechnen die Planer mit weiteren Betriebs- und Personalkosten in Höhe von gut 2,7 Milliarden Euro. Die Milliardensummen, die in die neue Generation der europäischen Supercomputer fließen, sind trotz aller Bedenken gut angelegtes Geld, findet zumindest Günther Oettinger. „Wir blicken nun auf den nächsten langfristigen Haushalt [...], in dem wir eine erhebliche Investitionssumme für den Aufbau einer Hochleistungsrechen- und Dateninfrastruktur von Weltrang vorgeschlagen haben“, schrieb der damalige EU-Finanzkommissar in einer Presseerklärung. „Davon werden alle europäischen Bürger und Unternehmen erhebliche Vorteile haben.“

Tatsächlich sah sich Europa lange Zeit im Hintertreffen, was die Entwicklung und den Betrieb von Hochleistungsrechnern betraf. „Die EDV- und Datenbedürfnisse europäischer Wissenschaftler und der Industrie entsprechen nicht den derzeit in der EU vorhandenen Rechenkapazitäten“, mahnt EuroHPC auf ihrer Website. „Kein Supercomputer der EU ist in den globalen Top 10 vertreten, und die bereits vorhandenen sind auf nichteuropäische Technologie angewiesen.“ Bereits jetzt bedürfen europäische Institute und Unternehmen rund 30 Prozent der weltweit verfügbaren Rechenleistung von Supercomputern – doch in Europa stünden nur fünf Prozent hiervon zur Verfügung. Die Abhängigkeit Europas von überseeischen Technologiegebern wie China und den USA, schlußfolgert die EuroHPC, „könne Probleme bezüglich der Privatsphäre sowie im Datenschutz, im Geschäftsgeheimnis und im Eigentumsrecht schaffen.“

Supercomputer „Summit“ ist groß wie zwei Tennisplätze 

In Kooperation zwischen Fachkräften der Universität Mannheim und der US-amerikanischen University of Tennessee publiziert die Organisation „TOP500“ eine gleichnamige Liste, in welcher die 500 leistungsstärksten Rechner der Welt aufgeführt und miteinander verglichen werden. Zwar findet sich mit dem 26,9 Petaflops bewältigenden „SuperMuc“ des Münchner Leibniz-Instituts seit Oktober 2018 – und entgegen der Erklärung der EuroHPC – sogar ein deutscher Rechner unter den Top 10. Tatsächlich allerdings werden Deutschland wie Europa lediglich unter „ferner liefen“ gelistet. 

Über die Hälfte der 500 schnellsten Hochleistungsrechner der Welt, verdeutlicht TOP500, befinden sich derzeit in fernöstlichem Besitz; davon allein 229 in China sowie 29 in Japan. Die USA kommen auf 108 Supercomputer, Großbritannien – das explizit als einziges EU-Mitglied nicht gleichzeitig im EuroHPC vertreten sein möchte – immerhin auf 20, Frankreich auf 18 und Deutschland auf 17. Interessanter Fakt am Rande: Sämtliche dieser Supercomputer laufen auf einem „Linux“-basierten Betriebssystem; keines unter „Windows“.

Chinas quantitative Vormachtstellung ist keine von hoher Qualität. Zwar kann sich die chinesische Staatsführung mit den beiden Rechnern „Sunway TaihuLight“ und „Tianhe-2A“, die auf jeweils etwas mehr als 100 Petaflops kommen, den dritten und vierten Platz der Weltrangliste sichern. Mit seinem Besitz von gut 45 Prozent der vertretenen Supercomputer kommt China trotz alledem lediglich auf nur knapp ein Drittel der Weltrechenleistung. Deutschland übrigens nur auf magere vier Prozent. 

Es sind die Namen „Summit“ und „Sierra“, die sämtliche Kontrahenten seit Jahren ausstechen: Beide sind in Besitz des US-amerikanischen IT-Unternehmens IBM, beide auf US-amerikanischem Terrain und unter US-amerikanischer Gesetzgebung in Betrieb. Und obwohl beide Supercomputer vom US-Energieministerium finanziert werden, steht einer davon – „Sierra“ mit einem Leistungsvermögen von 125 Petaflops – allein dem Militär zur Verfügung: Für die sogenannte „Arsenalverwaltung“ („stockpile stewardship“); eine euphemistische Umschreibung computergenerierter Kernwaffentests.

„Summit“ hingegen, der Titan unter den US-Supercomputern, seit er dem gleichnamigen Rechner „Titan“ dessen Spitzenposition entrungen hat, steht ebenso einer breiteren Öffentlichkeit zur Verfügung; wenn auch zu horrenden Kosten von etlichen tausend US-Dollar pro Stunde, die je nach Projekt jedoch auch staatlich gefördert werden können.

Schon optisch ist „Summit“ ein Mammutrechner. Zwei komplette Tennisplätze würden seine 4.608 Einzelserver füllen. Über 15.000 Liter Wasser braucht es allein, um seine 9.000 Prozessoren sowie 27.000 GPUs auf Betriebstemperatur herunterzukühlen – nämlich pro Minute, wie der Technologieblog Engadget im Sommer 2018 berechnet hatte. Sein Stromverbrauch entspricht jenem von 8.100 Wohnhäusern. Die durch diesen Aufwand erzeugte Leistung läßt jedoch staunen: Mit 200 Petaflops – also 200 Millionen Milliarden Rechenschritten pro Sekunde – „kann Summit Probleme, für die ein Laptop 30 Jahre benötigt, in einer einzigen Stunde lösen“, schreibt der IT-Journalist Kris Hold begeistert auf Engadget.

Für Forschung und Wissenschaft sind Supercomputer wie „Summit2 mittlerweile unumgänglich: In ihren Leistungen liegt der Schlüssel zum Verständnis hochkomplexer Thematiken aus der Astrophysik, der Werkstofforschung und der Medizin, aber auch der Wetter- und Klimaforschung. 

Sie tragen dazu bei, die Genome von Millionen von Menschen in greifbarer Zeit in der Hoffnung miteinander zu vergleichen, dereinst vielleicht spezielle Marker für mutmaßliche Erbkrankheiten wie Krebs und Alzheimer im menschlichen Erbgut aufzuspüren. Sie entwickeln Erklärungsmodelle für kosmische Phänomene vom Tod alter Sonnen bis hin zur Entstehung neuartiger Teilchen und Elemente. Sie können Umweltkatastrophen präziser vorhersagen; wie diese sich auf die Einwohner der betroffenen Regionen auswirken – und ebenso, welche Schutz- und Rettungsmaßnahmen man dagegen ergreifen sollte. Je leistungsfähiger Supercomputer werden, desto präziser berechnen sie auch ihre Modelle.