Ings und die Computer

Sie verhindern Tierversuche, retten Leben und simulieren Autocrashs. Und brauchen Ingenieure, die sie bedienen können.

Wie entwickelt man eine Herdplatte, eine Hautlotion oder einen Herzschrittmacher? Wie perfektioniert man ein Auto und ein Flugzeug? Und wie plant man eine Stadt?
Das Grundprinzip ist immer dasselbe: Aus einer Idee werden Konzepte, um Modelle und später Prototypen anzufertigen. Diese werden durch Überlegen und vor allem ›Ausprobieren‹ immer weiter perfektioniert, bis das Produkt die gewünschte Marktreife erlangt hat. So weit, so gut – so teuer. Denn um beispielsweise ein Flugzeug wie den Airbus A380 zu entwickeln, müssten Tausende von Modellen gefertigt werden, unter ihnen Hunderte in ›Lebensgröße‹, um beispielsweise das Strömungsverhalten an den Flügeln zu verbessern. In der Automobilindustrie müssten über 1.000 Crashtests durchgeführt werden, um die Sicherheit des Fahrzeugs in fast allen Verkehrssituationen zu gewährleisten. In den 1930er Jahren brauchten Ingenieure für die Entwicklung der Herdplatte jahrelange Versuchszeiten, um eine möglichst optimale Muldenform zu finden, die ein Aufblähen der Platte bei Hitze verhindert. Und bei der Entwicklung von Schönheits- und vor allem Medizin- Produkten blieb den Forschern oftmals offensichtlich keine Alternative als Tierversuche durchzuführen.

Seit etwa zehn bis 15 Jahren haben sich die Möglichkeiten der Produktentwicklung nun grundlegend erweitert. Eine Vielzahl von Spitzenprodukten aus der Automobilindustrie, der Luft- und Raumfahrt, dem Bereich der Klima-, Umwelt- und Energietechnik, der Medizin sowie der Biotechnologie werden heute mithilfe von Supercomputern entwickelt. Tagtäglich finden Forschung und Industrie mit solchen Supercomputern Antworten auf die komplexesten Fragen – von der alles andere als trivialen Vorhersage unseres Wetters oder der noch weitaus komplexeren Simulation des gesamten Weltklimas über die Verbesserung von Herzpumpen für Menschen bis zur Förderung der Energieeffizienz durch Berechnung des geringsten Luftwiderstands bei einem neuen Flugzeugrumpf oder der Sauerstoffzufuhr in einem Kohlekraftwerk.

 

Supercomputer erleichtern Ingenieursarbeit

Hoch- und Höchstleistungsrechner wie der Jülicher Supercomputer JUGENE sind aktuell in der Lage bis zu einer Billiarde Rechenoperationen pro Sekunde durchzuführen. Diese Rechenleistung ist vergleichbar mit einer Handvoll Fußballstadien voll fleißiger Menschen, die alle gleichzeitig mit untereinander vernetzten Laptops auf den Knien an ein und demselben Problem arbeiten. Mit Inbetriebnahme noch schnellerer Rechner wie zum Beispiel des ›SuperMUC‹ in Garching bei München Mitte kommenden Jahres wird sich deren Zahl sogar verdreifachen.

»Während beispielsweise in der Flugzeugindustrie Ingenieure bisher die nötigen Erfahrungswerte mit einer Unzahl an Versuchen ermitteln mussten, simulieren die Flugzeugbauer praktisch alle Bereiche eines Flugzeugs in Supercomputern, bevor auch nur eine Hand an ein Modell gelegt wird«, erklärt Detlef Müller-Wiesner, Chief Operating Officer Innovation & CTO Deputy bei der EADS Deutschland GmbH.

Ein modernes und deutlich komplexeres Flugzeug wie beispielsweise der A380 lasse sich deshalb realistischerweise nur mit Hilfe von Supercomputern entwickeln.

In ein ähnliches Horn bläst Prof. Dr. Erich Schelkle, Leiter des Automotive Simulation Center Stuttgart beim Thema Crashtests. Er betont, dass die Zahl real nötiger Unfallversuche sich derzeit zwar einerseits immer noch im dreistelligen Bereich bewegt. Die fast ebenso wichtigen virtuellen Crashtests im Supercomputer aber liegen um das 30fache höher.

»Ohne den Einsatz von Supercomputern und ihren Simulationen würde der Erfolg von Fahrzeugen ›Made in Germany‹ weltweit verebben «, ist sich Schelkle sicher. »Neben den Bereichen Theorie und Experiment hat sich die – in dieser Dimension nur in Supercomputern durchführbare – Simulation längst zur dritten Säule entwickelt, um neue Erkenntnisse für Wissenschaft und Wirtschaft zu gewinnen«, erklärt Prof. Dr. Heinz-Gerd Hegering.

Er ist Vorsitzender des ›Gauß Centre for Supercomputing‹ (GCS), in dem sich die drei deutschen Höchstleistungszentren in Jülich, Stuttgart und Garching bei München zusammengeschlossen haben. Allein hier arbeiten mittlerweile mehrere 100 Ingenieure. Daneben gibt es rund ein Dutzend weiterer Hochleistungsrechenzentren, die sich gemeinsam mit dem GCS in der ›Gauß-Allianz‹ vereint haben. Zudem arbeitet eine Vielzahl sehr leistungsfähiger Rechen- und Simulationszentren für die Hochschulen. Simuliert und erprobt wird hier praktisch alles, was als realer Versuch zu kostenintensiv wäre oder wo – wie bei Fragen zur Astronomie oder Klimaforschung kein anderer ›Einblick‹ möglich ist. Die Anfragen der Wissenschaftler und Entwickler nach den zu mietenden Rechenzeiten für Supercomputer steigt derzeit ebenso rasant wie die Nachfrage nach Weiterentwicklungen. Schon heute arbeiten Elektroingenieure und Informationstechniker an Supercomputern, die sogenannte ExaFlops, also eine Trillion Rechenschritte pro Sekunde ausführen. Ohne einen Höchstleistungsrechner wie diesen müssten Wissenschaftler ihr Projekt von 25 Millionen PCs rechnen lassen.

 

Supercomputing und die vielfältigen Aufgabenfelder für Ingenieure

Dabei ist die weitere Entwicklung der Computerhardware nur ein – vermutlich sogar vergleichsweise bescheidener – Teil der Aufgabenfelder, die sich im Bereich des ›Supercomputing‹ für Elektroingenieure und Informationstechniker ergeben:

»Ein Supercomputer ist natürlich nicht so einfach zu bedienen wie ein PC zuhause. Derzeit wird deshalb beispielsweise daran geforscht, geeignete Programmiersprachen zu entwickeln«, betont Prof. Dr. Uwe Brinkschulte, Experte für Computer- Architektur der informationstechnischen Gesellschaft ITG im VDE.

Im Mittelpunkt dabei steht auch eine veränderte Sichtweise auf die Leistungsfähigkeit von Computern. Denn vor rund sechs Jahren hat sich eine Art Paradigmenwechsel vollzogen. Seit dieser Zeit ist die Geschwindigkeit von Supercomputern zwar kaum gestiegen, trotzdem aber hat sich die Leistungsfähigkeit deutlich erhöht. Das liegt vor allem daran, dass die Zahl der im inneren zusammenarbeitenden Kerne auf derzeit rund 64.000 Kerne angewachsen ist – bei einem her- Kaleidoskop website www.vde.com/itg kömmlichen Computer sind es eins bis vier. In einigen Jahren dürften es etwa 50 Millionen sein.

»Jeder dieser Kerne kann letztlich begriffen werden als ein einzelner Computer, der seine Arbeit mit der seiner Kollegen koordinieren muss«, erklärt Prof. Wolfgang Nagel, Vorsitzender der Gauß-Allianz.

Den Ingenieuren müsse es also gelingen, die einzelnen Kerne so aufeinander abzustimmen, dass keiner auf die Arbeitsergebnisse des anderen warten müsse.

Konkret vorbereiten auf einen Beruf als ›Supercomputer- Ingenieur‹ können sich interessierte Ingenieure allerdings schwer – zu unterschiedlich sind die Aufgaben und Entwicklungen.

»Wir erwarten in den kommenden Jahren eine Steigerung der Anwendungsmöglichkeiten und des Bedarfs im zweistelligen Prozentbereich «, mutmaßt VDE-Experte Brinkschulte.

Bei der augenblicklich so rasanten und spannenden Entwicklung sei das allerdings eher geschätzt – ganz ohne Zutun eines Supercomputers.


Anzeige

Anzeige