High-Performance-Computing

Seit seiner Gründung hat sich das Institut für Computational Engineering (ICE) als kompetenter Ansprechpartner für die Anwendung anspruchsvoller mathematischer Methoden in den Ingenieurwissenschaften etabliert. Im Rahmen zahlreicher Industrie-Projekte, viele davon öffentlich gefördert, konnte das Spezialisten-Know-How „Simulation und Modellbildung“ vom ICE zum Industrie-Partner transferiert werden. Worum geht es?

  • Zahlreiche Fragestellungen können nicht mit kommerziell erhältlichen Standard-Simulations-Werkzeugen gelöst werden. Dann erstellen die Mitarbeiter des ICE für den Kunden einen spezifischen, für die konkrete Aufgabe massgeschneiderten, Simulator.
  • Andere Aufgaben lassen sich mit Standard-Simulations-Werkzeugen  (z.B. ANSYS, Comsol Multiphysics, CST u.a.) lösen. Dann unterstützen die Mitarbeiter des ICE den Kunden beim schnellen und effizienten Einsatz der Simulations-Technologie.
  • Im Rahmen der Technologien der „Künstlichen Intelligenz“ und „Automatische Optimierung“ unterstützen die Mitarbeiter des ICE die Kunden darin, optimale Designs zu identifizieren.
  • Es werden zahlreiche Anwendungsfelder bedient: Mechanik, Strömungsmechanik, Elektromagnetik, Multiphysics, Elektronik, und andere.

Die Rechenleistung wächst „parallel“

In den 80er und 90er Jahren des letzten Jahrhunderts wuchs die Rechenleistung eines einzelnen Rechenknotens durch (a) steigende Taktraten der Prozessoren und Busse und (b) grössere Speicher. Die Performance der Algorithmen wuchs im Rahmen dieses Prozesses mit der Geschwindigkeit der Hardware. So konnten die SW-Hersteller und Anwender quasi „kostenfrei“ von der steigenden Performance der Hardware profitieren. 

Seit wenigen Jahren hat sich dieser Prozess verändert. Die Leistungsfähigkeit der Rechner wächst nun nicht mehr durch höhere Taktraten, sondern dadurch, dass mehrere Rechenkerne auf einem Prozessor vereint sind, und parallel arbeiten (Multicore-Technologie) sowie durch den gleichzeitigen Einsatz mehrerer Prozessoren.  Einer der Vorreiter dieser Entwicklung sind die massiv parallelen Architekturen, wie sie heute in Grafik-Karten zu finden sind. Auch bei Standard-Prozessoren wächst die Anzahl der Rechenkerne inzwischen ebenso von Generation zu Generation. Mit dieser Entwicklung stellen sich allerdings zusätzliche Anforderungen an die Algorithmen: Damit sie von der gesteigerten Rechenleistung Gebrauch machen können, müssen sie gut parallelisiert sein. Teilweise ist der Einsatz von neuen Algorithmen notwendig.

 Im Bereich der Simulations-Werkzeuge haben inzwischen die Hersteller von kommerziellen Simulations-Werkzeugen, aber auch die Communities, die open-source-Werkzeuge pflegen, ihre Hausaufgaben gemacht; heute sind sehr gut parallelisierte Werkzeuge und Algorithmen verfügbar.  Somit ist der Weg (endlich) frei, hoch-parallele HW-Architekturen auch für den Einsatz für typische Ingenieur-Fragestellungen zu nutzen.

Der Rechencluster an der NTB

Daher hat sich die NTB entschieden, in diese Technologie zu investieren: Ende 2012 wurde ein Rechencluster der Firma Dell aufgebaut. Um den vielfältigen Anforderungen innerhalb der NTB und auch ihrer Kunden gerecht zu werden, wurde ein besonderes System ausgewählt. Es kann sowohl unter Windows als auch unter Linux betrieben werden. Unter Windows stellt sich das System wie ein Verbund von Multiprozessor-Workstations dar, unter Linux arbeitet das System als ein grosser Cluster. Die Konfiguration, wie viele der Knoten unter Windows bzw. unter Linux arbeiten, ist frei veränderbar. So lässt sich das System ideal an die wechselnden Anforderungen anpassen und bietet den optimalen Kompromiss aus Bedienerfreundlichkeit und Leistungsfähigkeit. Der Rechencluster ist seit März 2013 komplett aufgebaut und verfügbar. Inzwischen wurde er in mehreren Stufen erweitert.

Der Cluster wird sowohl innerhalb der NTB verwendet, steht aber auch den Kunden des ICE zur Verfügung.