Infrastruktur

Die Infrastrukturen des JIC-Projekts

Hochleistungs-Rechencluster mit 2000 Kernen, Intel E5 2680 V3 mit weiteren 14 TB RAM

Big Data Cluster mit 576 Cores, Intel E5 2683 V3 und Intel E5 2618L V3 mit mehr als 12 TB RAM

Huawei OceanStor 6800V3 Speichersystem mit einer Kapazität von 1,1 PB auf verschiedenen Disktypen (SSD, SAS, NearLine SAS)

Speichersystem für BigData Huawei OceanStor 5300 V3 mit ca. 100 TB auf SAS-Platten

Ausrüstung zur Verwaltung der Netzwerksicherheit – Firewall (mit einem Durchsatz von bis zu 80 Gbit/s im Klartext)

Video Surveillance Management System (Video Content Management) mit 20 TB SAS-Speichersystem für die Bildspeicherung und Video Cloud-Knoten

Geographisches Informationssystem(GIS)

Core-Netzwerk-Netzwerkausrüstung für das LAN-Management (sehr leistungsstarkes lokales Labornetzwerk) mit insgesamt 144 1/10-Gbit/s- und 100-Mbit/s-RJ45-Ports, 480 10-Gbit/s-SFP+-Ports, 84 40-Gbit/s-Ports

Komplettsystem zur Erstellung und Implementierung eines privaten LTE-Netzes (e-LTE) inklusive CoreNetwork, Antennen, Basisstation und Managementsystem

Experimentelles e-LTE Rapid Solution System für Feldversuche bei Notfällen / Katastrophen

IOT Gateway zur Verwaltung der Datenflüsse der verschiedenen Sensoren

E-LTE-Antennen

Huawei e-LTE-Chipsatz für Sensoren

IOT Gateway zur Verwaltung der Datenflüsse der verschiedenen Sensoren

Die Sensoren sind hauptsächlich von zwei Arten:

Mit Huawei-Chipsatz, direkt verbunden mit e-LTE-Technologie

OPEN, erhältlich auf dem Markt in Verbindung mit dem Projekt „Metropolitan Digital Fabric“.

Wir haben mit der Installation, Konfiguration und Verwaltung der folgenden Software fortgefahren:

Intel Compiler, PGI compiler, GNU  compilers, openmpi,  Mvapich, Mpi2

Alle Software (Moloch usw.) für ihre Wettervorhersage-Pipeline, Bibliotheken und Python-Integrationen

Openstack, mit dem Sie virtuelle Maschinen mit dem gewünschten Betriebssystem und der gewünschten Software instanziieren können

Docker-Container-System. Die Benutzerfreiheit bei Docker-Containern ist praktisch vollständig, Benutzer können Software oder Betriebssysteme laden und verwenden, die in Form von Containern verfügbar sind

Auf Fat-Node-Maschinen, solchen mit GPUs, gibt es zusätzlich zu dem, was bereits erwähnt wurde, mehrere Tools zur Verwendung der GPU, Nvidia-Docker und andere

Fluiddynamik- und Hydrodynamikseite wurden installiert: starccm, xfoil, dakota, paraview, salome, altair HyperWorks

Auf der Docker-Seite wurde intensiv daran gearbeitet, die Kubernetes-Container-Management-Umgebung innerhalb des SGE-Systems zu konfigurieren. Die Integration von Kubernetes mit SGE (Sun Grid Engine) ist komplex und mühsam, das ultimative Ziel ist es, mit einem einfachen SGE-Befehl eine Kubernetes-Umgebung auf dem gesamten Cluster zu instanziieren. Der Mehrwert dieser Lösung besteht darin, dass sich Kubernetes potenziell auf den gesamten Cluster ausdehnen kann, wenn dies als normaler Job verfügbar ist, in Konkurrenz zu allen anderen Benutzerjobs und mit traditionelleren Nutzungsanforderungen, die bereits auf dem Cluster ausgeführt werden