HPC-Cluster
Was ist ein HPC-Cluster?
Ein HPC-Cluster (High Performance Computing Cluster) ist eine Kombination aus spezialisierter Hardware, einschließlich einer Gruppe großer und leistungsfähiger Computer, und einem verteilten Software-Framework, das so konfiguriert ist, dass es große Datenmengen mit hoher Geschwindigkeit, paralleler Leistung und hoher Verfügbarkeit verarbeiten kann.
Wie erstellt man einen HPC-Cluster?
Der Aufbau eines HPC-Clusters ist zwar relativ einfach, doch muss ein Unternehmen wissen, wie viel Rechenleistung täglich benötigt wird, um die Einrichtung zu bestimmen. Sie müssen sorgfältig bewerten, wie viele Server benötigt werden, welche Software-Ebene die Workloads effizient bewältigen kann, wo der Cluster untergebracht werden soll und wie hoch der Energie- und Kühlungsbedarf des Systems ist. Sobald diese Entscheidungen getroffen sind, können Sie mit dem Aufbau des Clusters fortfahren, indem Sie die unten aufgeführten Schritte befolgen:
- Erstellen Sie einen Computing-Knoten: Konfigurieren Sie einen Head-Knoten, indem Sie Tools für die Überwachung und das Ressourcenmanagement sowie Hochgeschwindigkeits-Verbindungstreiber/Software installieren. Erstellen Sie ein gemeinsames Cluster-Verzeichnis, erfassen Sie ein Image des Computing-Knoten und klonen Sie das Image auf den Rest des Clusters, auf dem die Workloads ausgeführt werden sollen.
- Konfigurieren Sie IP-Adressen: Für höchste Effizienz enthalten HPC-Cluster ein Hochgeschwindigkeits-Verbindungsnetzwerk, das ein eigenes IP-Subnetz verwendet. Wenn Sie Worker-Knoten mit dem Head-Knoten verbinden, weisen Sie zusätzliche IP-Adressen für jeden Knoten zu.
- Konfigurieren Sie Aufträge als CMU-Benutzergruppen: Wenn Workloads in der Warteschlange eintreffen, benötigen Sie ein Skript zur dynamischen Erstellung von CMU-Benutzergruppen für jeden aktuell laufenden Auftrag.
Was sind die Schlüsselkomponenten eines HPC-Clusters?
Ein HPC-Cluster besteht aus drei grundlegenden Komponenten, die jeweils unterschiedliche Anforderungen haben: Computing-Hardware, -Software und -Einrichtungen.
Computing-Hardware
Computing-Hardware umfasst Server, Datenspeicher und ein dediziertes Netzwerk. In der Regel müssen Sie mindestens drei Server bereitstellen, die als primäre, Worker- und Client-Knoten fungieren. Bei einer solch begrenzten Ausstattung müssen Sie in High-End-Server mit ausreichend Prozessoren und Datenspeicher investieren, um mehr Rechenkapazität zu erhalten. Durch die Virtualisierung mehrerer Server lässt sich diese Leistung jedoch erhöhen, sodass dem Cluster mehr Rechenleistung zur Verfügung steht. Die Netzwerkinfrastruktur, die sie unterstützen soll, erfordert TCP/IP-Netzwerkausrüstung mit hoher Bandbreite, wie Gigabit-Ethernet, NICs und Switches.
Software
Die Software-Ebene umfasst die Tools, die Sie für die Überwachung, Bereitstellung und Verwaltung Ihres HPC-Clusters verwenden möchten. Software-Stacks umfassen Bibliotheken, Compiler, Debugger und Dateisysteme zur Ausführung von Cluster-Managementfunktionen. Sie können sich für ein HPC-Framework wie Hadoop entscheiden, das dieselben Funktionen erfüllt, aber fehlertolerant ist und ausgefallene Systeme erkennt sowie den Datenverkehr automatisch auf verfügbare Systeme umleitet.
Einrichtungen
Für die Unterbringung Ihres HPC-Clusters benötigen Sie eine physische Stellfläche, die das Gewicht von Serverracks aufnehmen und tragen kann, die bis zu 72 Bladeserver und fünf Top-of-Rack-Switches mit einem Gewicht von bis zu 815 kg umfassen können. Auch muss für den Betrieb und die Kühlung der Server, die bis zu 43 kW benötigen, genügend Strom zur Verfügung stehen.
HPE und HPC-Cluster
HPE bietet ein branchenführendes Portfolio an HPC-Lösungen, die Unternehmen jeder Größe dabei helfen, ihre Effizienz und Produktivität zu steigern und Ausfallzeiten zu reduzieren.
Der HPE Performance Cluster Manager bietet alles, was Sie für die Verwaltung Ihres HPE Clusters benötigen, damit er mit höchster Leistung läuft. Mit einem umfassenden Satz an Tools, die vollständig in HPE HPC/KI-Systeme integriert sind, ist er eine flexible, benutzerfreundliche Systemmanagementlösung, die seit mehr als einem Jahrzehnt von Hunderten von Kunden auf der ganzen Welt genutzt wird. Skalierbar für das Systemmanagement jeder Größe, von Dutzenden von Knoten bis hin zu Exascale in On-Premises und hybriden HPC-Umgebungen, können Sie innerhalb von Minuten in Produktion gehen und regelmäßig Zustandsprüfungen und Tests durchführen, um die verfügbaren Ressourcen optimal zu nutzen.
HPE Slingshot ist ein moderner Hochleistungs-Interconnect für HPC- und KI-Cluster, der branchenführende Leistung, Bandbreite und geringe Latenz für HPC-, KI/ML- und Datenanalyseanwendungen bietet. Er verfolgt Echtzeitinformationen über die Last auf jedem Switch-to-Switch-Pfad und leitet den Verkehr dynamisch um, um sie auszugleichen.
HPE GreenLake bietet erstklassige Flexibilität, Skalierbarkeit und Kontrolle von HPC-Lösungen mit einem On-Premises Cloud-Service-Verbrauchsmodell. Unsere erfahrenen Experten implementieren und betreiben die Umgebung für Sie, sodass Sie die Kosten und die Komplexität der Wartung Ihrer eigenen HPC-Architektur reduzieren können.