KI-Supercomputing
Was ist KI-Supercomputing?
Beim KI-Supercomputing verwenden Organisationen ultraschnelle Prozessoren, die aus Hunderttausenden leistungsstarken Maschinen bestehen, um mithilfe von Modellen der künstlichen Intelligenz (KI) riesige Datenmengen zu verwalten und zu interpretieren.
Wie funktionieren KI-Supercomputer?
KI-Supercomputer bestehen typischerweise aus fein abgestimmter Hardware aus Hunderttausenden von Prozessoren, einem spezialisierten Netzwerk und einer riesigen Menge an Datenspeicher.
Die Supercomputer teilen die Workloads auf verschiedene Prozessoren auf, sodass jeder Prozessor einen kleinen Teil der Arbeit übernimmt. Während sie ihre einzelnen Arbeitsschritte ausführen, kommunizieren die Prozessoren untereinander – oft ziemlich häufig. Jeder Prozessor sendet eine Nachricht über ein Kommunikationsnetz, sodass die Informationen in vielen Dimensionen ausgetauscht werden: nach oben, unten, links, rechts, vor und zurück, je nach Problem. Dieser mehrdimensionale Prozess hilft dabei, die Workloads besser aufeinander abzustimmen, und ermöglicht so eine höhere Verarbeitungsgeschwindigkeit.
Überraschenderweise laufen auf KI-Supercomputern ziemlich normale Betriebssysteme, und sie verwenden Linux-Software für die Ausführung von Anwendungen, Netzwerk und Scheduling. Die ausgeführten Analyseprogramme sind normalerweise in C oder Fortran geschrieben und leiten Nachrichten über eine Kommunikationsbibliothek namens MPI weiter, die auf mehreren Geräten verwendet werden kann.
Durch die kompakteren und dichter auf den Platinen angeordneten Schaltkreise kann ein KI-Supercomputer zwar schneller laufen, er erwärmt sich dabei jedoch auch stärker. Das liegt daran, dass die Energiezufuhr zum und vom Chip noch nicht effizient genug ist, sodass die Chips sehr heiß werden. Und da Supercomputer Hunderttausende dieser Multi-Core-Knoten umfassen, besteht ein enormer Kühlungsbedarf. Um dieses Problem zu reduzieren, werden die Schaltkreise aus Kupferdrähten hergestellt, da diese Energie mit einer sehr hohen Leistungsdichte übertragen können. Der Supercomputer nutzt außerdem Druckluft zur Wärmeableitung und zirkuliert Kühlmittel durch das gesamte System.
Wie kann KI-Supercomputing analytische Workloads bewältigen?
Es gibt mehrere Gründe, warum KI-Supercomputer komplexe analytische Workloads bewältigen können.
Knoten
KI-Supercomputer verfügen über mehrere CPUs, um extrem schnelle Rechengeschwindigkeiten zu ermöglichen. Innerhalb dieser CPUs oder Knoten gibt es 10 bis 12 Kerne, die Aufgaben ausführen. Und weil die Architektur eines Supercomputers oft Tausende von Knoten gruppiert, bedeutet das, dass pro Tausend 12.000 Kerne arbeiten. Wenn also ein einziger Supercomputer nur über tausend Knoten verfügt, liegt seine Arbeitsleistung bei Billionen von Zyklen pro Sekunde.
Leitungen
Sie verfügen außerdem über sehr kleine Kabelverbindungen, sodass die Platine mit mehr Strom versorgt werden kann als die Platinen herkömmlicher Computer. Diese beiden Fortschritte ermöglichen die sequentielle Interpretation und Ausführung komplexer arithmetischer und logischer Operationen.
Verarbeitung
Außerdem arbeiten Supercomputer mit Parallelverarbeitung, so dass mehrere Workloads gleichzeitig ausgeführt werden können. Da Tausende von Aufgaben gleichzeitig verarbeitet werden, wird die Arbeit in Millisekunden erledigt. Mit KI-Supercomputern können Branchen größere, bessere und genauere Modelle trainieren. Mit mehr Präzision können Teams Informationen schneller analysieren, wichtige Erkenntnisse in Prozesse einfließen lassen, mehr Quellen nutzen und mehr Szenarien testen – und so Fortschritte in der Branche beschleunigen.
HPE und KI-Supercomputing
HPE verfügt über HPC/KI-Lösungen, die Sie bei der Verwaltung einer breiten Palette von Workload- und Skalierungsanforderungen unterstützen. Unsere Lösungen sind Teil eines umfassenden modularen Softwareportfolios für HPC/KI-Workloads, die für HPC/KI-Anwendungen und Leistung im großen Maßstab optimiert sind, mit der Dichte und Zuverlässigkeit, die Sie zur Unterstützung leistungsstarker CPUs und GPUs benötigen.
Darüber hinaus bietet HPE HPC-Hardware für umfangreiche Bereitstellungen an, die vollständig für Implementierungen jeder Größenordnung integriert ist und über erweiterte Kühlungsoptionen für kompakte Plattformen verfügen.
HPE Cray Supercomputer stellen eine ganz neue Form von Supercomputer mit revolutionären Funktionen dar. Sie sind mit einer Auswahl an Infrastrukturen ausgestattet, um eine optimale Lösung für Zehn- bis Hunderttausende von Knoten bereitzustellen. Ein kompakter 8-Wege-GPU-Server bietet eine konsistente, vorhersehbare und zuverlässige Leistung und gewährleistet so eine hohe Produktivität bei groß angelegten Workflows. Slingshot Interconnect und Cray Software ermöglichen zusammen mit HPE Performance Cluster Manager für ein umfassendes Systemmanagement für Cloud-ähnliche Benutzererlebnisse.
HPE bietet außerdem eine branchenführende Unternehmensplattform für beschleunigtes Computing. Das HPE Apollo 6500 Gen10 Plus System bietet überlegene Leistung pro Dollar für GPU-intensive Workloads mit beispielloser Leistung von NVIDIA- und AMD-Beschleunigern. Mit der Flexibilität, eine breite Palette von CPU:Beschleuniger-Verhältnissen, Workloads und Beschleunigern für Deep Learning und komplexe Simulation sowie Modellierung, die typisch für HPC-Workloads sind, zu unterstützen, kann das System flexibel as-a-Service oder als Hybrid-HPC bereitgestellt werden (On-Premises, Off-Premises, hybrid).
Und egal, ob Sie HPC vor Ort oder in der Hybrid Cloud betreiben, können Ihnen die über HPE GreenLake angebotenen HPE Pointnext Services dabei helfen, die Höchstleistung Ihrer HPC-IT aufrechtzuerhalten. Mit unseren erfahrenen Technikern und maßgeschneidertem Support für HPE Software und Hardware können Sie die Entwicklung und Bereitstellung Ihrer KI-Strategie beschleunigen und Ihre HPC-Investition maximal ausschöpfen.