NVIDIA hat auf der Frühjahrs-GTC'22 im März 2022 ihre neue Hopper-Architektur angekündigt. Sie stellt, lt. NVIDIA, die nächste Generation von beschleunigtem Computing mit beispielloser Leistung, Skalierbarkeit und Sicherheit für jedes Rechenzentrum dar. Erstmals wird die Hopper-Architektur in den H100 GPUs von NVIDIA zu finden sein.
"Rechenzentren werden zu KI-Fabriken, die Berge von Daten verarbeiten und veredeln, um Intelligenz zu erzeugen", sagt Jensen Huang, Gründer und CEO von NVIDIA. Er fügt hinzu: "NVIDIA H100 ist der Motor der weltweiten KI-Infrastruktur, die Unternehmen nutzen, um ihre KI-getriebenen Geschäfte zu beschleunigen."
Laut NVIDIA setzt der NVIDIA H100 Grafikprozessor einen neuen Standard bei der Beschleunigung von KI und HPC. Dieser wird durch sechs bahnbrechende Innovationen erreicht:
NVIDIA H100 kann in jeder Art von Rechenzentrum eingesetzt werden, einschließlich On-Premises, Cloud, Hybrid-Cloud und Edge.
Der H100 wird in den Formfaktoren SXM und PCIe erhältlich sein, um eine breite Palette von Serverdesignanforderungen zu unterstützen.
Darüber hinaus wird ein konvergierter Beschleuniger (Converged Accelerator), der H100 CNX, erhältlich sein, der einen H100 Grafikprozessor mit einer NVIDIA ConnectX®-7 400Gb/s InfiniBand und Ethernet SmartNIC kombiniert.
Auf der NVIDIA Hopper-Architektur basierende Grafikprozessoren können auch mit NVIDIA Grace™-CPUs mit einem ultraschnellen NVLink-C2C-Interconnect für eine über 7x schnellere Kommunikation zwischen CPU und GPU im Vergleich zu PCIe 5.0 kombiniert werden. Diese Kombination - der Grace Hopper Superchip - ist ein integriertes Modul, das für sehr große HPC- und KI-Anwendungen entwickelt wurde.
Grace CPU Superchip: Mit dem Grace CPU Superchip können Kunden eine 10-fach schnellere Zeit bis zur Lösung mit der beschleunigten Grace Hopper CPU erzielen, die für HPC- und KI-Anwendungen im Giant-Scale-Format entwickelt wurde.
>> Mehr zur H100 Hopper-Architektur im Datenblatt (in Englisch)
Der NVIDIA Spectrum-4 ASIC und die SN5000 Switch-Familie bilden die bisher innovativste Ethernet-Plattform von NVIDIA, die auf einem 5-nm-Prozess basiert und über 100 Milliarden Transistoren enthält.
Mit einer ASIC-Gesamtbandbreite von 51,2 Tbit/s, die Port-Geschwindigkeiten von 400 und 800 GbE ermöglicht, und adaptiven Routing-Protokollen bietet Spectrum-4 die Leistung und Sicherheit, die für modernste Rechenzentren erforderlich sind.
Darüber hinaus beschleunigen und vereinfachen die Spectrum-4-Innovationen Anwendungen aus einer Vielzahl von Branchen, darunter Cloud-, Storage-, Artificial Intelligence-, Deep Learning- und 5G-Lösungen. Spectrum-4 ist auch auf NVIDIA Air für die Simulation von Rechenzentrumsinfrastrukturen bis hin zur ASIC-Ebene verfügbar.
Ideale Einsatzgebiete sind:
>> Mehr zu Spectrum-4 im Datenblatt (in Englisch)
Die NVIDIA BlueField-3 DPU ist die weltweit fortschrittlichste Rechenzentrumsinfrastruktur auf einem Chip und bietet softwaredefinierte, hardwarebeschleunigte Netzwerk-, Speicher-, Sicherheits- und Verwaltungsdienste mit 400 Gb/s.
BlueField-3 entlastet, beschleunigt und isoliert die Infrastruktur des Rechenzentrums von den Geschäftsanwendungen und verwandelt herkömmliche Computerumgebungen in effiziente, leistungsstarke und vertrauenswürdige Rechenzentren, von der Cloud über den Core bis zum Edge.
Das NVIDIA DOCA SDK bietet Industriestandard-APIs und ein optimiertes Entwicklererlebnis und schützt die Investitionen und Verpflichtungen in DPU-beschleunigte Anwendungen und Dienste, indem es eine zukunftssichere Laufzeitumgebung ermöglicht, wenn sich die DPU-Generationen weiterentwickeln.
In Kombination mit NVIDIA-GPUs ermöglicht BlueField-3 moderne, Cloud-native Rechenzentrumsplattformen für das Zeitalter der KI.
>> Mehr zu BlueField-3 DPU im Datenblatt (in Englisch)
SIE MÖCHTEN MEHR ZU DEN NEUEN NVIDIA PRODUKTEN VON DER GTC'22 ERFAHREN ODER HABEN IDEALE EINSATZFELDER, WO DIESE PASSEN KÖNNTEN?
Rufen Sie uns einfach an. Wir finden die passende Lösung für Ihren Bedarf.
Sie erreichen uns unter:
T: +49 (0) 89 9090 199-3
E: [email protected]
Ihr Team von der
Boston Server & Storage Solutions GmbH
To help our clients make informed decisions about new technologies, we have opened up our research & development facilities and actively encourage customers to try the latest platforms using their own tools and if necessary together with their existing hardware. Remote access is also available
A summary of what to expect from the RUN:AI event