IM BOSTON LAB: BOSTON FENWAY-SERVER MIT NVIDIA H100 GPU

Posted on 05 December, 2022

EROBERN SIE DIE WELT MIT: 

BOSTON FENWAY-42E224.3 MIT NVIDIA H100 GPU

Skalierbar & Flexibel im KI-Einsatz
 

Schaffen Sie sich mehr Zeit für das Wesentliche, beispielsweise individuelle Flexibilität und Skalierbarkeit im laufenden Betrieb und im Einsatz von KI. Möglich per Boston FENWAY-Serversystem in Kombination mit einer der neuesten NVIDIA GPU-Lösungen, der NVIDIA H100 mit Hopper-Architektur. Innerhalb des Serversystems garantiert Ihnen die NVIDIA H100 GPU kurze Trainings- und Inference-Zeiten. Doch das ist noch nicht alles. 

Nutzen Sie die Leistung von PCIe 5.0 Lanes, um das Beste aus Ihrer GPU und Ihrem Speicher herauszuholen.
 

DIE NÄCHSTE EVOLUTION VON NVIDIAs GPUs, DIE H100:
ENTWICKELT UM IHR RECHENZENTRUM ZU BESCHLEUNIGEN

Optimiert für KI-Implementierungen Zertifiziert für Unternehmen BOSTON Enterprise-Unterstützung
Enthält KI-Frameworks und Container für leistungsoptimierte DL/ML-Tools, die die Entwicklung und Bereitstellung von KI vor Ort oder in der Cloud vereinfachen. Reduzieren Sie die Bereitstellungsrisiken mit einer kompletten Suite von NVIDIA KI-Software, die für eine flexible Bereitstellung zertifiziert ist: Bare Metal, virtualisiert, in Containern, beschleunigt durch GPUs oder CPUs. Stellen Sie mit dem System sicher, dass geschäftskritische KI-Projekte nach Plan verlaufen - mit Zugang zu den erfahrenden NVIDIA Experten bei Boston.

 

Entfaltung des vollen Potenzials zu einem guten Preis-/Leistungsverhältnis

Mit der neuen NVIDIA Hopper-Architektur der H100 GPU und den Boston-spezifischen Konfigurationen ist das neue FENWAY-Serversystem nicht nur prädestiniert dafür um KI- und Deep Learning Workloads effizient zu bewältigen. Auch das Preis-/Leistungsverhältnis ist ein überzeugendes Kriterium, um das System vorab detailliert zu testen.

Dieses Serversystem ist ein performantes Kraftpaket, dass auf NVIDIAs H100 Tensor-GPUs basiert. - Für Unternehmen eine einfache Lösung. 

Einige Merkmale sind:

  • 4 HE Rackmount Server
  • 2x AMD EPYCTM 9004 CPU mit bis zu 4TB RAM
  • 24x DIMM Slots, DDR5-4800 MHz Memory
  • bis zu 8x NVIDIA H100 Tensor Core-GPUs unterstützt
    (Double-Width, Single-Width)
  • "Direct Connect" für maximale Performance
  • geeignet für High Performance Computing & als Cloud Service
  • bis zu 4 NVMe Storage

 

WEITERE DETAILS ZUM BOSTON FENWAY-42E224.3:

DATENBLATT (DEUTSCH) 
DATENBLATT (ENGLISCH) 


GPU-Vergleich H100 zu A100

Haben Sie das gewusst?
Der H100-Grafikprozessor (basierend auf der Hopper-Architektur) ist im Vergleich zum A100-Grafikprozessor (basierend auf der Ampere-Architektur) eine deutliche Verbesserung. Er kann alles, was sein Vorgänger kann, hat aber noch einiges mehr zu bieten. 

6-facher Durchsatz für die rechenintensivsten Workloads, weltweit
 

Mit 80 Milliarden Transistoren und einer Bandbreite von bis zu 3,35 TB/s können zwanzig H100-GPUs das Äquivalent des gesamten weltweiten Internetverkehrs bewältigen.
 

KI-Powerhouse H100 GPU

Der H100-Grafikprozessor bietet unglaubliche POWER, die für die Durchführung von KI-Training und Inferencing in wenigen Minuten erforderlich ist. 

 

Darüber hinaus nutzt diese Lösung die Multi-Instance-GPU-Technologie (MIG), die eine sichere Partitionierung in bis zu sieben separate GPU-Instanzen ermöglicht. 

Dies kommt Workloads zugute, die die Rechenkapazität eines Grafikprozessors nicht vollständig auslasten.

  • 4.000 TFlops bei FP8-Rechenleistung
  • 2.000 TFlops für FP16-Rechenleistung
  • 1.000 TFlops FP32-Rechenleistung
  • 60 TFlops für FP32- und FP64-Rechenleistung


5 SCHRITTE, FÜR IHREN SMARTEN KI-EINSTIEG MIT BOSTON UND NVIDIA
 

ZUVERLÄSSIGE UND EINFACHE SKALIERBARKEIT

Erreichen Sie innerhalb des Supercomputings neue Spitzenwerte mit einer einfachen und allumfassenden Lösung: dem KI-Cluster

Das KI-Cluster basiert auf einer marktführenden Infrastruktur, dass problemlos mit anderen KI-Clustern mithalten kann. Es ist im Vergleich zu anderen Clustern aber keine schlüsselfertige Lösung, sondern nutzt hoch-optimierte Hardware, um die H100-GPUs bestmöglich auszunutzen.
 

VIELSEITIG IM EINSATZ

Der FENWAY-Server mit H100 GPU bietet Nutzern vielseitige Anwendungsmöglichkeiten. Durch die H100 GPU kann das Serversystem überall eingesetzt werden - von KI und maschinellem Lernen über Deep Learning bis hin zu digitalen Zwillingen und allem, was dazwischen liegt. 
 

Gewinnen Sie weitere Einblicke, Ergebnisse und erzielen Sie Durchbrüche, die die Art und Weise, wie wir leben, schneller und präziser verändern könnten.

Sie finden weitere Details zur H100 in unserem GTC'22 Blog.

ZUM NVIDIA GTC'22 Blog

 

 

Bei Fragen oder Interesse zum Boston Fenway-Server und/oder der neuen NVIDIA H100 GPU mit Ihrer Hopper-Architektur stehen wir Ihnen gerne zur Seite.

Nehmen Sie Kontakt mit uns auf. Wir sind für Sie da.

T. +49 (0) 89 9090 199-3
E. [email protected]

 

 

Tags: H100, NVIDIA, AI, GPU, Hopper, Fenway, Demosystem, Supermicro

RSS Feed

Sign up to our RSS feed and get the latest news delivered as it happens.

click here

Test out any of our solutions at Boston Labs

To help our clients make informed decisions about new technologies, we have opened up our research & development facilities and actively encourage customers to try the latest platforms using their own tools and if necessary together with their existing hardware. Remote access is also available

Contact us

Cloudfest 2023

EVENT-√úBERBLICK

Cloudfest 2023 | 21st - 23rd March 2023, Europapark/Rust

21.-23.03.2023: März ist Cloudfest-Zeit. Treffen Sie unser internationales Boston-Team am Boston-Stand H07 im Foyer am Eingang.

more info