" />

AMPERE COMPUTING

Ampere entwickelt die Zukunft des Hyperscale Cloud- und Edge-Computing mit dem weltweit ersten Cloud-nativen Prozessor.

Der Hersteller hat die Ampere® Altra® Produktfamilie entwickelt, eine Familie von Cloud-nativen Prozessoren mit einer modernen 64-Bit-ARM Server-basierten Architektur.

ENERGIEEFFIZIENZ STEIGERN (VIDEO) TEST-ANFRAGE

ENTWICKLER DES ERSTEN CLOUD-NATIVEN PROZESSORS

ÜBER AMPERE COMPUTING

Ampere wurde für die Cloud mit einer modernen 64-Bit-ARM Server-basierten Architektur entwickelt und gibt Kunden die Möglichkeit, die Bereitstellung aller Cloud-Computing-Anwendungen zu beschleunigen.

Mit branchenführender Leistung, Energieeffizienz und linearer Skalierbarkeit sind die Ampere-Prozessoren auf das kontinuierliche Wachstum von Cloud- und Edge-Computing zugeschnitten.

MEHR ERFAHRENTEST-ANFRAGE

 

 

 

CLOUD-NATIVE

Ampere Altra

Ampere Altra ist die branchenweit erste Cloud-native CPU, die für Anforderungen moderner Rechenzentren entwickelt wurde.

Er bietet eine vorhersehbare hohe Leistung, lineare Skalierbarkeit und Energieeffizienz für den Einsatz im Rechenzentrum von der Hyperscale Cloud bis zur Edge Cloud.

Einige der wichtigsten Highlights der Ampere Altra Server-Architektur sind:

  • Top-End-Performance mit der höchsten Leistung/Watt in einer CPU der Serverklasse
  • Branchenführende bis zu 128 Cores pro CPU (mit bis zu 2 CPUs pro Server) für Hyperscale-Rechenzentren
  • Open-Source-Hardware- und Software-Konformität auf der gesamten Plattform 

 

 

ERWEITERUNG ZU AMPERE ALTRA

Ampere Altra Max

Ampere Altra Max erweitert die Prozessorarchitektur auf 128 Cores. Die CPU bietet die branchenweit höchste Leistung auf Socket-Ebene und E/A-Skalierbarkeit.

Ampere Altra Max bietet Kunden einen weiteren Cloud-optimierten Prozessor zur Maximierung der Gesamtleistung und der Core-Dichte pro Rack.

Ampere Altra Max ist ideal für Anwendungen, die die Vorteile von Scale-out- und elastischen Cloud-Architekturen nutzenKompatibel mit dem 80-Core Ampere Altra und Ampere Altra Max unterstützt er auch 2-Socket-Plattformen und bietet die branchenweit höchste Socket-Level-Leistung und I/O-Skalierbarkeit.

 

 

Hauptmerkmale von Ampere Altra

 

 

Vorhersehbare hohe Leistung

Ampere Altra bietet bis zu 80 Cores mit einer Geschwindigkeit von bis zu 3,3 GHz bei gleichbleibender Performance.

Jeder Core ist als Single-Thread-Prozessor ausgelegt und verfügt über einen eigenen 64 KB L1 I-Cache, 64 KB L1 D-Cache und einem großen 1 MB L2 D-Cache, was zu 100% eine vorhersehbare hohe Performance ermöglicht.

Dieser architektonische Ansatz eliminiert die mit Multi-Thread-Designs verbundenen „Noisy-Neighbour“-Probleme vollständig und liefert somit eine vorhersagbare hohe Performance während der gesamten Ausführungszeit der Arbeitslast.

Die Ampere Altra CPU unterstützt acht 2DPC, 72-bit DDR4-3200 Kanäle und bietet eine hohe Bandbreite und Speicherkapazität von bis zu 4 TB pro Sockel.

 

Lineare Skalierbarkeit

Mit führender Performance/Core und Multi-Sockel-Unterstützung bietet der Ampere Altra eine lineare Skalierbarkeit zur Maximierung der Anzahl der Cores pro Rack, die in der Branche einzigartig ist.

 

 

 

Energie-Effizienz

Ampere Altra bietet eine branchenführende Leistungseffizienz/Core, während 80 Cores in einem Single-Socket und 160 Cores in einem Dual-Socket untergebracht werden können, wodurch ein neues Niveau an Leistungseffizienz mit Skalierbarkeit entsteht.

 

 

TEST-ANFRAGE

Erfahren Sie mehr zu den Hauptmerkmalen von Ampere ALTRA in unserer Webinar-Aufzeichnung. - Im Fokus Energie-Effizienz im Bereich Hyperscale Cloud und Edge Computing.

 

 

AMPERE COMPUTING PLATTFORMEN

 


 

Mt. Jade

Die auf dem Ampere Altra-Prozessor basierende Mt. Jade-Plattform bietet 160 Prozessorkerne in einer Dual-Socket-Konfiguration und ist damit die Plattform mit der höchsten Core-Dichte in der Branche

Mt. Jade bietet die Performance und Skalierbarkeit für eine Vielzahl von Workloads, darunter Cloud Native, KI-Inferenz, Big Data, rechenintensive Anwendungen und Speicher.

 

 


 

Mt. Snow

Die auf dem Ampere Altra-Prozessor basierende Mt. Snow-Plattform bietet ein ausgewogenes Verhältnis aus Performance und Energie, das problemlos skaliert werden kann.

Mt. Snow ist in einer Single-Socket-Konfiguration mit dem Ampere Altra-Prozessor erhältlich und bietet 80 Cores mit vorhersehbarer Performance, die ideal für Cloud-native Anwendungen ist. 

Mt. Snow ist eignet sich für eine Vielzahl von Workloads, darunter Cloud Native, KI-Inferenz, Big Data, rechenintensive Anwendungen und Speicher in einer 1P-Konfiguration.

 

 


 

Mt. Collins

Die auf dem Ampere Altra-Prozessor basierende Mt. Collins-Plattform bietet 160 Prozessorkerne in einer Dual-Socket-Konfiguration, wie die Mr. Jade-Plattform, und ist gehört zu den Plattformen mit der höchsten Core-Dichte in der Industrie.

Mt. Collins bietet Performance und Skalierbarkeit für eine Vielzahl von Workloads, darunter Android in der Cloud, Cloud Native, KI-Inferenz, Big Big Data, rechenintensiv und Speicher.

Die Plattform ist für Ampere® Altra Max optimiert und mit dem neuesten BMC ausgestattet.

 

 

AI LÖSUNGEN

Ampere AI

Die Ampere AI Deep Learning Software (DLS) AI Optimierungs-Engine liefert signifikante Performance-Verbesserungen im Vergleich zu den üblicherweise verwendeten CPU-basierten Machine Learning (ML) Frameworks und steigert die AI-Leistung der Ampere Altra Familie in der Cloud und Edge-Infrastruktur. 

 

BENCHMARK-ERGEBNISSE

GESCHWINDIGKEIT & LEISTUNGSSTÄRKE

Ampere Computing konnte durch Tests nachweisen, dass auf Ampere-basierten Instanzen eine 4-fache Beschleunigung möglich ist, auf denen beliebte KI-Inferenz-Workloads ausgeführt werden.

Die Lösung umfasst einen optimiertes Gesamtpaket mit -

  • Objekterkennung,
  • Videoverarbeitung und
  • Empfehlungs-Engines.

 

 

Wesentliche Merkmale von Ampere AI

 

 

Ampere AI-Optimizer

AIO (Ampere AI Optimizer) ist eine Softwarebibliothek zur Beschleunigung von Standard-KI-Frameworks, wie TensorFlow, PyTorch oder ONNX. AIO beschleunigt die Inferenz von trainierten, neuronalen Netzen nahtlos bis zum 5-fachen, was zu niedrigeren Latenzzeiten, höherem Durchsatz und verbesserten TCO für Ihre KI-Workloads führt.

AIO funktioniert sofort nach der Installation: Es ist keine Umschulung oder Modellkonvertierung erforderlich, und die Genauigkeit bleibt erhalten. Es handelt sich um eine nahtlose Plug-and-Play-Bibliothek, die sofort in der Umgebung eingesetzt werden kann, egal ob es sich um eine virtuelle Maschine (VM), einen Container oder eine reine Bare-Metall-Maschine handelt.

 

Ampere AI-Model-Library

AML (Ampere AI Model Library) ist eine Reihe von pre-trained, hochmodernen neuronalen Netzwerkmodellen für Anwendungen wie Computer Vision, natürliche Sprachverarbeitung und Empfehlungsmaschinen

AML ermöglicht dem Nutzer, ein KI-Projekt schneller und mit weniger technischen Ressourcen zu starten. Alle Modelle werden in Standard-Frameworks' (TF, PyTorch usw.) bereitgestellt und können für Transfer Learning oder für den direkten Einsatz genutzt werden. AML kann mit oder ohne die AIO von Ampere Computing verwendet werden.

 

 

MEHR ERFAHRENTEST-ANFRAGE

 

NEHMEN SIE KONTAKT MIT UNS AUF. WIR SIND FÜR SIE DA

+49 (0) 89 9090 199-3

FINDEN SIE DIE PASSENDE LÖSUNG

Liquid Cooled AI Workstation Webinar

EVENT-ÜBERBLICK

Liquid Cooled AI Workstation Webinar | 6th - 6th October 2023, Online

We are excited to invite you to our upcoming webinar on Supermicro liquid-cooled workstations, scheduled for 06.10.23. This webinar is tailored to data scientists and GPU users who seek hardware or software solutions and want to explore the possibilities of liquid-cooled workstations.

more info