" />
Ampere entwickelt die Zukunft des Hyperscale Cloud- und Edge-Computing mit dem weltweit ersten Cloud-nativen Prozessor.
Der Hersteller hat die Ampere® Altra® Produktfamilie entwickelt, eine Familie von Cloud-nativen Prozessoren mit einer modernen 64-Bit-ARM Server-basierten Architektur.
Ampere wurde für die Cloud mit einer modernen 64-Bit-ARM Server-basierten Architektur entwickelt und gibt Kunden die Möglichkeit, die Bereitstellung aller Cloud-Computing-Anwendungen zu beschleunigen.
Mit branchenführender Leistung, Energieeffizienz und linearer Skalierbarkeit sind die Ampere-Prozessoren auf das kontinuierliche Wachstum von Cloud- und Edge-Computing zugeschnitten.
CLOUD-NATIVE
Ampere Altra ist die branchenweit erste Cloud-native CPU, die für Anforderungen moderner Rechenzentren entwickelt wurde.
Er bietet eine vorhersehbare hohe Leistung, lineare Skalierbarkeit und Energieeffizienz für den Einsatz im Rechenzentrum von der Hyperscale Cloud bis zur Edge Cloud.
Einige der wichtigsten Highlights der Ampere Altra Server-Architektur sind:
ERWEITERUNG ZU AMPERE ALTRA
Ampere Altra Max erweitert die Prozessorarchitektur auf 128 Cores. Die CPU bietet die branchenweit höchste Leistung auf Socket-Ebene und E/A-Skalierbarkeit.
Ampere Altra Max bietet Kunden einen weiteren Cloud-optimierten Prozessor zur Maximierung der Gesamtleistung und der Core-Dichte pro Rack.
Ampere Altra Max ist ideal für Anwendungen, die die Vorteile von Scale-out- und elastischen Cloud-Architekturen nutzen. Kompatibel mit dem 80-Core Ampere Altra und Ampere Altra Max unterstützt er auch 2-Socket-Plattformen und bietet die branchenweit höchste Socket-Level-Leistung und I/O-Skalierbarkeit.
Ampere Altra bietet bis zu 80 Cores mit einer Geschwindigkeit von bis zu 3,3 GHz bei gleichbleibender Performance.
Jeder Core ist als Single-Thread-Prozessor ausgelegt und verfügt über einen eigenen 64 KB L1 I-Cache, 64 KB L1 D-Cache und einem großen 1 MB L2 D-Cache, was zu 100% eine vorhersehbare hohe Performance ermöglicht.
Dieser architektonische Ansatz eliminiert die mit Multi-Thread-Designs verbundenen „Noisy-Neighbour“-Probleme vollständig und liefert somit eine vorhersagbare hohe Performance während der gesamten Ausführungszeit der Arbeitslast.
Die Ampere Altra CPU unterstützt acht 2DPC, 72-bit DDR4-3200 Kanäle und bietet eine hohe Bandbreite und Speicherkapazität von bis zu 4 TB pro Sockel.
Mit führender Performance/Core und Multi-Sockel-Unterstützung bietet der Ampere Altra eine lineare Skalierbarkeit zur Maximierung der Anzahl der Cores pro Rack, die in der Branche einzigartig ist.
Ampere Altra bietet eine branchenführende Leistungseffizienz/Core, während 80 Cores in einem Single-Socket und 160 Cores in einem Dual-Socket untergebracht werden können, wodurch ein neues Niveau an Leistungseffizienz mit Skalierbarkeit entsteht.
Erfahren Sie mehr zu den Hauptmerkmalen von Ampere ALTRA in unserer Webinar-Aufzeichnung. - Im Fokus Energie-Effizienz im Bereich Hyperscale Cloud und Edge Computing.
Die auf dem Ampere Altra-Prozessor basierende Mt. Jade-Plattform bietet 160 Prozessorkerne in einer Dual-Socket-Konfiguration und ist damit die Plattform mit der höchsten Core-Dichte in der Branche.
Mt. Jade bietet die Performance und Skalierbarkeit für eine Vielzahl von Workloads, darunter Cloud Native, KI-Inferenz, Big Data, rechenintensive Anwendungen und Speicher.
Die auf dem Ampere Altra-Prozessor basierende Mt. Snow-Plattform bietet ein ausgewogenes Verhältnis aus Performance und Energie, das problemlos skaliert werden kann.
Mt. Snow ist in einer Single-Socket-Konfiguration mit dem Ampere Altra-Prozessor erhältlich und bietet 80 Cores mit vorhersehbarer Performance, die ideal für Cloud-native Anwendungen ist.
Mt. Snow ist eignet sich für eine Vielzahl von Workloads, darunter Cloud Native, KI-Inferenz, Big Data, rechenintensive Anwendungen und Speicher in einer 1P-Konfiguration.
Die auf dem Ampere Altra-Prozessor basierende Mt. Collins-Plattform bietet 160 Prozessorkerne in einer Dual-Socket-Konfiguration, wie die Mr. Jade-Plattform, und ist gehört zu den Plattformen mit der höchsten Core-Dichte in der Industrie.
Mt. Collins bietet Performance und Skalierbarkeit für eine Vielzahl von Workloads, darunter Android in der Cloud, Cloud Native, KI-Inferenz, Big Big Data, rechenintensiv und Speicher.
Die Plattform ist für Ampere® Altra Max optimiert und mit dem neuesten BMC ausgestattet.
AI LÖSUNGEN
Die Ampere AI Deep Learning Software (DLS) AI Optimierungs-Engine liefert signifikante Performance-Verbesserungen im Vergleich zu den üblicherweise verwendeten CPU-basierten Machine Learning (ML) Frameworks und steigert die AI-Leistung der Ampere Altra Familie in der Cloud und Edge-Infrastruktur.
BENCHMARK-ERGEBNISSE
Ampere Computing konnte durch Tests nachweisen, dass auf Ampere-basierten Instanzen eine 4-fache Beschleunigung möglich ist, auf denen beliebte KI-Inferenz-Workloads ausgeführt werden.
Die Lösung umfasst einen optimiertes Gesamtpaket mit -
AIO (Ampere AI Optimizer) ist eine Softwarebibliothek zur Beschleunigung von Standard-KI-Frameworks, wie TensorFlow, PyTorch oder ONNX. AIO beschleunigt die Inferenz von trainierten, neuronalen Netzen nahtlos bis zum 5-fachen, was zu niedrigeren Latenzzeiten, höherem Durchsatz und verbesserten TCO für Ihre KI-Workloads führt.
AIO funktioniert sofort nach der Installation: Es ist keine Umschulung oder Modellkonvertierung erforderlich, und die Genauigkeit bleibt erhalten. Es handelt sich um eine nahtlose Plug-and-Play-Bibliothek, die sofort in der Umgebung eingesetzt werden kann, egal ob es sich um eine virtuelle Maschine (VM), einen Container oder eine reine Bare-Metall-Maschine handelt.
AML (Ampere AI Model Library) ist eine Reihe von pre-trained, hochmodernen neuronalen Netzwerkmodellen für Anwendungen wie Computer Vision, natürliche Sprachverarbeitung und Empfehlungsmaschinen.
AML ermöglicht dem Nutzer, ein KI-Projekt schneller und mit weniger technischen Ressourcen zu starten. Alle Modelle werden in Standard-Frameworks' (TF, PyTorch usw.) bereitgestellt und können für Transfer Learning oder für den direkten Einsatz genutzt werden. AML kann mit oder ohne die AIO von Ampere Computing verwendet werden.
We are excited to invite you to our upcoming webinar on Supermicro liquid-cooled workstations, scheduled for 06.10.23. This webinar is tailored to data scientists and GPU users who seek hardware or software solutions and want to explore the possibilities of liquid-cooled workstations.