Das Lenovo ThinkSystem SC777 V4 Neptune wurde speziell für High Performance Computing (HPC) entwickelt und zeichnet sich durch beschleunigtes Computing für intensive Simulationen und hybride KI aus. Zentrales Element des Lenovo ThinkSystem SC777 V4 sind zwei NVIDIA GB200 Grace Blackwell Superchips. Diese sind speziell darauf ausgelegt, generative KI-Anwendungen im Billionen-Parameter-Bereich mit maximaler Effizienz & Leistung zu ermöglichen. Ein Superchip kombiniert zwei Blackwell-GPUs mit einer Grace-CPU über NVLink-C2C. So liefert er bis zu 40 PetaFLOPS Leistung. Der SC777 V4 überzeugt zudem sein flexibles Design, das verschiedene Systemkonfigurationen & Netzwerkoptionen unterstützt. Dies gewährleistet eine nahtlose Integration von beschleunigtem Computing in bestehende Rechenzentrumsinfrastrukturen.Rack-Units: Chassis-System Prozessoren: Zwei Grace-Prozessoren, 72 Arm® Neoverse V2-Kerne je Prozessor
Kühlung: Wassergekühltes System
Exascale-Leistung für Ihre KI- & HPC-Workloads• Der ThinkSystem SD665-N V3 Neptune™ Server bietet maximale NVIDIA GPU-Leistung, extreme Dichte und führende Energieeffizienz.• Prozessor: 1x oder 2x AMD EPYC™Prozessoren der 4. Generation pro Knoten• GPU-Speicher: Bis zu 3,0 TB mit 24x 128 GB 4800 MHz TruDDR5 RDIMM Steckplätzen pro Fach• I/O-Erweiterung: NVIDIA ConnectX-7 4-Chip VPI PCIe Gen5 Mezz-Karte für GPUdirect I/O
Der ThinkSystem SD665-N V3 Neptune DWC Knoten ist der Hochleistungsserver der nächsten Generation, basierend auf der fünften Generation der Lenovo Neptune™ Direktwasserkühlungsplattform.
Mit zwei Prozessoren der vierten Generation von AMD EPYC und vier leistungsstarken NVIDIA H100 Tensor Core GPUs bietet der ThinkSystem SD665-N V3 Server die neueste Technologie von AMD und NVIDIA, kombiniert mit Lenovos marktführender Wasserkühlungslösung. Dies führt zu extremer Leistung bei sehr geringem Platzbedarf und unterstützt Ihre Anwendungen von Exascale bis Everyscale™. Es können bis zu 42 Systeme bzw. 168 GPUs in einem Direktwassergekühlten Rack bereitgestellt werden.
Die Direktwasserkühlungslösung ist so konzipiert, dass sie mit warmem Wasser betrieben werden kann, bis zu 45°C je nach Konfiguration. Für die meisten Kunden sind keine Kühlaggregate erforderlich, was noch größere Einsparungen und niedrigere Gesamtbetriebskosten bedeutet. Die Knoten sind im verbesserten ThinkSystem DW612S-Gehäuse untergebracht, einer 6U-Rack-Montageeinheit, die in ein Standard-19-Zoll-Rack passt.Formfaktor: 1 CPU/GPU Tray , 1U per Tray
Bis zu 6 Trays in einem 6U Compute ChassisGPU-Unterstützung:
NVIDIA HGX™H100 / H200 4-GPU Board mit bis zu 4x 700 Watt und NVLINKProzessoren: Bis zu 2x AMD EPYC™ Prozessoren der 4. GenerationSpeicher: Bis zu 24x TruDDR5 Speichersteckplätze, max. 6 TB ArbeitsspeicherNetzwerk: NVIDIA ConnectX-7 4-Chip VPI PCIe Gen5 Mezz-Karte für GPUdirect I/O
Prozessoren: Bis zu 2 skalierbare Intel® Xeon® Prozessoren der 5. GenerationSpeicher: Bis zu 32x TruDDR5 Speichersteckplätze, max. 8 TB Arbeitsspeicher
Prozessoren: Bis zu 2 skalierbare Intel® Xeon® Prozessoren der 5. GenerationSpeicher: Bis zu 32x TruDDR5 Speichersteckplätze, max. 8 TB Arbeitsspeicher
Formfaktor: 5U-RackGPU-Unterstützung: 8x NVIDIA H100/H200/B200-GPUs,
Schnellste GPU-Verbindung mitNVLink von NVIDIANetzwerk: Bis zu 8x NDR400 / 400 GbE für Scale OutDirekte Flüssigkeitskühlung für CPU, GPU und NVLink-SwitchesProzessoren: Bis zu 2 skalierbare Intel® Xeon® Prozessoren der 5. GenerationSpeicher: Bis zu 32x TruDDR5 Speichersteckplätze, max. 4 TB Arbeitsspeicher
Speicher: Bis zu 8x Hot-Swap NVMe SSDs
Der NVIDIA GB200 NVL72 ist ein flüssigkeitsgekühltes Rack-System, das für die anspruchsvollsten Rechenlasten entwickelt wurde. Es kombiniert 36 Grace Blackwell Superchips, die jeweils 72 Blackwell-GPUs und 36 Grace-CPUs umfassen, die über die fünfte Generation von NVLink miteinander verbunden sind. Der NVIDIA GB200 NVL72 ist ein leistungsstarkes und effizientes System, das für die anspruchsvollsten Rechenlasten entwickelt wurde. Es bietet eine exzellente Leistung, Skalierbarkeit und Konnektivität.
Einsatzmöglichkeiten: Eignet sich ideal für eine Vielzahl von AI- und HPC-Workloads.