In der sich rasant entwickelnden KI-Infrastrukturlandschaft entwickelt sich AMD zu einem entscheidenden Faktor, insbesondere im Bereich der Flüssigkeitskühlung. Rechenzentren verschieben die Grenzen von Leistung und Effizienz immer weiter, und AMDs neueste Entwicklungen setzen neue Maßstäbe. FiberMall, ein spezialisierter Anbieter von Produkten und Lösungen für die optische Kommunikation, bietet kostengünstige Angebote für globale Rechenzentren, Cloud-Computing-Umgebungen, Unternehmensnetzwerke, Zugangsnetze und drahtlose Systeme. FiberMall ist bekannt für seine führende Rolle bei KI-gestützten Kommunikationsnetzwerken und der ideale Partner für hochwertige, wertorientierte optische Kommunikationslösungen. Weitere Informationen finden Sie auf der offiziellen Website oder direkt beim Kundensupport.
Dieser Blog untersucht AMDs bahnbrechende Entwicklungen im Bereich der KI-Flüssigkeitskühlung, von massiven GPU-Clustern bis hin zur innovativen MI350-Serie. Ob KI-Enthusiast, Rechenzentrumsbetreiber oder Technologieinvestor – diese Einblicke verdeutlichen, warum AMD zum Windhahn für die nächste Ära des KI-Computing wird.
TensorWave stellt Nordamerikas größten AMD-Flüssigkeitskühlungs-Servercluster bereit
TensorWave, ein aufstrebender Stern in der KI-Infrastruktur, hat kürzlich die erfolgreiche Bereitstellung des größten AMD-GPU-Trainingsclusters Nordamerikas bekannt gegeben. Angetrieben von 8,192 Instinct MI325X GPU-Beschleunigern ist dieses Setup der erste groß angelegte Cluster mit direkter Flüssigkeitskühlung (DLC), der dieses GPU-Modell verwendet.

TensorWaves Fokus auf hochmoderne AMD-Hardware ermöglicht effiziente Computing-Plattformen für Unternehmen, Forschungseinrichtungen und Entwickler. Dieser kolossale Cluster stellt nicht nur einen Skalenrekord auf, sondern verleiht der KI-Entwicklung auch neuen Schwung. Branchenanalysten weisen darauf hin, dass AMD-basierte Cluster eine überlegene Kosteneffizienz bieten – mit potenziellen Einsparungen von bis zu 30 % im Vergleich zu NVIDIAs DGX-Systeme für gleichwertige Rechenleistung.
Da immer mehr Unternehmen AMD-GPUs einsetzen, könnten die Kosten für die KI-Infrastruktur weiter sinken und die KI-Einführung branchenübergreifend beschleunigen. Für die optischen Kommunikationsanforderungen in solchen Hochleistungsumgebungen bietet FiberMall zuverlässige, KI-optimierte Lösungen für eine reibungslose Datenübertragung.

AMD stellt MI350-Chip mit vollständiger Flüssigkeitskühlungsarchitektur vor und sorgt damit für Begeisterung auf dem Markt
Am 12. Juni 2025 veranstaltete AMD die Konferenz „Advancing AI 2025“ in San Jose, Kalifornien, und stellte dort offiziell die GPU-Beschleuniger der Instinct MI350-Serie vor. Diese GPUs ermöglichen ultragroße Rechencluster durch die Zusammenarbeit mehrerer Karten, wobei einzelne Knoten bis zu acht Karten parallel unterstützen und 2,304 GB HBM3E-Speicher bereitstellen. Die Spitzenleistung liegt bei über 80.5 PFlops bei FP8-Präzision und 161 PFlops bei FP6/FP4-Rechnern mit niedriger Präzision und konkurriert damit mit NVIDIAs GB200.
Die Konnektivität zwischen den Karten erfolgt über bidirektionale Infinity Fabric-Kanäle, während die CPU-Verbindungen PCIe 128 mit 5.0 GB/s für eine engpassfreie Datenübertragung nutzen. AMD bietet sowohl luftgekühlte als auch flüssigkeitsgekühlte Versionen an. Die Luftkühlung unterstützt bis zu 64 Karten, während die Flüssigkeitskühlung für vielfältige Supercomputing-Anforderungen auf bis zu 128 Karten (2U-5U-Racks) skaliert.



Das MI350X-Modul verbraucht mit Luftkühlung 1,000 W, während das Hochleistungsmodul MI355X 1,400 W erreicht und hauptsächlich Flüssigkeitskühlung nutzt. Partner wie Supermicro, Pegatron und Gigabyte haben bereits flüssigkeitsgekühlte Server der MI350-Serie eingeführt.



Im globalen Markt für High-End-KI-Chips hält NVIDIA einen Marktanteil von über 80 %, doch AMDs Wiederaufstieg des MI350 – der mit der Leistung des GB200 mithalten kann – signalisiert einen Wandel. Für Flüssigkeitskühlungs-Ökosysteme bietet AMDs Fortschritt Alternativen zur Dominanz von NVIDIA und fördert einen gesünderen Wettbewerb. Führende Cloud-Anbieter, darunter große Hyperscaler und Neo Cloud, werden den MI350 integrieren, Dell, HPE und Supermicro folgen diesem Beispiel. Die Massenproduktion begann Anfang dieses Monats, die ersten Partnerserver und CSP-Instanzen sind für das dritte Quartal 3 geplant – viele bevorzugen flüssigkeitsgekühlt Varianten.

Die Expertise von FiberMall im Bereich KI-fähiger optischer Netzwerke ergänzt diese Bereitstellungen und bietet kostengünstige Verbindungen für KI-Cluster mit hoher Bandbreite.
AMDs treibender Einfluss auf den Markt für Flüssigkeitskühlungen
NVIDIAs Quasi-Monopol hat die Entwicklung von Flüssigkeitskühlungen an sein Ökosystem gebunden, einschließlich restriktiver Whitelists, die Partner abschrecken. AMDs großflächige flüssigkeitsgekühlte Cluster und die Einführung des MI350 sind ein Segen und könnten NVIDIA neben Konkurrenten wie Huawei herausfordern. Dies könnte Anbietern von Flüssigkeitskühlungen außerhalb des Einflussbereichs von NVIDIA neuen Schwung verleihen.
AMD behauptet, dass MI350 die Energieeffizienz der KI-Plattform innerhalb von fünf Jahren um das 38-fache steigern wird. Bis 20 ist eine weitere Verbesserung um das 2030-fache geplant, was zu einer Reduzierung des Energieverbrauchs um bis zu 95 % führen würde.
Deep Dive: Chips der AMD MI350-Serie, OAM, UBB, flüssigkeitsgekühlte Server und Rack-Bereitstellungen
Auf der Advancing AI 2025 stellte AMD die Instinct MI350-Serie vor, darunter MI350X und MI355X, die bereit ist, direkt mit NVIDIAs Blackwell zu konkurrieren.

Instinct MI350 Übersicht
Beide Modelle verfügen über 288 GB HBM3E-Speicher mit 8 TB/s Bandbreite. MI355X bietet volle Leistung: FP64 mit 79 TFlops, FP16 mit 5 PFlops, FP8 mit 10 PFlops und FP6/FP4 mit 20 PFlops bei bis zu 1,400 W TDP. MI350X ist um 8 % reduziert und erreicht in FP18.4 mit 4 W TDP einen Spitzenwert von 1,000 PFlops.
Chips der AMD Instinct MI350-Serie
MI350X und MI355X haben ein gemeinsames Chipdesign, das auf einer 3D-Hybrid-Bonding-Architektur unter Verwendung der 3-nm- (N3P) und 6-nm-Prozesse von TSMC basiert.


Vergleich: AMD MI350X vs. NVIDIA B200/GB200
Parameter | AMD MI350X | NVIDIA B200 | NVIDIA GB200 |
Architektur | CDNA 4 (3D-Hybridbindung) | Blackwell (Dual-Die-Integration) | Blackwell + Grace-CPU (Dual B200 + 1 Grace) |
Prozessknoten | TSMC 3 nm (N3P) + 6 nm (IOD) Hybrid-Verpackung | TSMC 4 nm (N4P) | TSMC 4 nm (N4P) |
Transistoren | 185 Milliarden | 208 Milliarden | 416 Milliarden (Dual B200) |
Speicherkonfiguration | 288 GB HBM3E (12Hi Stack), 8 TB/s Bandbreite | 192 GB HBM3E (8Hi Stack), 7.7 TB/s Bandbreite | 384 GB HBM3E (Dual B200), 15.4 TB/s Bandbreite |
FP4 berechnen | 18.4 PFLOPS (36.8 PFLOPS spärlich) | 20 PFLOPS (FP4 dicht) | 40 PFLOPS (Dual B200) |
FP8 berechnen | 9.2 PFLOPS (18.4 PFLOPS spärlich) | 10 PFLOPS | 20 PFLOPS |
FP32 berechnen | 144 TFLOPS | 75 TFLOPS | 150 TFLOPS |
FP64 berechnen | 72 TFLOPS (2x B200 Double Precision) | 37 TFLOPS | 74 TFLOPS |
Interconnect | 153.6 GB/s Infinity Fabric (8 Karten/Knoten), Ultra Ethernet bis 128 Karten | 1.8 TB/s NVLink 5.0 (pro Karte), 576 Karten in NVL72 | 1.8 TB/s NVLink 5.0 (pro B200), 129.6 TB/s bidirektional im 72-Karten-Cluster |
Energieverbrauch | 1000 W (luftgekühlt) | 1000 W (flüssigkeitsgekühlt) | 2700 W (Dual B200 + Grace) |
Software-Ökosystem | ROCm 7 mit PyTorch/TensorFlow-Optimierung, FP4/FP6-Unterstützung | CUDA 12.5+ mit FP4/FP8-Präzision, TensorRT-LLM-Inferenz | CUDA 12.5+ mit Grace-CPU-Optimierung für Billionen-Parameter-Modelle |
Typische Leistung | Llama 3.1 405B Inferenz 30 % schneller als B200; 8-Karten-FP4 bei 147 PFLOPS | GPT-3-Training 4x H100; Einzelkarten-FP4-Inferenz 5x H100 | 72-Karten-NVL72 FP4 mit 1.4 EFLOPS; Inferenzkosten 25 % geringer als bei H100 |
Preis (2025) | 25,000 USD (67 % Anstieg in letzter Zeit, immer noch 17 % unter B200) | $30,000 | Über 60,000 USD (Dual B200 + Grace) |
Wirkungsgrad | 30 % höhere HBM-Bandbreite pro Watt; 40 % mehr Token pro Dollar als B200 | 25 % höhere FP4 pro Transistor; 50 % bessere NVLink-Effizienz | 14.8 PFLOPS/W bei der Flüssigkeitskühlung für FP4 |
Differenzierung | Einzigartige FP6/FP4-Dual-Precision-Inferenz; 288 GB für 520B-Parameter-Modelle | Transformer Engine der 2. Generation für FP4; RAS auf Chipebene für Zuverlässigkeit | Grace CPU Unified Memory; Dekomprimierungs-Engine zum Laden von Daten |
MI350X bietet 60 % mehr Speicher als B200 (192 GB) bei gleicher Bandbreite. Es führt bei FP64/FP32 um ca. 1x, bei FP6 um bis zu 1.2x und bei niedriger Präzision um ca. 10 %. Die Inferenz entspricht oder übertrifft die Leistung um 30 %, das Training ist bei der Feinabstimmung von FP10 vergleichbar oder um über 8 % voraus – und das alles bei höherer Kosteneffizienz (40 % mehr Token pro Dollar).
AMD Instinct MI350 OAM
Der OAM-Formfaktor ist kompakt und verfügt über eine dicke Leiterplatte ähnlich der des MI325X.

AMD Instinct MI350 UBB
Hier ist das MI350 OAM-Paket, das zusammen mit sieben anderen GPUs in einem UBB installiert ist, also insgesamt acht.

AMD Instinct MI350 auf UBB 8 GPU ohne Kühlung 2
Hier ist ein anderer Blickwinkel darauf.

AMD Instinct MI350 auf UBB 8 GPU ohne Kühlung 1
Hier ist ein Blick auf die gesamte UBB mit acht installierten GPUs.

AMD Instinct MI350 UBB 8 GPU Keine Kühlung
In vielerlei Hinsicht ähnelt es der AMD Instinct MI325X-Platine der vorherigen Generation, und das ist der springende Punkt.

AMD Instinct MI350 auf UBB 8 GPU ohne Kühlung 3
An einem Ende haben wir die UBB-Anschlüsse und einen Kühlkörper für die PCIe-Retimer.

AMD Instinct MI350X UBB PCIe Retimer
Für die Verwaltung gibt es außerdem ein SMC.

AMD Instinct MI350 SMC
Neben der Platine selbst ist auch die Kühlung wichtig.
AMD Instinct MI350X Luftkühlung
Hier ist ein OAM-Modul mit einem großen Luftkühlungskühlkörper. Diese Luftkühlung ist der AMD Instinct MI350X.

AMD Instinct MI350X Kühler
Hier sind acht davon auf dem UBB. Dies ist ähnlich wie das, was wir oben gesehen haben, nur mit den acht großen Kühlkörpern.

AMD Instinct MI350X UBB 8 GPU
Hier ist eine weitere Ansicht der Kühlkörper von der SMC- und Griffseite.

AMD Instinct MI350X UBB 8 GPU-Kühlkörperprofil
Als Referenz ist hier das UBB des AMD MI300X:

AMD MI300X 8 GPU OAM UBB 1
AMD bietet hiervon auch die flüssigkeitsgekühlte Version MI355X an, die eine höhere TDP und eine höhere Leistung pro Karte ermöglicht.
KI-Server der AMD MI350-Serie
Zu den Partnern gehören Supermicro (4U/2U flüssigkeitsgekühlt, bis zu acht MI355X), Compal (7U, bis zu acht) und ASRock (4U, acht MI355X).
MI350-Rack-Bereitstellungen
Einzelne Knoten maximal acht Karten (2,304 GB Speicher, bis zu 161 PFlops FP6/FP4). Luftkühlung skaliert auf 64 Karten; Flüssigkeitskühlung auf 128. Ein 128-Karten-Setup bietet 36 TB Speicher und bis zu 2.57 EFlops FP6/FP4.
Fazit: AMDs Revolution der Flüssigkeitskühlung
Die MI350-Serie von AMD und der Cluster von TensorWave unterstreichen einen entscheidenden Wandel in der KI-Flüssigkeitskühlung, stellen Monopole in Frage und steigern die Effizienz. Angesichts der steigenden KI-Nachfrage versprechen diese Innovationen Kosteneinsparungen und Skalierbarkeit.
FiberMall unterstützt Ihre KI-Infrastruktur mit erstklassigen optischen Kommunikationslösungen. Besuchen Sie unsere Website oder kontaktieren Sie unseren Kundensupport für eine individuelle Beratung.
Ähnliche Produkte:
-
OSFP-400GF-MPO1M 400G OSFP SR4 MPO-12 Buchse Pigtail 1m Immersion Flüssigkeitskühlung Optische Transceiver $1950.00
-
OSFP-400GM-MPO1M 400G OSFP SR4 MPO-12 Stecker Pigtail 1m Immersion Flüssigkeitskühlung Optische Transceiver $1950.00
-
OSFP-400GF-MPO3M 400G OSFP SR4 MPO-12 Buchse Pigtail 3m Immersion Flüssigkeitskühlung Optische Transceiver $1970.00
-
OSFP-400GM-MPO3M 400G OSFP SR4 MPO-12 Stecker Pigtail 3m Immersion Flüssigkeitskühlung Optische Transceiver $1970.00
-
OSFP-400GF-MPO60M 400G OSFP SR4 MPO-12 Buchse Pigtail 60m Immersion Flüssigkeitskühlung Optische Transceiver $2025.00
-
OSFP-400GM-MPO60M 400G OSFP SR4 MPO-12 Stecker Pigtail 60m Immersion Flüssigkeitskühlung Optische Transceiver $2025.00
-
OSFP-800G85F-MPO60M 800G OSFP SR8 MPO-12 Buchse Pigtail 60m Immersion Flüssigkeitskühlung Optische Transceiver $2400.00
-
OSFP-800G85M-MPO60M 800G OSFP SR8 MPO-12 Stecker Pigtail 60m Immersion Flüssigkeitskühlung Optische Transceiver $2400.00
-
OSFP-800G85F-MPO5M 800G OSFP SR8 MPO-12 Buchse Pigtail 5m Immersion Flüssigkeitskühlung Optische Transceiver $2330.00
-
OSFP-800G85M-MPO5M 800G OSFP SR8 MPO-12 Stecker Pigtail 5m Immersion Flüssigkeitskühlung Optische Transceiver $2330.00
-
OSFP-800G85F-MPO1M 800G OSFP SR8 MPO-12 Buchse Pigtail 1m Immersion Flüssigkeitskühlung Optische Transceiver $2250.00
-
OSFP-800G85M-MPO1M 800G OSFP SR8 MPO-12 Stecker Pigtail 1m Immersion Flüssigkeitskühlung Optische Transceiver $2250.00