Crusoe
Klima-positive GPU-Cloud — H100, H200, B200 und MI300X auf grüner Energie
- Mit am günstigsten für H200-Zugang — ab 2,10 $/h
- B200 verfügbar, während andere Clouds Wartelisten haben
MI300X-Cloud-Vergleich · Mai 2026
AMDs 192-GB-Flaggschiff — exklusiv auf Crusoe 2026. 5,3 TB/s Bandbreite, 1300 TFLOPS BF16, Llama-3-405B-Inferenz auf 4 GPUs. Ab 2,50 $/h.
Die AMD MI300X 192GB ist AMDs Flaggschiff-KI-Beschleuniger — und 2026 exklusiv auf Crusoe verfügbar. Mit 192 GB HBM3, 5,3 TB/s Speicherbandbreite und ~1300 TFLOPS BF16 erreicht sie die B200 beim rohen VRAM und kostet dabei deutlich weniger. Bei großer LLM-Inferenz konkurriert die MI300X direkt mit der H100 SXM zu einem günstigeren Preis.
Der Haken: Du arbeitest mit ROCm, nicht CUDA. PyTorch on ROCm ist ausgereift und gut unterstützt, und Frameworks wie vLLM, Axolotl und JAX haben ROCm-Backends. Aber proprietäre CUDA-Bibliotheken (cuDNN-Custom-Kernels, APEX, einige Custom-Attention-Implementierungen) laufen möglicherweise nicht ohne Portierungsaufwand. Wenn dein Stack auf PyTorch läuft, bist du wahrscheinlich auf der sicheren Seite.
Crusoes MI300X ist das versteckte Juwel des Cloud-Computings 2026. 192 GB VRAM für 2,50–4,00 $/h — derselbe Speicher wie eine B200 zu etwa dem halben Preis — ermöglicht dir, Llama-3-405B-Inferenz in FP8 auf einem einzelnen Knoten mit 8× MI300X (1,5 TB VRAM) auszuführen. Keine andere Cloud-Option bietet diese Kapazität für unter 4 $/h pro GPU.
| Anbieter | Startpreis | Top-GPUs | Stärken | Bewertung | CTA |
|---|---|---|---|---|---|
| Crusoe | ab 0,40 $/h | H100, H200, B200 ≤192GB |
| ★★★★☆ | Zu den Preisen |
Klima-positive GPU-Cloud — H100, H200, B200 und MI300X auf grüner Energie
Crusoe ist 2026 der einzige Cloud-Anbieter mit On-Demand-MI300X-Zugang — ein exklusives Angebot. Die Preise beginnen ab 2,50 $/h pro GPU On-Demand. Für große Cluster oder reservierte Kapazität kontaktiere Crusoes Vertriebsteam für Mengenpreise.
Bei speicherbeschränkter Inferenz (großes LLM-Serving) gewinnt MI300X oft: 192 GB HBM3 vs. 80 GB bei H100 SXM, und niedrigere Kosten pro GPU. Bei CUDA-optimierten Training-Workloads hat H100 bessere Ökosystem-Unterstützung und FlashAttention-3-Optimierungen. MI300X ist die richtige Wahl, wenn dein Stack ROCm-kompatibel ist und VRAM der Engpass ist.
PyTorch 2.x hat erstklassigen ROCm-Support. JAX/XLA funktioniert gut. vLLM hat ein ROCm-Backend für MI300X-Inferenz. Axolotl und Unsloth haben ROCm-Forks. Bekannte Lücken: einige CUDA-Only-Bibliotheken (cuDNN-Custom-Ops, APEX FusedAdam), proprietäre Inferenz-Runtimes (TensorRT). Prüfe deine spezifischen Abhängigkeiten, bevor du dich für MI300X entscheidest.
Ja — 8× MI300X geben dir 1,536 TB VRAM, genug um Llama-3 405B in FP16 auszuführen (benötigt ~810 GB) mit Puffer. Mit FP8-Quantisierung (via vLLM-ROCm) kannst du es bequem auf 4× MI300X ausführen. Dies ist eines der kosteneffizientesten 405B-Inferenz-Setups, die 2026 verfügbar sind.
MI300X ist deutlich zugänglicher: heute bei Crusoe ab 2,50–4,00 $/h verfügbar, während B200 bei 3,20–5,00 $/h kapazitätsbeschränkt ist. Beide haben 192 GB VRAM. B200 hat höheren FP8-Durchsatz (2,5× vs. 1,4× H100); MI300X hat breitere Ökosystem-Reife bei ROCm vs. frühem Blackwell-Software-Support. Für ROCm-kompatible Workloads bietet MI300X das bessere Preis-Leistungs-Verhältnis.
Wir schicken dir eine E-Mail, wenn GPU-Preise oder Verfügbarkeit sich bei deinem bevorzugten Anbieter ändern.
Kein Spam. Jederzeit abmeldbar.