Crusoe
Klima-positive GPU-Cloud — H100, H200, B200 und MI300X auf grüner Energie
- Mit am günstigsten für H200-Zugang — ab 2,10 $/h
- B200 verfügbar, während andere Clouds Wartelisten haben
B200-Cloud-Vergleich · Mai 2026
NVIDIAs stärkste GPU — 192 GB HBM3e, 8 TB/s Bandbreite, 2,5× H100 bei FP8. Nur 2 Clouds mit On-Demand-Zugang. Begrenzter Frühzugang ab 3,20 $/h.
Die NVIDIA B200 192GB ist 2026 NVIDIAs leistungsstärkste GPU — der erste Blackwell-Beschleuniger mit Cloud-Verfügbarkeit. Mit 192 GB HBM3e, 8 TB/s Speicherbandbreite und 2,5× dem FP8-Durchsatz der H100 setzt sie eine neue Obergrenze für Frontier-Modell-Training und FP4/FP8-Workloads.
Nur 2 Clouds bieten derzeit B200-Zugang — Crusoe und Nebius — und auch dort ist die Kapazität begrenzt und weitgehend auf Einladung beschränkt. Die On-Demand-Stundenpreise reichen von 3,20 $/h bis 5,00 $/h. Die meisten großen Hyperscaler und Spezial-Clouds stehen im Mai 2026 noch auf der Warteliste.
Die B200 ist eine Spezialkarte für Frontier-Workloads. Wenn du im Maßstab von 100B+-Parameter-Modellen trainierst, FP4-Inferenz betreibst oder die absolut höchste verfügbare Speicherbandbreite benötigst, ist die B200 unübertroffen. Für alles andere bietet die H200 vergleichbaren VRAM (141 GB vs. 192 GB) bei deutlich besserer Verfügbarkeit.
| Anbieter | Startpreis | Top-GPUs | Stärken | Bewertung | CTA |
|---|---|---|---|---|---|
| Crusoe | ab 0,40 $/h | H100, H200, B200 ≤192GB |
| ★★★★☆ | Zu den Preisen |
| Nebius Editor's Choice | ab 1,55 $/h | H100, H200, B200 ≤192GB |
| ★★★★★ | Zu den Preisen |
Klima-positive GPU-Cloud — H100, H200, B200 und MI300X auf grüner Energie
EU-souveräne KI-Cloud aus den Niederlanden — volle DSGVO-Konformität, H100 bis B200
Crusoe bietet B200-Zugang ab 3,20 $/h On-Demand — die niedrigste öffentlich genannte Rate. Nebius liegt bei 5,00 $/h. Beide Anbieter begrenzen den Zugang; erwarte, auf eine Warteliste zu kommen oder den Vertrieb für garantierte Kapazität zu kontaktieren.
B200 lohnt sich für Frontier-Modell-Training bei 100B+-Parametern, FP4/FP8-Präzisions-Workloads und Szenarien, bei denen du den absolut höchsten Durchsatz benötigst. H200 ist für die meisten Teams die bessere praktische Wahl: 4× mehr Cloud-Anbieter, breitere Verfügbarkeit und nahezu identischer VRAM (141 GB vs. 192 GB). H200 ist im Schnitt ~40 % günstiger pro Stunde.
Die B200 liefert 2,5× H100-Durchsatz bei FP8-Training, 8 TB/s Speicherbandbreite (vs. 3,35 TB/s bei H100) und 192 GB VRAM in einer einzelnen GPU. Sie führt auch FP4-Präzision ein, was noch größere Modelle ohne Quantisierungsverlust ermöglicht. NVLink 5.0 verdoppelt die Multi-GPU-Bandbreite gegenüber H100.
Im Mai 2026 haben Crusoe und Nebius begrenzte On-Demand-Pools, die gelegentlich ohne formale Wartelistenanmeldung öffnen — aber die Kapazität ist während der US-Stoßzeiten knapp. Für garantierten Zugang kontaktiere deren Vertriebsteams für Vereinbarungen zu reservierter Kapazität.
Frontier-Modell-Vortraining (100B–1T Parametermodelle), hochdurchsatzige FP8-Inferenz-Bereitstellung, FP4-quantisierungsfreie Modellbereitstellung und Multi-Node-Jobs, bei denen sich der Bandbreitenvorteil von NVLink 5.0 über Knoten hinweg summiert. Für Fine-Tuning von Sub-70B-Modellen oder Standard-Inferenz ist der Kostenaufschlag gegenüber H200 schwer zu rechtfertigen.
Wir schicken dir eine E-Mail, wenn GPU-Preise oder Verfügbarkeit sich bei deinem bevorzugten Anbieter ändern.
Kein Spam. Jederzeit abmeldbar.