Vast.ai
Günstigster GPU-Cloud — Peer-to-Peer-Marktplatz für Budget-Training
- Absolut günstigste verfügbare GPU-Compute
- Größte GPU-Auswahl inklusive Consumer-Karten
H100 mieten · Mai 2026
H100 stundenweise mieten ohne Vorauszahlung — 16 Anbieter verglichen. Ab 1,99 $/h, kein Mindestvertrag.
Die NVIDIA H100 ist 2026 das meistgemietete Datacenter-GPU für LLM-Training und High-Throughput-Inferenz. Im Gegensatz zu Kauf oder Leasing brauchst du beim Cloud-Mieten keine Vorauszahlung, kein Rack-Space und keinen Hardware-Support — du zahlst nur für die tatsächlich genutzten Stunden.
Unter den 16 Anbietern, die H100s vermieten, liegen die Stundensätze zwischen 1,99 $/h und 4,10 $/h für identische Hardware. Die Preisunterschiede erklären sich durch Overhead-Strukturen: Spezialisierte Clouds (RunPod, Lambda, CoreWeave) verzichten auf Enterprise-Beilagen und geben den Vorteil als Mietpreisvorteil weiter.
| Anbieter | Startpreis | Top-GPUs | Stärken | Bewertung | CTA |
|---|---|---|---|---|---|
| Vast.ai Editor's Choice | ab 0,10 $/h | RTX 3090, RTX 4090, A100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Hyperstack | ab 0,11 $/h | RTX A6000, A100 80GB, H100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| RunPod Editor's Choice | ab 0,20 $/h | RTX 3090, RTX 4090, A100 80GB ≤80GB |
| ★★★★★ | Zu den Preisen |
| TensorDock | ab 0,21 $/h | RTX 4090, RTX 3090, A100 80GB ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Massed Compute | ab 0,35 $/h | RTX A6000, A40, A100 80GB ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Jarvis Labs | ab 0,39 $/h | RTX 6000 Ada, A100 40GB, A100 80GB ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Lyceum Editor's Choice | ab 0,39 $/h | A100 80GB, H100, H200 ≤141GB |
| ★★★★☆ | Zu den Preisen |
| Crusoe | ab 0,40 $/h | H100, H200, B200 ≤192GB |
| ★★★★☆ | Zu den Preisen |
| Scaleway | ab €0,83/h | L4, L40S, H100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Lambda Labs Editor's Choice | ab 1,10 $/h | A100 40GB, A100 80GB, H100 ≤80GB |
| ★★★★★ | Zu den Preisen |
| Together AI | ab 1,49 $/h | H100, H200, A100 80GB ≤141GB |
| ★★★★☆ | Zu den Preisen |
| Nebius Editor's Choice | ab 1,55 $/h | H100, H200, B200 ≤192GB |
| ★★★★★ | Zu den Preisen |
| CoreWeave | ab 2,06 $/h | H100 SXM, A100 SXM, A40 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Google Cloud GPU | ab 2,48 $/h | A100 40GB, A100 80GB, H100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Azure GPU (NCv3/NDA) | ab 2,94 $/h | A100, H100, V100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| AWS GPU (EC2) | ab 3,06 $/h | A100, H100, V100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
Günstigster GPU-Cloud — Peer-to-Peer-Marktplatz für Budget-Training
Globaler GPU-Cloud-Spezialist — H100, A100 80GB und L40 ab 0,11 $/h
Beste Preis-Leistung — riesige Auswahl, Community- und Secure-Cloud
GPU-Cloud-Marktplatz — RTX 4090 ab 0,21 $/h, H100 ab 1,99 $/h
Workstation-Grade-GPUs für KI/ML/VFX — A100 ab 1,79 $/h
On-Demand H100 / A100 / RTX 6000 Ada ab 0,39 $/h
RunPod Secure Cloud vermietet H100 80GB ab 1,99 $/h ohne Mindestlaufzeit. RunPod Community kann noch günstiger sein (~1,40–1,60 $/h), ist aber unterbrechbar und somit nur für fehlertolerante Workloads geeignet. Für günstige EU-Verfügbarkeit ist CoreWeave Amsterdam/Helsinki ab 2,06 $/h die beste Option.
Nein zur Vorkasse — alle großen Anbieter (RunPod, Lambda Labs, CoreWeave) nutzen Pay-as-you-go mit Kreditkarte oder Prepaid-Guthaben. RunPod benötigt eine Kreditkarte, bucht aber erst nach Nutzung ab. Lambda Labs erlaubt auch Prepaid-Credits. Für Enterprise-Volumen bieten alle Rechnungsstellung (Netto 30) an.
On-Demand bedeutet keine feste Laufzeit — du mietest eine H100 für eine Stunde und kannst danach sofort stoppen. Reserved Instances (1–3 Monate) bei RunPod, Lambda oder CoreWeave kosten 15–30 % weniger, binden aber Budget. Für Forschung und Experimente ist On-Demand fast immer sinnvoller.
Ja, alle On-Demand-Anbieter fakturieren pro angefangene Stunde (RunPod sogar pro Minute). Für einen schnellen Inference-Test oder ein kleines Fine-Tuning reichen oft 2–4 Stunden. Beachte: Kaltstartzeit (Container-Pull, Modell-Download) kostet 5–15 Minuten — plane das in deinen Stunden-Budget ein.
Die H100 80GB kostet ~2,00 $/h, die A100 80GB ~1,30–1,60 $/h. Für LLM-Training ab 13B-Parametern ist H100 dank Transformer Engine (FP8) 2–3× schneller als A100 — der höhere Stundensatz amortisiert sich. Für Inferenz kleinerer Modelle (<13B) oder Batch-Jobs ohne Zeit-Constraint ist A100 kosteneffizienter.
Wir schicken dir eine E-Mail, wenn GPU-Preise oder Verfügbarkeit sich bei deinem bevorzugten Anbieter ändern.
Kein Spam. Jederzeit abmeldbar.