Vast.ai
Günstigster GPU-Cloud — Peer-to-Peer-Marktplatz für Budget-Training
- Absolut günstigste verfügbare GPU-Compute
- Größte GPU-Auswahl inklusive Consumer-Karten
H100-Cloud-Vergleich · April 2026
Wo man tatsächlich H100-Kapazität bekommt — 16 Clouds verglichen nach On-Demand-Preis, Verfügbarkeit und Cluster-Größe. Ab 1,99 $/h.
Die NVIDIA H100 ist 2026 der dominante Beschleuniger für ernsthaftes LLM-Training und High-Throughput-Inferenz. Verglichen mit der A100 liefert sie ~3× FP16- und ~6× FP8-Durchsatz dank Transformer Engine — aber nicht die Leistung ist der Engpass, sondern die Verfügbarkeit.
Bei den 16 GPU-Clouds mit On-Demand-H100s reichen die Stundenpreise von 1,99 $/h bis 4,10 $/h für identische Hardware. Die Wahl ist selten nur eine Preisfrage — sondern wo du gerade tatsächlich H100-Kapazität bekommst.
Spezialisierte Clouds gewinnen beim Preis. RunPod, Lambda Labs und CoreWeave dominieren On-Demand-H100-Verfügbarkeit und kosten 40–60 % weniger als AWS p5 / GCP A3 / Azure NDA100 v5 bei gleicher Rechenleistung.
| Anbieter | Startpreis | Top-GPUs | Stärken | Bewertung | CTA |
|---|---|---|---|---|---|
| Vast.ai Editor's Choice | ab 0,10 $/h | RTX 3090, RTX 4090, A100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Hyperstack | ab 0,11 $/h | RTX A6000, A100 80GB, H100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| RunPod Editor's Choice | ab 0,20 $/h | RTX 3090, RTX 4090, A100 80GB ≤80GB |
| ★★★★★ | Zu den Preisen |
| TensorDock | ab 0,21 $/h | RTX 4090, RTX 3090, A100 80GB ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Massed Compute | ab 0,35 $/h | RTX A6000, A40, A100 80GB ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Jarvis Labs | ab 0,39 $/h | RTX 6000 Ada, A100 40GB, A100 80GB ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Lyceum Editor's Choice | ab 0,39 $/h | A100 80GB, H100, H200 ≤141GB |
| ★★★★☆ | Zu den Preisen |
| Crusoe | ab 0,40 $/h | H100, H200, B200 ≤192GB |
| ★★★★☆ | Zu den Preisen |
| Scaleway | ab €0,83/h | L4, L40S, H100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Lambda Labs Editor's Choice | ab 1,10 $/h | A100 40GB, A100 80GB, H100 ≤80GB |
| ★★★★★ | Zu den Preisen |
| Together AI | ab 1,49 $/h | H100, H200, A100 80GB ≤141GB |
| ★★★★☆ | Zu den Preisen |
| Nebius Editor's Choice | ab 1,55 $/h | H100, H200, B200 ≤192GB |
| ★★★★★ | Zu den Preisen |
| CoreWeave | ab 2,06 $/h | H100 SXM, A100 SXM, A40 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Google Cloud GPU | ab 2,48 $/h | A100 40GB, A100 80GB, H100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Azure GPU (NCv3/NDA) | ab 2,94 $/h | A100, H100, V100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| AWS GPU (EC2) | ab 3,06 $/h | A100, H100, V100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
Günstigster GPU-Cloud — Peer-to-Peer-Marktplatz für Budget-Training
Globaler GPU-Cloud-Spezialist — H100, A100 80GB und L40 ab 0,11 $/h
Beste Preis-Leistung — riesige Auswahl, Community- und Secure-Cloud
GPU-Cloud-Marktplatz — RTX 4090 ab 0,21 $/h, H100 ab 1,99 $/h
Workstation-Grade-GPUs für KI/ML/VFX — A100 ab 1,79 $/h
On-Demand H100 / A100 / RTX 6000 Ada ab 0,39 $/h
RunPod Secure Cloud bei 1,99 $/h ist die günstigste On-Demand-H100-80GB. RunPod Community kann günstiger sein, ist aber unterbrechbar. Für Reservierungen / Langzeit-Verträge können Lambda Labs und CoreWeave deutlich unter dem 1,99 $/h-Preis anbieten.
AWS p5 (8× H100) ist auf wenige Regionen konzentriert (us-east-1, us-west-2, eu-west-1) und stark von Enterprise-Kunden reserviert. On-Demand-Engpässe sind während der US-Geschäftszeiten üblich. Spezialisierte Clouds wie RunPod und CoreWeave haben größere freie Kontingente.
Für Llama-3-70B-Fine-Tuning oder großes Training ist H100 2–3× schneller und trotz höherem Stundenpreis oft günstiger pro Trainingslauf. Für Inferenz von <13B-Modellen oder Forschungsworkloads ist die A100 80GB kosteneffizienter.
Volles Fine-Tuning: 8× H100 (ein DGX-Equivalent-Knoten) für ~12-24 Stunden pro Epoche bei 100K Samples. Für QLoRA: 1× H100 80GB reicht für ~6-8 Stunden. CoreWeave und Lambda Labs sind am besten für Multi-Node-H100-Jobs (InfiniBand).
H100 SXM (CoreWeave, AWS p5, GCP A3) hat NVLink bis 900 GB/s für Multi-GPU-Jobs, während H100 PCIe (RunPod, Lambda) auf PCIe Gen5 ~128 GB/s begrenzt ist, dafür ~10-15 % günstiger. SXM ist essenziell für ≥4-GPU-Training, PCIe reicht für Single-GPU-Inferenz und ≤2-GPU-Training.
Wir schicken dir eine E-Mail, wenn GPU-Preise oder Verfügbarkeit sich bei deinem bevorzugten Anbieter ändern.
Kein Spam. Jederzeit abmeldbar.