Unabhängiger Vergleich Aktualisiert April 2026 20 GPU-Anbieter getestet Echte Stundenpreise

H100 mieten · Mai 2026

NVIDIA H100 mieten — die günstigsten Cloud-Anbieter 2026

H100 stundenweise mieten ohne Vorauszahlung — 16 Anbieter verglichen. Ab 1,99 $/h, kein Mindestvertrag.

H100 mieten statt kaufen — was du 2026 wissen musst

Die NVIDIA H100 ist 2026 das meistgemietete Datacenter-GPU für LLM-Training und High-Throughput-Inferenz. Im Gegensatz zu Kauf oder Leasing brauchst du beim Cloud-Mieten keine Vorauszahlung, kein Rack-Space und keinen Hardware-Support — du zahlst nur für die tatsächlich genutzten Stunden.

Unter den 16 Anbietern, die H100s vermieten, liegen die Stundensätze zwischen 1,99 $/h und 4,10 $/h für identische Hardware. Die Preisunterschiede erklären sich durch Overhead-Strukturen: Spezialisierte Clouds (RunPod, Lambda, CoreWeave) verzichten auf Enterprise-Beilagen und geben den Vorteil als Mietpreisvorteil weiter.

Anbieter Startpreis Top-GPUs Stärken Bewertung CTA
H Hyperstack ab 0,11 $/h RTX A6000, A100 80GB, H100 ≤80GB
  • Hervorragende Einsteigerpreise für A6000
  • Vollständiger Networking-Stack (VPC, Firewall, NAT)
★★★★☆ 4.3 Zu den Preisen
T TensorDock ab 0,21 $/h RTX 4090, RTX 3090, A100 80GB ≤80GB
  • Mit dem günstigsten H100-Zugang 2026
  • Großes Host-Netzwerk = bessere Verfügbarkeit
★★★★☆ 4.2 Zu den Preisen
M Massed Compute ab 0,35 $/h RTX A6000, A40, A100 80GB ≤80GB
  • Starkes A6000-/A40-Angebot zum moderaten Preis
  • Vorgefertigte VFX- und KI-Templates
★★★★☆ 4.1 Zu den Preisen
J Jarvis Labs ab 0,39 $/h RTX 6000 Ada, A100 40GB, A100 80GB ≤80GB
  • Hervorragende Preise für H100
  • RTX 6000 Ada — 48 GB zum moderaten Preis
★★★★☆ 4.3 Zu den Preisen
C Crusoe ab 0,40 $/h H100, H200, B200 ≤192GB
  • Mit am günstigsten für H200-Zugang — ab 2,10 $/h
  • B200 verfügbar, während andere Clouds Wartelisten haben
★★★★☆ 4.4 Zu den Preisen
Scaleway ab €0,83/h L4, L40S, H100 ≤80GB
  • Starke EU-Präsenz (Paris + Amsterdam)
  • Reife Cloud-Plattform (S3, k8s, Networking)
★★★★☆ 4.0 Zu den Preisen
T Together AI ab 1,49 $/h H100, H200, A100 80GB ≤141GB
  • Erstklassige Inferenz-Performance
  • Exzellente Open-Source-Modell-Abdeckung
★★★★☆ 4.4 Zu den Preisen
C CoreWeave ab 2,06 $/h H100 SXM, A100 SXM, A40 ≤80GB
  • Beste Multi-Node-GPU-Cluster-Performance
  • Schnelle InfiniBand-Verbindungen
★★★★☆ 4.4 Zu den Preisen
Google Cloud GPU ab 2,48 $/h A100 40GB, A100 80GB, H100 ≤80GB
  • Beste TPU-Verfügbarkeit für TF-Workloads
  • Tiefe Vertex-AI- und BigQuery-Integration
★★★★☆ 4.3 Zu den Preisen
Azure GPU (NCv3/NDA) ab 2,94 $/h A100, H100, V100 ≤80GB
  • Tiefe OpenAI- und Azure-OpenAI-Integration
  • Beste Wahl für Microsoft-Stack-Unternehmen
★★★★☆ 4.1 Zu den Preisen
AWS GPU (EC2) ab 3,06 $/h A100, H100, V100 ≤80GB
  • Umfassendste ML-Toolchain (SageMaker)
  • Spot-Instanzen für massive Kostenersparnis
★★★★☆ 4.2 Zu den Preisen
#1
V

Vast.ai

Günstigster GPU-Cloud — Peer-to-Peer-Marktplatz für Budget-Training

ab 0,10 $/h ★ 4.1
  • Absolut günstigste verfügbare GPU-Compute
  • Größte GPU-Auswahl inklusive Consumer-Karten
Zu den Preisen →
Preis aktuell?
#2
H

Hyperstack

Globaler GPU-Cloud-Spezialist — H100, A100 80GB und L40 ab 0,11 $/h

ab 0,11 $/h ★ 4.3
  • Hervorragende Einsteigerpreise für A6000
  • Vollständiger Networking-Stack (VPC, Firewall, NAT)
Zu den Preisen →
Preis aktuell?
#3
R

RunPod

Beste Preis-Leistung — riesige Auswahl, Community- und Secure-Cloud

ab 0,20 $/h ★ 4.6
  • Günstigste Community-GPUs ab 0,20 $/h
  • Riesige GPU-Auswahl inklusive H100
Zu den Preisen →
Preis aktuell?
#4
T

TensorDock

GPU-Cloud-Marktplatz — RTX 4090 ab 0,21 $/h, H100 ab 1,99 $/h

ab 0,21 $/h ★ 4.2
  • Mit dem günstigsten H100-Zugang 2026
  • Großes Host-Netzwerk = bessere Verfügbarkeit
Zu den Preisen →
Preis aktuell?
#5
M

Massed Compute

Workstation-Grade-GPUs für KI/ML/VFX — A100 ab 1,79 $/h

ab 0,35 $/h ★ 4.1
  • Starkes A6000-/A40-Angebot zum moderaten Preis
  • Vorgefertigte VFX- und KI-Templates
Zu den Preisen →
Preis aktuell?
#6
J

Jarvis Labs

On-Demand H100 / A100 / RTX 6000 Ada ab 0,39 $/h

ab 0,39 $/h ★ 4.3
  • Hervorragende Preise für H100
  • RTX 6000 Ada — 48 GB zum moderaten Preis
Zu den Preisen →
Preis aktuell?

Häufige Fragen

Wo kann ich am günstigsten eine H100 mieten? +

RunPod Secure Cloud vermietet H100 80GB ab 1,99 $/h ohne Mindestlaufzeit. RunPod Community kann noch günstiger sein (~1,40–1,60 $/h), ist aber unterbrechbar und somit nur für fehlertolerante Workloads geeignet. Für günstige EU-Verfügbarkeit ist CoreWeave Amsterdam/Helsinki ab 2,06 $/h die beste Option.

Brauche ich Vorkasse oder Kreditkarte? +

Nein zur Vorkasse — alle großen Anbieter (RunPod, Lambda Labs, CoreWeave) nutzen Pay-as-you-go mit Kreditkarte oder Prepaid-Guthaben. RunPod benötigt eine Kreditkarte, bucht aber erst nach Nutzung ab. Lambda Labs erlaubt auch Prepaid-Credits. Für Enterprise-Volumen bieten alle Rechnungsstellung (Netto 30) an.

Welche Vertragslaufzeit gilt beim H100-Mieten? +

On-Demand bedeutet keine feste Laufzeit — du mietest eine H100 für eine Stunde und kannst danach sofort stoppen. Reserved Instances (1–3 Monate) bei RunPod, Lambda oder CoreWeave kosten 15–30 % weniger, binden aber Budget. Für Forschung und Experimente ist On-Demand fast immer sinnvoller.

H100 für eine Stunde mieten — geht das wirklich? +

Ja, alle On-Demand-Anbieter fakturieren pro angefangene Stunde (RunPod sogar pro Minute). Für einen schnellen Inference-Test oder ein kleines Fine-Tuning reichen oft 2–4 Stunden. Beachte: Kaltstartzeit (Container-Pull, Modell-Download) kostet 5–15 Minuten — plane das in deinen Stunden-Budget ein.

H100 vs. A100 zum Mieten — was lohnt sich? +

Die H100 80GB kostet ~2,00 $/h, die A100 80GB ~1,30–1,60 $/h. Für LLM-Training ab 13B-Parametern ist H100 dank Transformer Engine (FP8) 2–3× schneller als A100 — der höhere Stundensatz amortisiert sich. Für Inferenz kleinerer Modelle (<13B) oder Batch-Jobs ohne Zeit-Constraint ist A100 kosteneffizienter.