Unabhängiger Vergleich Aktualisiert April 2026 20 GPU-Anbieter getestet Echte Stundenpreise

GPU-Compute-Kostenschätzer · April 2026

GPU-Cloud-Kostenrechner

Schätze, was dein Trainingslauf oder Inferenz-Workload bei 20 GPU-Clouds kostet. Side-by-side, mit Ersparnis gegenüber dem teuersten Anbieter.

Schnell-Presets:

Kosten bei 20 GPU-Cloud-Anbietern

Lädt...

RangAnbieterGPUZeitGesamtkostenGgü. teuerstemCTA

Schätzungen verwenden öffentliche TFLOPS-Specs (NVIDIA-Datenblätter), empirische Auslastungsfaktoren aus MLPerf und unsere geprüften April-2026-Preise. Tatsächliche Kosten hängen von Framework, Batch-Size, Sequenzlänge und Anbieter-Verfügbarkeit ab. Teste immer auf deinem Workload, bevor du dich festlegst.

Wie der Rechner funktioniert

Trainingskosten-Formel

FLOPs = M × params × tokens
Stunden = FLOPs / (gpu_TFLOPS × util × 3600)
Kosten  = Stunden × gpu_Preis_pro_Stunde

Wobei M der Modell-Multiplikator ist (6 für volles Fine-Tuning, 0,6–1,2 für QLoRA/LoRA nach Hu et al. 2021 + Dettmers et al. 2023).

Inferenz-Formel

Sekunden = tokens / tokens_pro_sek
Stunden  = Sekunden / 3600
Kosten   = Stunden × gpu_Preis_pro_Stunde

Durchsatz (Tokens/s) stammt aus öffentlichen Benchmarks bei typischer Batch-Größe. Realer Durchsatz variiert mit Batch + Sequenzlänge.

Warum spezialisierte Clouds gewinnen

Bei identischer Hardware (z.B. H100 80GB) reicht der Preis von 1,99 $/h bis 11,06 $/h. Spezialisierte Clouds (RunPod, Lambda, Vast.ai) sparen Enterprise-Overhead. Hyperscaler bepreisen Ökosystem-Wert, nicht rohe Compute.

Quellen

  • GPU-TFLOPS: NVIDIA-Datenblätter (A100, H100, RTX 4090)
  • Auslastung: MLPerf v4.0, FlashAttention-3-Paper
  • Preise: Geprüft am 30. April 2026 — siehe llms-full.txt für volle Preismatrix