GPU-Compute-Kostenschätzer · April 2026
GPU-Cloud-Kostenrechner
Schätze, was dein Trainingslauf oder Inferenz-Workload bei 20 GPU-Clouds kostet. Side-by-side, mit Ersparnis gegenüber dem teuersten Anbieter.
Kosten bei 20 GPU-Cloud-Anbietern
Lädt...
| Rang | Anbieter | GPU | Zeit | Gesamtkosten | Ggü. teuerstem | CTA |
|---|
Schätzungen verwenden öffentliche TFLOPS-Specs (NVIDIA-Datenblätter), empirische Auslastungsfaktoren aus MLPerf und unsere geprüften April-2026-Preise. Tatsächliche Kosten hängen von Framework, Batch-Size, Sequenzlänge und Anbieter-Verfügbarkeit ab. Teste immer auf deinem Workload, bevor du dich festlegst.
Wie der Rechner funktioniert
Trainingskosten-Formel
FLOPs = M × params × tokens
Stunden = FLOPs / (gpu_TFLOPS × util × 3600)
Kosten = Stunden × gpu_Preis_pro_StundeWobei M der Modell-Multiplikator ist (6 für volles Fine-Tuning, 0,6–1,2 für QLoRA/LoRA nach Hu et al. 2021 + Dettmers et al. 2023).
Inferenz-Formel
Sekunden = tokens / tokens_pro_sek
Stunden = Sekunden / 3600
Kosten = Stunden × gpu_Preis_pro_StundeDurchsatz (Tokens/s) stammt aus öffentlichen Benchmarks bei typischer Batch-Größe. Realer Durchsatz variiert mit Batch + Sequenzlänge.
Warum spezialisierte Clouds gewinnen
Bei identischer Hardware (z.B. H100 80GB) reicht der Preis von 1,99 $/h bis 11,06 $/h. Spezialisierte Clouds (RunPod, Lambda, Vast.ai) sparen Enterprise-Overhead. Hyperscaler bepreisen Ökosystem-Wert, nicht rohe Compute.
Quellen
- GPU-TFLOPS: NVIDIA-Datenblätter (A100, H100, RTX 4090)
- Auslastung: MLPerf v4.0, FlashAttention-3-Paper
- Preise: Geprüft am 30. April 2026 — siehe llms-full.txt für volle Preismatrix