Vast.ai
Günstigster GPU-Cloud — Peer-to-Peer-Marktplatz für Budget-Training
- Absolut günstigste verfügbare GPU-Compute
- Größte GPU-Auswahl inklusive Consumer-Karten
A100-Cloud-Vergleich · April 2026
Das kosteneffiziente Arbeitspferd für ML — 18 Clouds mit A100 40GB und 80GB im Vergleich. Von 1,09 $/h bis 3,67 $/h für identische Hardware.
Die NVIDIA A100 bleibt 2026 das Arbeitspferd des ML-Bereichs. Während die H100 mehr rohe FP8-Leistung hat, gewinnt die A100 bei der Kosteneffizienz für Fine-Tuning bis 70B-Parameter, Embedding-Generierung, Bildtraining und die meisten Forschungs-Workloads.
18 Clouds bieten A100 on-demand. Der Preis variiert um 3,4× — von 1,09 $/h (Vast.ai Community 80GB) bis 3,67 $/h (AWS on-demand). Die Verfügbarkeit ist deutlich besser als bei H100; Engpässe sind außerhalb der Hyperscaler-Spitzenzeiten selten.
Beste Preis-Leistung: RunPod und Lambda Labs für Produktions-Zuverlässigkeit, Vast.ai für Batch-Training, Hetzner GPU für EU/DSGVO-Compliance.
| Anbieter | Startpreis | Top-GPUs | Stärken | Bewertung | CTA |
|---|---|---|---|---|---|
| Vast.ai Editor's Choice | ab 0,10 $/h | RTX 3090, RTX 4090, A100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Hyperstack | ab 0,11 $/h | RTX A6000, A100 80GB, H100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| RunPod Editor's Choice | ab 0,20 $/h | RTX 3090, RTX 4090, A100 80GB ≤80GB |
| ★★★★★ | Zu den Preisen |
| TensorDock | ab 0,21 $/h | RTX 4090, RTX 3090, A100 80GB ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Hetzner GPU | ab €0,35/h | A100 PCIe, GTX 1080 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Massed Compute | ab 0,35 $/h | RTX A6000, A40, A100 80GB ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Jarvis Labs | ab 0,39 $/h | RTX 6000 Ada, A100 40GB, A100 80GB ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Lyceum Editor's Choice | ab 0,39 $/h | A100 80GB, H100, H200 ≤141GB |
| ★★★★☆ | Zu den Preisen |
| Crusoe | ab 0,40 $/h | H100, H200, B200 ≤192GB |
| ★★★★☆ | Zu den Preisen |
| Paperspace | ab 0,45 $/h | A100, A6000, RTX 4000 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| OVH GPU | ab €0,54/h | T4, V100, A100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Lambda Labs Editor's Choice | ab 1,10 $/h | A100 40GB, A100 80GB, H100 ≤80GB |
| ★★★★★ | Zu den Preisen |
| Together AI | ab 1,49 $/h | H100, H200, A100 80GB ≤141GB |
| ★★★★☆ | Zu den Preisen |
| Nebius Editor's Choice | ab 1,55 $/h | H100, H200, B200 ≤192GB |
| ★★★★★ | Zu den Preisen |
| CoreWeave | ab 2,06 $/h | H100 SXM, A100 SXM, A40 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Google Cloud GPU | ab 2,48 $/h | A100 40GB, A100 80GB, H100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Azure GPU (NCv3/NDA) | ab 2,94 $/h | A100, H100, V100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| AWS GPU (EC2) | ab 3,06 $/h | A100, H100, V100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
Günstigster GPU-Cloud — Peer-to-Peer-Marktplatz für Budget-Training
Globaler GPU-Cloud-Spezialist — H100, A100 80GB und L40 ab 0,11 $/h
Beste Preis-Leistung — riesige Auswahl, Community- und Secure-Cloud
GPU-Cloud-Marktplatz — RTX 4090 ab 0,21 $/h, H100 ab 1,99 $/h
Günstige EU-GPU-Server — A100 zu europäischen Preisen
Workstation-Grade-GPUs für KI/ML/VFX — A100 ab 1,79 $/h
Für Llama-3 8B / Mistral 7B / Stable-Diffusion-Training: 40GB reicht und ist ~30 % günstiger. Für Llama-3-70B-QLoRA, Video-AI oder Batch-Größen >32 bei 13B-Modellen: 80GB. Mit FlashAttention-3 und 8-bit-Optimierern wird der Preisvorteil von 40GB größer.
A100 wählen für: Fine-Tuning ≤70B mit QLoRA, ML-Forschung, Bildgenerierung, RAG/Embedding-Pipelines und alles, was nicht durch FP8/Transformer Engine ausgebremst wird. H100 lohnt sich nur für volle Fine-Tunes großer Modelle, Multi-Node-Training oder Production-Inferenz von >70B-Modellen.
Vast.ai Community bei 1,09 $/h (unterbrechbar) ist absolut am günstigsten. Für zuverlässige Produktion: RunPod Secure bei 1,79 $/h oder Lambda Labs bei 1,79 $/h. AWS p4d on-demand bei 3,67 $/h — vermeiden, außer du brauchst SageMaker-Integration.
Ja — die A100 ist die kosteneffiziente Standardwahl für die meisten ML-Workloads. H100 dominiert nur bei großem Training (≥70B volles Fine-Tuning, Multi-Node) und High-Throughput-FP8-Inferenz. Für ~80 % praktischer ML-Anwendungen ist die A100 80GB der bessere Kauf.
Hetzner GPU bietet A100 PCIe in Deutschland und Finnland für €0,35/h — die günstigste A100 in Europa. OVH (FR/DE) bietet A100 für €0,54/h. Beide sind DSGVO-konform. CoreWeave hat ebenfalls EU-H100/A100-Kapazität.
Wir schicken dir eine E-Mail, wenn GPU-Preise oder Verfügbarkeit sich bei deinem bevorzugten Anbieter ändern.
Kein Spam. Jederzeit abmeldbar.