Salad
Verteilte Inferenz-Cloud — RTX 3090/4090 ab 0,03 $/h
- Absurd günstig — RTX 3090 ab 0,03 $/h
- Enorme horizontale Skalierung (1000+ Nodes)
GPU günstig mieten · Mai 2026
13 GPU-Cloud-Anbieter unter 1 $/h — von Schnäppchen-Marktplätzen bis zu zuverlässigen Budget-Clouds. Ab 0,03 $/h, stündliche Abrechnung.
Der Markt für günstige GPU-Server teilt sich 2026 in zwei Kategorien: echte Schnäppchen (Salad, Vast.ai, TensorDock) mit Consumer-Hardware und Marketplace-Preisen auf Commodity-Niveau — und preiswerte Zuverlässigkeit (RunPod, Hetzner, Hyperstack) mit stabilen Datacenter-GPUs unter 1 $/h. Für die erstere Kategorie brauchst du fehlertoleranten Code mit Checkpointing; für die letztere kannst du sie wie normale Cloud-Instanzen behandeln.
Die 13 Anbieter unter 1 $/h unterscheiden sich fundamental von AWS/GCP/Azure: keine Overhead-Beilagen, keine proprietären ML-Plattformen, kein Enterprise-Support. Du zahlst für reine Rechenleistung — und sparst damit 70–90 % gegenüber Hyperscaler-Preisen für identischen GPU-Compute. Für Llama-3-8B-Fine-Tuning über 12 Stunden bedeutet das 4–5 $ statt 37 $ auf AWS.
| Anbieter | Startpreis | Top-GPUs | Stärken | Bewertung | CTA |
|---|---|---|---|---|---|
| Salad | ab 0,03 $/h | RTX 3090, RTX 4090, RTX 3080 ≤24GB |
| ★★★★☆ | Zu den Preisen |
| Vast.ai Editor's Choice | ab 0,10 $/h | RTX 3090, RTX 4090, A100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Hyperstack | ab 0,11 $/h | RTX A6000, A100 80GB, H100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| RunPod Editor's Choice | ab 0,20 $/h | RTX 3090, RTX 4090, A100 80GB ≤80GB |
| ★★★★★ | Zu den Preisen |
| TensorDock | ab 0,21 $/h | RTX 4090, RTX 3090, A100 80GB ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Hetzner GPU | ab €0,35/h | A100 PCIe, GTX 1080 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Massed Compute | ab 0,35 $/h | RTX A6000, A40, A100 80GB ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Jarvis Labs | ab 0,39 $/h | RTX 6000 Ada, A100 40GB, A100 80GB ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Lyceum Editor's Choice | ab 0,39 $/h | A100 80GB, H100, H200 ≤141GB |
| ★★★★☆ | Zu den Preisen |
| Crusoe | ab 0,40 $/h | H100, H200, B200 ≤192GB |
| ★★★★☆ | Zu den Preisen |
| Paperspace | ab 0,45 $/h | A100, A6000, RTX 4000 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| OVH GPU | ab €0,54/h | T4, V100, A100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| Scaleway | ab €0,83/h | L4, L40S, H100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
Verteilte Inferenz-Cloud — RTX 3090/4090 ab 0,03 $/h
Günstigster GPU-Cloud — Peer-to-Peer-Marktplatz für Budget-Training
Globaler GPU-Cloud-Spezialist — H100, A100 80GB und L40 ab 0,11 $/h
Beste Preis-Leistung — riesige Auswahl, Community- und Secure-Cloud
GPU-Cloud-Marktplatz — RTX 4090 ab 0,21 $/h, H100 ab 1,99 $/h
Günstige EU-GPU-Server — A100 zu europäischen Preisen
Salad.com bietet verteilte Consumer-GPUs ab 0,03 $/h — das ist der absolute Marktboden 2026. Für ernsthafte Workloads startet Vast.ai Community bei 0,10 $/h (RTX 3090), RunPod Community bei 0,20 $/h. Hetzner GPU (DE/FI) ist der günstigste Festpreis-Anbieter in der EU mit €0,35/h ohne Unterbrechungsrisiko.
Ja, mit Einschränkungen. Vast.ai ist ein P2P-Marktplatz: Hardware-Qualität und Verfügbarkeit variieren je Host. Für Projekte mit Checkpointing (Trainingsschleifen, Batch-Jobs) ist Vast.ai exzellent — du sparst 60–80 % gegenüber Secure/On-Demand-Tiers. Für Production-Inferenz oder zeitkritische Deployments nimm RunPod Secure oder Lambda Labs.
1. Nutze Community-/Spot-Tiers mit Checkpoint-every-N-steps (spart 50–70 %). 2. Wähle kleinere GPU-Typen, die das Modell trotzdem halten (RTX 4090 24GB statt A100 80GB für <13B mit QLoRA). 3. Vergleiche Angebote auf Vast.ai live — Preise schwanken um bis zu 40 % je nach Tageszeit. 4. Nutze Reservierungen ab 1 Monat bei RunPod oder Hetzner für 15–25 % Rabatt.
Spot/Community-Instanzen kosten 50–70 % weniger als On-Demand, können aber jederzeit unterbrochen werden (Vast.ai, RunPod Community). Lohnt sich für: Batch-Training mit Checkpoints, Hyperparameter-Suche, Daten-Preprocessing. Nicht geeignet für: Produktions-APIs, Echtzeit-Inferenz, Jobs ohne Checkpoint-Logik. Faustregel: Spare Spot für Batch, zahle On-Demand für Services.
Bei günstigen GPU-Clouds zahlst du mit: (1) Unterbrechungsrisiko bei Community-Tiers, (2) variablem Hardware-Zustand bei Marktplatz-Anbietern (Vast.ai), (3) keinem Support-SLA, (4) manueller Infrastruktur-Verwaltung (kein managed ML-Stack wie SageMaker). Für Entwickler und Forscher sind diese Abstriche akzeptabel. Für Enterprise-Produktion mit SLA-Anforderungen sind RunPod Secure oder Hetzner die günstigsten zuverlässigen Optionen.
Wir schicken dir eine E-Mail, wenn GPU-Preise oder Verfügbarkeit sich bei deinem bevorzugten Anbieter ändern.
Kein Spam. Jederzeit abmeldbar.