Salad
Verteilte Inferenz-Cloud — RTX 3090/4090 ab 0,03 $/h
- Absurd günstig — RTX 3090 ab 0,03 $/h
- Enorme horizontale Skalierung (1000+ Nodes)
RTX-3090-Cloud-Vergleich · Mai 2026
Die Budget-Consumer-ML-GPU — NVIDIA RTX 3090 24GB ab 0,03 $/h. 4 Clouds verglichen. Am besten für Stable-Diffusion-Fine-Tuning, kleine LLM-Inferenz und Forschung.
Die NVIDIA RTX 3090 24GB ist 2026 die ultimative Consumer-GPU für Budget-ML — eine Karte, die On-Demand unter 0,50 $/h kostet und dennoch 24 GB GDDR6X mit ~71 TFLOPS BF16 bietet. Für Stable-Diffusion-Fine-Tuning, kleine LLM-Inferenz (bis ~13B Parameter mit Quantisierung) und Forschungsexperimente ist sie beim rohen Preis kaum zu schlagen.
Bei 4 GPU-Clouds — RunPod, Vast.ai, TensorDock und Salad — spannt sich die RTX-3090-Preisgestaltung über einen bemerkenswerten Bereich von 0,03 $/h bis 0,50 $/h. Der 0,03-$/h-Preis bei Salad steht für Community-beigesteuerte GPUs zu Spot-Preisen; RunPod Secure Cloud bei 0,50 $/h bietet die zuverlässigste Uptime. Dieser 16-fache Preisunterschied spiegelt den Unterschied zwischen Spot-Unterbrechbarkeit und garantiertem On-Demand wider.
Consumer-ML-Ökonomie ist unschlagbar. Für Stable-Diffusion-XL-Fine-Tuning, Whisper im großen Maßstab oder das Prototyping mit quantisierten 13B-LLMs übertrifft eine RTX 3090 bei 0,10–0,20 $/h jede andere Dollar-für-Dollar-Option. Die Einschränkung ist VRAM: 24 GB bedeutet, dass große Modelle (34B+) Quantisierung erfordern, und Multi-GPU-NVLink ist bei Cloud-RTX-3090-Setups nicht verfügbar.
| Anbieter | Startpreis | Top-GPUs | Stärken | Bewertung | CTA |
|---|---|---|---|---|---|
| Salad | ab 0,03 $/h | RTX 3090, RTX 4090, RTX 3080 ≤24GB |
| ★★★★☆ | Zu den Preisen |
| Vast.ai Editor's Choice | ab 0,10 $/h | RTX 3090, RTX 4090, A100 ≤80GB |
| ★★★★☆ | Zu den Preisen |
| RunPod Editor's Choice | ab 0,20 $/h | RTX 3090, RTX 4090, A100 80GB ≤80GB |
| ★★★★★ | Zu den Preisen |
| TensorDock | ab 0,21 $/h | RTX 4090, RTX 3090, A100 80GB ≤80GB |
| ★★★★☆ | Zu den Preisen |
Verteilte Inferenz-Cloud — RTX 3090/4090 ab 0,03 $/h
Günstigster GPU-Cloud — Peer-to-Peer-Marktplatz für Budget-Training
Beste Preis-Leistung — riesige Auswahl, Community- und Secure-Cloud
GPU-Cloud-Marktplatz — RTX 4090 ab 0,21 $/h, H100 ab 1,99 $/h
Salad bietet RTX 3090 ab 0,03 $/h auf seiner Community-Cloud an — beigesteuert von Einzelpersonen, die Consumer-GPUs betreiben. Dies ist Spot-Preisgestaltung: erwarte Unterbrechungen. Für zuverlässiges On-Demand sind RunPod Secure Cloud bei ~0,50 $/h oder TensorDock bei 0,10–0,20 $/h die verlässlichsten Optionen.
RTX 4090 (24 GB GDDR6X, ~165 TFLOPS FP32) ist für SDXL-Generierung etwa 2× schneller als RTX 3090 (~35 TFLOPS FP32), kostet aber 3–5× mehr pro Stunde. Für hochdurchsatzige SDXL-Produktion gewinnt 4090. Für Fine-Tuning-Experimente, Lernen und geringvolumige Inferenz, wo das Budget wichtig ist, ist RTX 3090 bei 0,10 $/h die bessere Wahl.
24 GB GDDR6X passen Modelle bis ~13B Parameter in FP16 oder bis ~34B in 4-Bit-Quantisierung (via llama.cpp oder bitsandbytes). Für Single-GPU-Inferenz sind Llama-3 8B in FP16 oder Mistral 7B die praktischen Sweet Spots. Llama-3 13B in 4-Bit läuft komfortabel mit Platz für einen KV-Cache.
Ja — 24 GB VRAM ist der Sweet Spot für SDXL-Fine-Tuning mit DreamBooth oder LoRA. Standard-SDXL-DreamBooth erfordert 18–22 GB VRAM; die 3090 schafft das mit 2–6 GB Puffer. Für SDXL + ControlNet Fine-Tuning sind 24 GB oft das empfohlene Minimum. RunPod und Vast.ai sind beliebte Wahlen für diesen Workflow.
A40 (48 GB GDDR6) gewinnt beim VRAM — doppelt so viel wie die 3090 — und ermöglicht größere Modelle und Multi-Modell-Workflows. RTX 3090 gewinnt beim Preis: 0,10–0,20 $/h vs. 0,39–0,99 $/h für A40. Für Workloads, die in 24 GB passen, ist RTX 3090 2–4× günstiger. Für alles, das 25 GB+ VRAM oder ECC-Speicher erfordert, ist A40 der richtige nächste Schritt.
Wir schicken dir eine E-Mail, wenn GPU-Preise oder Verfügbarkeit sich bei deinem bevorzugten Anbieter ändern.
Kein Spam. Jederzeit abmeldbar.