GPU-Cloud-Test · Mai 2026
Salad Test 2026
RTX 3090 für 0,03 $/h klingt unmöglich — aber Salad macht es möglich, indem es ein verteiltes Netzwerk von Gaming-PCs nutzt. Wir analysieren, wie es funktioniert, wann es glänzt und wann du besser woanders schaust.
Bezahlung nur für Nutzung · Keine Leerlaufkosten
Kurzfazit
Salad besetzt eine einzigartige Nische: Es ist die günstigste GPU-Compute auf dem Markt, Punkt. Durch die Bündelung inaktiver Consumer-Gaming-PCs zu einer verwalteten Container-Flotte erreicht Salad Preise, mit denen dedizierte Rechenzentren schlicht nicht mithalten können. Der Kompromiss ist das verteilte Modell selbst — kein persistenter Speicher, unvorhersehbare Latenz und Workloads müssen zustandslos und fehlertolerant sein. Für hochvolumige Inferenz-Jobs (Stable-Diffusion-Rendering, Embedding-Generierung, Batch-Klassifikation) ist Salad ein außergewöhnliches Preis-Leistungs-Angebot. Für Training, Fine-Tuning oder alles, das ein persistentes Dateisystem erfordert, ist es vollständig das falsche Werkzeug.
Was ist Salad?
Salad ist eine verteilte GPU-Cloud, die auf einem Netzwerk von Consumer-Hardware aufgebaut ist — Gaming-PCs, Workstations und Mining-Rigs, die von Einzelpersonen weltweit bereitgestellt werden. Wenn du auf Salad deployst, läuft dein Docker-Container gleichzeitig auf mehreren Nodes. Wenn ein Node offline geht (weil der Besitzer ein Spiel startet oder neu bootet), startet Salad automatisch einen Ersatz-Node. Diese Architektur ermöglicht Preise, die jede Rechenzentrum-Alternative unterbieten.
Die Plattform ist inferenz-first. Salad bietet keinen SSH-Zugang, keine persistenten Volumes und keine interaktiven Notebooks. Stattdessen definierst du eine Container-Gruppe, legst deine gewünschte Replikat-Anzahl fest und Salad verwaltet die Flotte. Das macht es hervorragend für den Einsatz von vLLM, ComfyUI oder einer beliebigen Inferenz-API im großen Maßstab.
Salad vs. Vast.ai vs. RunPod — Preise (Mai 2026)
| GPU | VRAM | Salad | Vast.ai | RunPod |
|---|---|---|---|---|
| RTX 3090 | 24 GB | 0,03 $/h | 0,08 $/h | 0,20 $/h |
| RTX 4090 | 24 GB | 0,05 $/h | 0,15 $/h | 0,35 $/h |
| RTX 3080 | 10 GB | 0,02 $/h | 0,06 $/h | 0,12 $/h |
Salad-Preise entsprechen On-Demand-Container-Gruppen-Tarifen. Durchschnittswerte Mai 2026 — aktuelle Preise auf salad.com prüfen.
Salad Vor- & Nachteile
- Absurd günstig — RTX 3090 ab 0,03 $/h
- Enorme horizontale Skalierung (1000+ Nodes)
- Auto-Fleet-Management für Inferenz
- Keine Daten-Egress-Gebühren
- Verteilt = kein persistenter Speicher
- Nicht für Training geeignet
- Latenz variiert je nach Node-Geografie
Ideal für
- Stable-Diffusion-Massengenerierung — tausende Bilder pro Stunde zu einem Bruchteil der Rechenzentrum-Kosten.
- Embedding-Generierung im Maßstab — Sentence-Transformers oder CLIP über Millionen von Dokumenten günstig betreiben.
- Zustandslose Inferenz-APIs — vLLM oder TGI-Inferenz-Endpunkte mit automatischer horizontaler Skalierung deployen.
- Kostensensitive Batch-Klassifikation — Nacht-Batch-Jobs, bei denen Unterbrechungen tolerierbar sind und der Preis an erster Stelle steht.
Salad vs. Vast.ai — Unterbrechbare Compute
Vast.ai ist die andere erste Anlaufstelle für günstige, unterbrechbare GPU-Compute. Der wesentliche Unterschied liegt in der Architektur: Vast.ai gibt dir einzelne Maschinen per SSH, auf denen du persistente Prozesse ausführen und die du direkt kontrollieren kannst. Salad abstrahiert die Hardware vollständig — du berührst nie einen bestimmten Node. Für Inferenz-Fleet-Deployments ist Salad einfacher und günstiger. Für Trainings-Jobs, die Checkpointing, persistenten Speicher und interaktiven Zugang benötigen, ist Vast.ai flexibler. Auf der reinen Preisebene gewinnt Salad deutlich bei RTX-3090-Klasse-Hardware.
Salad vs. RunPod — Inferenz-Fokus
RunPod Serverless ist Salads direktester Konkurrent für verwaltete Inferenz. RunPod Serverless bietet Scale-to-Zero-Endpunkte mit Cold Starts von 5–15 Sekunden. Salad hält Container über seine verteilte Flotte warm, was effektive Cold-Start-Zeiten verkürzen kann, wenn Replikate bereits zugewiesen sind. RunPods Rechenzentrum-Nodes bieten konsistentere Latenz; Salads verteilte Nodes sind günstiger, aber geografisch variabel. Für hochvolumige, latenztolerant Inferenz ist Salads Preisvorteil überzeugend. Für latenzempfindliche Produktions-APIs, bei denen Vorhersagbarkeit wichtig ist, ist RunPod Secure Cloud die bessere Wahl.
Feature-Überblick
Salads Container-Plattform ist unkompliziert zu bedienen. Du definierst ein Container-Image, setzt Umgebungsvariablen, wählst den GPU-Tier (RTX 3070 / 3080 / 3090 / 4090) und legst eine Replikat-Anzahl fest. Die Plattform verteilt deinen Container automatisch auf verfügbare Nodes. Du bekommst einen öffentlichen HTTPS-Endpunkt für deine Inferenz-API ohne weitere Konfiguration.
Die Auto-Scaling-Funktion ist besonders wertvoll: Du kannst Mindest- und Höchstzahlen von Replikaten festlegen und Salad nach Warteschlangenlänge skalieren lassen. Das macht es praktisch, Inferenz-Services mit unvorhersehbaren Traffic-Mustern zu betreiben — zahle für null Nodes im Leerlauf, skaliere zu Hunderten in Spitzenzeiten.
Es gibt keinen persistenten Speicher, aber Salad unterstützt das Laden von Modellgewichten aus S3-kompatiblem Speicher beim Container-Start. Das ist etwas langsamer als lokaler Speicher, aber für die meisten Inferenz-Szenarien praktikabel. Modelle unter 10 GB laden schnell genug, sodass die Startlatenz kein wesentliches Problem darstellt.
Wer sollte Salad nutzen
Salad ist ideal für Entwickler und Unternehmen, die hochvolumige, zustandslose Inferenz-Workloads betreiben, bei denen der Preis das primäre Kriterium ist. Wenn du tausende Bilder, tausende Embeddings oder eine hochdurchsatzfähige LLM-API servierst, bei der etwas Latenz-Varianz akzeptabel ist, kann Salad deine GPU-Compute-Rechnung um 60–80 % gegenüber Rechenzentrum-Alternativen senken.
Nutze Salad NICHT, wenn du brauchst: persistenten Speicher zwischen Runs, interaktive Jupyter-Sitzungen, verteiltes Multi-GPU-Training, garantierte Latenz-SLAs oder die Möglichkeit, per SSH auf deine Compute-Nodes zuzugreifen.
Fazit
Salad erhält 3,9/5,0 — nicht weil es schlecht ist, sondern weil das verteilte Modell echte Einschränkungen mit sich bringt, die es für einen Großteil der GPU-Cloud-Anwendungsfälle ausschließen. Innerhalb seiner vorgesehenen Nische — großangelegte, zustandslose Inferenz — ist es wohl das beste Preis-Leistungs-Angebot überhaupt. Der RTX-3090-Preis von 0,03 $/h ist real, das Auto-Scaling funktioniert gut und die Richtlinie ohne Egress-Gebühren ist auf diesem Markt wirklich ungewöhnlich.
Salad FAQ
Ist Salad für Produktions-Inferenz zuverlässig?
Salad wurde für zustandslose, fehlertolerante Inferenz-Workloads entwickelt. Da die Plattform auf verteilter Consumer-Hardware (Heim-Gaming-PCs) läuft, können einzelne Nodes jederzeit offline gehen. Die Plattform leitet Anfragen automatisch um, aber das macht Salad ungeeignet für einzelne, zustandsbehaftete Anwendungen. Für skalierte Produktions-Inferenz mit Auto-Scaling funktioniert es gut; für interaktive Trainingssitzungen solltest du woanders schauen.
Kann ich Trainings-Jobs auf Salad ausführen?
Nein — Salad ist explizit für Inferenz konzipiert, nicht für Training. Es gibt keinen persistenten Speicher zwischen Runs, keine Inter-Node-Kommunikation für verteiltes Training, und Sitzungen können jederzeit unterbrochen werden. Für Trainings-Jobs mit Persistenz und Zuverlässigkeit sind RunPod Secure Cloud oder Lambda Labs besser geeignet.
Wie funktioniert die Abrechnung bei Salad?
Salad berechnet pro Container-Gruppen-Stunde. Du zahlst nur für tatsächlich verbrauchte Rechenleistung — wenn Nodes inaktiv sind, fallen keine Kosten an. Es gibt keine Datentransfer-Gebühren, was bei großangelegter Inferenz, bei der du Gigabytes an Ausgabe erzeugst, wichtig ist.
Welche Container-Formate unterstützt Salad?
Salad ist eine reine Container-Plattform — du verpackst dein Modell und deinen Inferenz-Server in ein Docker-Image, lädst es in eine Registry hoch, und Salad verteilt es auf seiner Flotte. Das bedeutet, jedes Framework (vLLM, TGI, Triton, ComfyUI, eigene FastAPI) funktioniert, sofern es in einem Container läuft.
Wie vergleicht sich Salad mit Vast.ai für Inferenz?
Beide sind günstig, aber mit sehr unterschiedlichen Architekturen. Vast.ai ermöglicht SSH-Zugang zu bestimmten Maschinen für persistente Jobs. Salad ist eine verwaltete Container-Flotte — du definierst deinen Container und Salad verteilt ihn. Salad lässt sich einfacher horizontal skalieren; Vast.ai gibt dir mehr Kontrolle über einzelne Maschinen. Für reine Inferenz-Fleet-Deployments gewinnt Salad bei Einfachheit und Preis.