Transparenz · Forschungsprozess
Wie wir GPU-Cloud-Anbieter bewerten
Hinter jedem Preis, jeder Bewertung und jedem Verfügbarkeitsstatus auf GPUHosted steckt ein nachvollziehbarer Prozess. Hier erklären wir genau, wie wir Daten erheben, Anbieter bewerten und Benchmarks durchführen — damit du die Qualität unserer Vergleiche selbst beurteilen kannst.
Preisdaten-Erhebung
Alle Preise auf dieser Seite werden durch wöchentliche manuelle Prüfungen erhoben. Wir pflegen Test-Accounts bei jedem Anbieter und vergleichen den öffentlich beworbenen Preis mit dem tatsächlichen Preis beim Provisioning — diese weichen manchmal aufgrund von Aktionspreisen, regionaler Verfügbarkeit oder Abrechnungsbesonderheiten voneinander ab.
Was unsere Preise bedeuten
- On-Demand-Stundenpreise für eine einzelne GPU-Instanz (keine Mehrjahres-Reservierungen, keine Mengenrabatte sofern nicht angegeben)
- Keine Spot-/Preemptible-Preise außer explizit mit „Community" oder „Spot" gekennzeichnet
- EUR → USD-Umrechnung mit 1 EUR = 1,08 USD (Näherungswert 2026, monatlich aktualisiert)
- Stand: April 2026 — Preise ändern sich häufig, immer direkt beim Anbieter prüfen
Wir scrapen keine Provider-APIs und stützen uns nicht auf Drittanbieter-Aggregatoren. Jeder angezeigte Preis wurde von einem Menschen verifiziert, der sich bis zum Provisioning-Bildschirm durchgeklickt hat.
Verfügbarkeits-Tracking
Der GPU-Verfügbarkeits-Tracker wird täglich gegen 09:00 Uhr UTC aktualisiert. Wir versuchen, jeden aufgeführten GPU-Typ bei jedem Anbieter zu provisionieren und halten fest, was wir sehen.
| Status | Bedeutung | Angezeigte ETA |
|---|---|---|
| ✓ Verfügbar | GPU innerhalb von 5 Minuten provisioniert | — |
| ⚠ Begrenzt | Verfügbar, aber kleiner Restpool; bis zu 30 Min. Wartezeit | Stunden |
| ⌛ Warteliste | Anbieter zeigt Kapazitätswarteschlange oder ETA > 1 Stunde | 1–3 Tage |
| ✗ Ausverkauft | Keine On-Demand-Kapazität; Reservierung oder längere Wartezeit nötig | 1–2 Wochen+ |
Marketplace-Anbieter (Vast.ai, RunPod Community Cloud): Status spiegelt die Größe des aktiven Host-Pools wider, keine Garantie für einen einzelnen Host. Tatsächliche Verfügbarkeit schwankt minutenweise.
Bewertungsmethodik
Jeder Anbieter erhält eine Gesamtbewertung von 1,0 bis 5,0, berechnet als gewichteter Durchschnitt aus 5 Faktoren. Bewertungen werden vierteljährlich oder bei wesentlichen Änderungen eines Anbieters überprüft.
| Faktor | Gewicht | Was wir messen |
|---|---|---|
| Preis-Wettbewerbsfähigkeit | 30% | On-Demand-Preis vs. Median je GPU-Kategorie |
| Zuverlässigkeit & Uptime | 25% | Historische Uptime, Störungshäufigkeit, Spot-Eviction-Raten |
| Entwickler-Erfahrung | 20% | CLI-Qualität, API-Dokumentation, Container-/SSH-Workflow, UI |
| GPU-Vielfalt & Verfügbarkeit | 15% | Angebotene GPU-Typen, On-Demand- vs. Reservierungs-Zugang |
| Support-Qualität | 10% | Antwortzeit, Community-Ressourcen, Dokumentationsvollständigkeit |
Jeder Faktor wird von unserem Redaktionsteam auf Basis direkter Nutzung, veröffentlichter Benchmarks und Community-Feedback mit 1–5 bewertet. Der Gesamtscore wird auf eine Dezimalstelle gerundet.
Benchmark: Llama 3 8B INT4 Durchsatz
Wir führen mindestens einen standardisierten Inferenz-Benchmark pro Anbieter durch, um einen konkreten Leistungsdatenpunkt jenseits von Marketing-Aussagen zu liefern. Nachfolgend unsere aktuellsten Ergebnisse.
Test-Konfiguration
- Modell: Meta-Llama-3-8B-Instruct.Q4_K_M.gguf (4-Bit-Quantisiert, ~4,9 GB)
- Runtime: llama.cpp Server Build b3713,
-ngl 40 -c 2048 - Workload: 512-Token-Prompt, 256 Token Generierung, 5 Durchläufe, Mittelwert
- Metrik: Generierungs-Tokens pro Sekunde (TTFT nicht eingerechnet)
- Test-Datum: April 2026
| Anbieter | Instanz | GPU | Tok/Sek |
|---|---|---|---|
| RunPod Secure | A100-SXM4-80G | A100 80GB SXM | 178 |
| Vast.ai (Community) | A100 PCIe Community-Host | A100 80GB PCIe | 165 |
| Lambda Labs | gpu_1x_a100 | A100 40GB PCIe | 152 |
| Hetzner GPU | GX2-44 | A100 40GB PCIe | 144 |
SXM-A100 hat eine höhere Speicherbandbreite als PCIe, was den RunPod-Vorteil erklärt. Die NVLink-Konfiguration des Vast.ai-Community-Hosts variierte. Ergebnisse sind repräsentativ, keine Garantie — Hardware desselben Anbieters variiert je Host.
Wir planen, Benchmarks auf H100-Instanzen und vLLM-basierten Durchsatz auszuweiten. Wenn du eigene Benchmark-Daten hast, schick sie uns gerne.
Affiliate-Offenlegung
Einige Anbieter-Links auf dieser Seite bringen uns eine Vermittlungsprovision, wenn du durchklickst und dich anmeldest. Diese Einnahmen decken unsere Test-Infrastruktur, Hosting und redaktionelle Arbeit.
Provisionen beeinflussen keine Bewertungen
Wir bewerten Anbieter nach unserer 5-Faktoren-Methodik, unabhängig von Affiliate-Beziehungen. Lambda Labs und CoreWeave — zwei unserer bestbewerteten Anbieter — haben begrenzte oder keine Affiliate-Programme. Wir haben Anbieter in unseren Rankings abgewertet, obwohl wir eine kommerzielle Beziehung zu ihnen hatten.
Links zu Anbietern sind auf Vergleichsseiten mit → markiert. Alle Preis- und Verfügbarkeitsdaten werden unabhängig vom Affiliate-Status erhoben.
Fehler melden
GPU-Cloud-Preise und Verfügbarkeit ändern sich ständig. Wenn du eine Preisabweichung, einen veralteten Verfügbarkeitsstatus oder einen anderen Sachfehler entdeckst, lass es uns wissen.
Schreib uns: [email protected]
Bitte folgende Angaben machen, damit wir schnell aktualisieren können:
- Anbieter-Name und GPU-Typ
- Datum und Uhrzeit deiner Prüfung
- Was du tatsächlich gesehen hast (Preis, Verfügbarkeitsstatus)
- Screenshot falls möglich
Wir prüfen und aktualisieren in der Regel innerhalb von 24 Stunden an Werktagen.