Bericht Preis-Leistungs-Verhältnis: Die besten Gaming-Gra­fik­kar­ten gemessen in FPS pro Euro

SweetOhm schrieb:
Schade nur, dass der eigentliche FullHD (1080p) PL (FPS/€) Sieger mit der 6750XT nicht mit dabei ist ... :rolleyes:
Verstehe ich, aber Wolfgang kann nun mal nicht alle Karten die es gibt immer in jedem Parcour testen.

Entweder die Karten sind gar nicht mehr in der Redaktion verfügbar da nur Leihgabe für den Test oder es fehlt einfach die Zeit.
 
  • Gefällt mir
Reaktionen: SweetOhm
Schinken42 schrieb:
Gibts eigentlich eine denkbare Möglichkeit, durchschnittliche Gebrauchtpreise und damit auch ältere Karten aufzunehmen?
Oder vielleicht ein Verlaufsdiagramm, das zeigt bei welchem Preis sich welches P/L ergibt?
Wäre a) sehr schwierig, da Gebrauchtpreise stark schwanken - was willst du da für eine seriöse Quelle heranziehen? und b) extremst aufwendig, genau wie ein Verlaufsdiagramm. Das müsste es ja für jede Grafikkarte einzeln geben und das wäre wirklich extremst(!) viel Aufwand.
 
  • Gefällt mir
Reaktionen: Schinken42
@Maine Sind Benutzereingaben machbar?
  • Anzahl Stunden/Tag Idle
  • Anzahl Stunden/Tag Last
  • 60 oder 144 Hz
  • Aufösung
  • Nutzungsdauer in Jahre
= Gesamtkosten inkl UVP

Wäre mega interessant.
 
  • Gefällt mir
Reaktionen: Glasreiniger
Windell schrieb:
Wow hätte nicht gedacht das die 6800XT in 1440p noch soweit oben ist.
Ist die beste P/L Karte im 1440p segement... und nicht erst seit heute. Weiß nicht wie oft die schon von HardwareUnboxed empfehlen wurde. x800 ist mirhalt schon zu teuer fürn hobby.
 
  • Gefällt mir
Reaktionen: Windell
Maine schrieb:
Wäre a) sehr schwierig, da Gebrauchtpreise stark schwanken - was willst du da für eine seriöse Quelle heranziehen? und b) extremst aufwendig, genau wie ein Verlaufsdiagramm. Das müsste es ja für jede Grafikkarte einzeln geben und das wäre wirklich extremst(!) viel Aufwand.
Dachte ich mir, ist ok :).

Ich hab mich allerdings falsch ausgedrückt. Ich meinte kein Diagramm der Preise über Zeit sondern bei welchem Preis welche Karte welches P/L hätte. Istvnatürlich trotzdem viel Aufwand für relativ wenig Erkenntnisgewinn. Könnte es manchen aber einfacher machen. War nur ne Idee :).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Glasreiniger
Undervoltete 4080S / 4090 sind von der Effizienz unschlagbar. Meine 4080S braucht bei 2700MHz GPU und 12800MHz VRAM 200-220 Watt im Schnitt (TLOF1 3440x1440@177Hz), schafft 100-150 FPS und bleibt bei 60°C @30% Lüfterspeed in einem Dark Base 700.

Die Stromrechnung sieht daher so aus: 0,37C / 5 = 0,074 pro Stunde spielen. Gerundet 8 Cent, für die 3 Stunden Rechnung 24 Cent pro Tag = 87,60€ pro Jahr wenn ich 3 Stunden pro Tag spielen würde.
Wenn Freizeit da ist übertreff ich das, aber wenn die Arbeit ruft, eher nicht.
 
  • Gefällt mir
Reaktionen: TheHille und Gaugaumera
FreedomOfSpeech schrieb:
Meine 4080S braucht bei 2700MHz GPU und 12800MHz VRAM 200-220 Watt im Schnitt (TLOF1 3440x1440@177Hz
Dann wirf mal ein Game an das die Shader glühen lässt:D dann bist bei knapp 300 auch mit 2700mhz
 
@Maine

Ein Grafikkartenvergleich unter FullHD ist und bleibt Unsinn. Genauso wie man CPUs nur unter 720p vergleichen sollte so sollte man Grafikkarten nur unter 4k vergleichen.

Es geht nicht um die Bewertung ob die FPS ausreichend sind für die Auflösung, sonder um die Eliminierung eines CPU -Limits. Man möchte wissen, welche Grafikkarten liefert die meiste Leistung für den Euro. Und nicht welche Grafikkarte liefert die meiste Leistung in Kombination mit exakt eurer CPU. Ein 9800X3D wird nämlich in FullHD die Ergebnise schlicht Richtung 4K verschieben, weil eine GTX4090 beispielsweise später im CPU Limit ist.

Die 4k Ergebnisse lassen sich daher auf FullHD übertragen, aber die FullHD Ergebnisse nicht auf 4k, - auf Grund des CPU Limits.
 
  • Gefällt mir
Reaktionen: Banjo, FreedomOfSpeech und TheHille
Justuz schrieb:
Wieviele Strom verbraucht denn der Speicher einer Karte?
Macht das nicht viel aus und ist vernachlässigbar? ...
nur bei RDNA2 hat man Zugriff auf SOC+Vram-Spannungen und kann durch UVen@MPT ein paar Watt sparen
... logischerweise merkt man Sowas bei 300W kaum, aber viele UVer spielen ja 24/7 eher <230W
Da machen sich dann 10W weniger schon bemerkbar. (ganz nebenbei bleibt der Vram kühler und evtl. brauchts
dann weniger Fehlerkorrektur = bessere minFps)

Wo man den Speicherkontroller SOC gut auslasten kann ist der MrH-benchmark (im Luxx gibts nen Thread).
Da habe ich mal meinen Verbrauch@UVen gemessen, ... siehe Anhang3.
Ne 6800 mit 16GB ist da vom Verbrauch eigentlich noch human.
Ist natürlich ordentlich UVtet, ... SOC 1050-->eff. 825mV und Vram 850/1350-->eff.681/1232mV.
(der SOC läuft 1550-->1512MHz, reicht mir 24/7, ... aber Vram OCed@2000-->2068MHz, ... ist ausreichend)

btw.
Man kann auch mal in den Schnäppshop reinschauen, falls man sich für RDNA2 interessiert, wenn man die Spiele
vom RDNA3-Gamebundle eeh nicht spielen würde.
6600xt = 199€
6800xt = 399€
 

Anhänge

  • 6600xt@199€.JPG
    6600xt@199€.JPG
    11,3 KB · Aufrufe: 53
  • 6800xt@399€ Schnäppshop.JPG
    6800xt@399€ Schnäppshop.JPG
    11,9 KB · Aufrufe: 55
  • SOC+Vram_Verbrauch.JPG
    SOC+Vram_Verbrauch.JPG
    105,2 KB · Aufrufe: 55
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Justuz und belive
Weiß auch mal wieder nicht, wo hier die 37 Cent /KWh herkommen. Schließt man nen neuen Vertrag ab, landet man bei 27-29 Cent. Und das seit über nem Jahr. Ich zahl bspw. gerade mal 25 Cent.
 
  • Gefällt mir
Reaktionen: Clonedrone
@bondki

Das kommt aber stark auf die Region an wo man wohnt ;-)
 
bondki schrieb:
Weiß auch mal wieder nicht, wo hier die 37 Cent /KWh herkommen. Schließt man nen neuen Vertrag ab, landet man bei 27-29 Cent. Und das seit über nem Jahr. Ich zahl bspw. gerade mal 25 Cent.
Nun, du könntest den Artikel lesen, da steht es drin: Es handelt sich um den durchschnittlichen Strompreis für Bestandskunden, Quelle ist Verifox.
 
  • Gefällt mir
Reaktionen: DNS81, SIR_Thomas_TMC und Maine
bondki schrieb:
Und welchen Sinn soll das haben? Der Gesamtverbrauch zählt, völlig unabhängig von der Bestückung,
Das ist wichtig, weil man zuerst den VRAM übertaktet. Die Leistungsaufnahme steigt moderat, was wichtig ist, wenn man im PL landet.
 
Dann stellt man das Limit halt 15% höher. Das ist doch absoluter Standard bei allen drei Herstellern.
 
Ich spiele seit vor der Jahrtausendwende, und habe beispielsweise noch nie irgendwas übertaktet. Hatte sogar die Einstellung für RAM wohl viele Jahre (Jahrzehnte?) falsch, weil einfach so im BIOS gelassen, wie es drin war. Hat man mich hier durch Zufall wegen ner anderen Biosfrage im Forum drauf hingewiesen.

Es übertaktet selbst von Technikinteressierten nicht jeder, bei Ottonormaluser wahrscheinlich so gut wie gar keiner.
 
SIR_Thomas_TMC schrieb:
Es übertaktet selbst von Technikinteressierten nicht jeder, ...
Dann sollte man bei manchen älteren Grakas evtl. neu nachdenken!
nur Ada und RDNA3 boosten höher als der eingestellte maxTakt ist, ... solange die Watt reichen
aber
z.Bsp. RDNA2 darf das noch nicht, .... also würde mit FSR+FG/AFMF2 evtl. Boosttakt fehlen

Daher verwende ich ein Setting was mehr Takt erlaubt, ohne gleich deswegen das Powerlimit hochzuziehen.
(nur Fps-Limit verwende ich soundso, ... z.Bsp. in TAU 44/88)
 

Anhänge

  • The Axis Unseen Demo_2024.10.10-18.52_1.jpg
    The Axis Unseen Demo_2024.10.10-18.52_1.jpg
    1,3 MB · Aufrufe: 42
  • Permafrost Demo_2024.10.13-10.46.jpg
    Permafrost Demo_2024.10.13-10.46.jpg
    843,5 KB · Aufrufe: 39
Zurück
Oben