Bericht Preis-Leistungs-Verhältnis: Die besten Gaming-Gra­fik­kar­ten gemessen in FPS pro Euro

DiePalme schrieb:
Bitte was? Wo ist den AMD in RT mit Nvidia gleich gezogen? Die 7900XTX unterliegt in RT der 4070TI. Betreibt man ein bisschen Cherry picking mit Cyberpunk 2077 dann kommt die 7900XTX nicht mal an einer 3080 mit RT vorbei.
Ich weiß dein Kommentar ist bisschen älter, vor dem letzten Update, von daher kann sichs bisschen geändert haben seither weiter zu Gunsten von AMD, aber mit Cherry Picking zu argumentieren ist ja schon sehr schwach, wieso sollte man das tun, man könnte ja auch Cherry Picken games wo das RT sehr minimual ist und dann sagen das AMD noch mehr dran vorbei zieht... das kann doch kein Argument sein.

Preis/Leistung besiegt die 7900 XT die 4070 TI Super nicht in zahlen aber wer hat 850 Euro für ne Grafikkarte 99% von denen haben wohl schon gekauft. Das mag interessant sein für Leute die sich nen Kauf von vor 1-2 Jahren jetzt nachträglich noch Rechtfertigen wollen. Was ja ok ist, wenn man so extrem auf RT steht, aber für Leute die jetzt kaufen wollen ist das nicht sonderlich relevant, vorallem dient das ja jetzt als Orientierung, natürlich macht es jetzt für wenige Sinn eine der Karten für die jetzigen Preise zu kaufen, hab noch auf mehr Rabatte und bis hin zu ner Art Ausverkauf bei AMD gehofft oder eher erwartet vor Weihnachten, aber da will man offenbar noch ein paar Leute mit nehmen die die Wucherpreise blechen, frag mich ob es dann nach Weihnachten oder erst im Januar los geht bis man da mal ordentlich die Preise reduziert.

Und klar eine 7800xt 7700xt und Teilweise auch 7900xt ist schon mal in nem Preisrahmen wo 10-30% Preissenkungen dann in Regionen die bringt wo Leute die bisher nicht gekauft haben weils zu teuer war es interessant wird.

Wer sich nicht zum Release ne 4070 TI super gekauft hat für 890 Euro UVP wird sich jetzt auch keine für 850 kaufen und wahrscheinlich auch nicht falls es nen Rabatt auf 800 oder 770 Euro gibt, die wo noch nicht ne 800-2000 Euro karte gekauft haben haben kein so hohes Budget und wenn man auf den Euro schauen muss kommt man um AMD nicht drum rum, selbst wenn man normales Raytracing will und auf die von Nvidia entwickelte (bezahlte) RT Techdemo Cyberpunk 2077 verzichten (bzw abstriche bei dem einen Game) machen kann.

RT entwickelt sich auch ein bisschen wie VR, es ist in der großen Kriese, das nach Cyberpunk kein einziges Spiel raus kam wo RT besser sowohl vermarktet aber auch dargestellt wird, zeigt sich für Studios dieser Massive Mehraufwand das Spiel optisch quasi 2x zu implementieren in dem Umfang nicht rentiert.

Und man muss sagen das wieder mal das schon tot gesagt Meme von AMDs "fine wine" sich bestätigt hat. Den Vogel würde es noch ausschlagen wenn FSR 4.0 in ner relativ guten Version mindestens noch für die 7er gen kommen würde aber nicht Nvidia :) oder gar noch den 6xxx dann könnte sich AMD wirklich offiziell als Weinhändler bewerben :D
 
Glaube meine 4090 würde in dem Diagramm deutlich besser abschneiden. Im Juli 23 für 1300~ gekauft inkl Cashback.
 
Es lohnt sich mittlererweile halt schon sehr genau hin zu schauen. Schwiegervater zum beispiel spielt hauptsächlich MSFS 2020/2024 und da sind die Radeon Karten so stark, dass es zwangsläufig eine 7900 GRE geworden ist. Die teurere 4070s ist dort sogar langsamer.
 
  • Gefällt mir
Reaktionen: Justin's
Erstmal danke für die generelle Aktualisierung dieses wichtigen Artikels.

Ich persönlich begrüße die realistischeren Strompreise.
 
  • Gefällt mir
Reaktionen: Maine
Die "besten" Gaming-Grafikkarten bei euren fragwürdigen Settings - das hat aber leider nicht mehr viel mit der tatsächlichen Leistung zu tun.
 
Maine schrieb:
Artikel-Update: Alle Auswertungen und der dazugehörige Text wurden mit Erscheinen des neuen Benchmark-Parcours von ComputerBase aktualisiert, des Weiteren wird nun der aktuelle Neukundenpreis für die Stromkostenberechnung herangezogen.

[Tabelle: Zum Betrachten bitte den Artikel aufrufen.]

bei mir funktioniert das erste Strediagramm nicht (FPS/Euro in 2.560 × 1.440) - da gibt es keine Linie für was wäre besser/schlechter - in allen anderen ist die Linie drin
 
  • Gefällt mir
Reaktionen: Maine
blackiwid schrieb:
RT entwickelt sich auch ein bisschen wie VR, es ist in der großen Kriese, das nach Cyberpunk kein einziges Spiel raus kam wo RT besser sowohl vermarktet aber auch dargestellt wird, zeigt sich für Studios dieser Massive Mehraufwand das Spiel optisch quasi 2x zu implementieren in dem Umfang nicht rentiert.
Ich weiß ja nicht inwieweit du Spiele Releases verfolgst, aber quasi fast alles was neu auf den Markt gekommen ist, nutzt RT und wurde auch beworben. Mit Indiana Jones kam jetzt das erste Spiel, das ohne RT grundsätzlich aktiviert hat. Man kann es nicht mal abschalten, nur weiter hoch drehen. Es wird nur nicht mehr so stark beworben, weil es mittlerweile nichts außergewöhnliches mehr ist, wenn RT integriert ist.

Die Preise sind aktuell bei AMD und bei Nvidia seltsam. Da gebe ich dir recht. Bei Nvidia steigen sie wieder, AMD wird verramscht. Ich weiß aber hier nicht, was du noch an niedrigeren Preisen bei AMD erwarten würdest. Man sieht eigentlich recht gut, dass man versucht die AMD Karten irgendwie los zu werden, weil der Absatz bei den Karten arg gesunken ist in diesem Jahr.
 
Taxxor schrieb:
Ne 4090 kann im Grunde jeder von 1,05V auf 0,875V runter stellen, dann noch etwas Takt weg, damits stabil bleibt und man ist gar nicht so viel langsamer und verbraucht besonders in FPS limitierten Szenarien deutlich weniger.
Ich komme bei 60FPS in UWQHD eigentlich nur mit Pathtracing mal über 200W.

Nur mal als Vergleich:
Mit 2550MHz und 875mV halte ich ein 60FPS stabil und die Karte braucht dafür 170W
Stelle ich sie auf 2700MHz und 950mV, braucht sie 210W für die gleichen 60FPS.
Stelle ich sie auf Stock, sind es ~2750MHz bei 1050mV und 230W für 60FPS

Warum eine 4090 wenn mit 60 FPS gespielt wird ?

Oder war das nur ein Beispiel für den Verbrauch ?
 
Wurzel schrieb:
Warum eine 4090 wenn mit 60 FPS gespielt wird ?
Weil mir 60FPS ausreichen und die Karte damit bereits jetzt in ersten Spielen Probleme bekommt, wenn man die Settings nicht zu sehr reduzieren will(aktuell Indiana Jones) und ich generell nicht mehr als 300W Verbrauch für ne GPU setze
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MonoIith
Ok, werde ich mal testen ob ich einen Unterschied der FPS bei mir sehe ... vielleicht reicht das ja sogar und ich kann meinen Verbrauch weiter reduzieren
 
Calypso26 schrieb:
bei mir funktioniert das erste Strediagramm nicht (FPS/Euro in 2.560 × 1.440)
ja, da fehlte ein Auswahlhäkchen für die Referenz, sollte jetzt da sein.
Danke für den Hinweis!
 
  • Gefällt mir
Reaktionen: Calypso26
Kadett_Pirx schrieb:
Die "besten" Gaming-Grafikkarten bei euren fragwürdigen Settings - das hat aber leider nicht mehr viel mit der tatsächlichen Leistung zu tun.
ich verstehe deine Sichtweise und natürlich kann man Argumente dafür finden, warum Grafikkarten nur nativ ohne DLSS usw. getestet werden könnten. Aber die Realität sieht Ende 2024 und perspektivisch auch die nächsten Jahre nun einmal so aus, dass moderne Spiele das Nutzen dieser Techniken fast schon voraussetzen, um gut spielbare Bildraten zu erhalten.

Das ist in etwa so, als wenn man bei Autotests nur die Maximalgeschwindigkeit bewerten würde, sonstige Faktoren aber komplett außer Acht lassen würde. Übertrieben ausgedrückt wäre dann ein Bobbycar mit 500 PS-Motor das beste Fahrzeug der Welt, weil Dinge wie Komfort, Assistenztechniken, Federung usw. keine Rolle spielen würden.

Der Markt für Spiele und Grafikkarten ist nicht mehr so simpel wie früher, sondern man kauft mit der Grafikkarte inzwischen auch ein teils relativ komplexes Software-Ökosystem mit. Und das kann man einfach nicht wegdiskutieren oder ignorieren.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC, Kadett_Pirx und Quidproquo77
Maine schrieb:
Der Markt für Spiele und Grafikkarten ist nicht mehr so simpel wie früher, sondern man kauft mit der Grafikkarte inzwischen auch ein teils relativ komplexes Software-Ökosystem mit. Und das kann man einfach nicht wegdiskutieren oder ignorieren.
Oh, also DA möchte ich aber doch widersprechen. Ich erinnere mich an Zeiten, wo ähnliche Grafikkarten des gleichen Herstellers mit verschiedenen DX-Versionen auf dem Markt waren. Und alte DX Versionen konnten teilweise bestimmte neue Spiele gar nicht mehr starten.
Und dann wäre da noch die Zeit von Dual-GPU. Nische, aber sie war da. Wo beide großen Hersteller sich ein Treiber-Duell geliefert haben, welche Karten bei welchem Spiel besser laufen.
Oder PhysiX? Haste keine physix Karte (oder später, eine von nV), haste keine Ragdoll-Effekte im Spiel. So einfach war das.
Noch ein paar Jahre weiter zurück: Ist die Karte "Monster-kompatibel" ? Unterstützt sie (open)Glide, oder doch nur direct3d?
Ich würde sagen, jede Zeit hatte so ihre "Probleme", und spielbar waren die Spiele dennoch in der Regel, ob mit Glide, Physix, dualGPU oder ohne. Genau so wie heute auch.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC, mKstan, Kadett_Pirx und 2 andere
n8mahr schrieb:
Oh, also DA möchte ich aber doch widersprechen.
Da stimme ich voll zu. Heute ist es eher noch sehr einfach im Vergleich zu früher. Im Grunde läuft jedes Spiel auf aktueller Hardware. Früher, sah das teilweise ganz anders aus. Das beschreibt @n8mahr absolut richtig. Teilweise war es zum Haare raufen.
 
  • Gefällt mir
Reaktionen: n8mahr
Generell muss sich damit abgefunden werden, dass die Hersteller im Zuge diverser Krisen der letzten Jahre (Kryptomining, Pandemie, Ukrainekrieg, Inflation) neue Preisklassen für Grafikkarten eingeführt haben und auch beibehalten werden
Abfinden ja, die Konsequenz muss aber nicht sein, dass man seinen Geldbeutel weiter öffnet.
Es gibt ja zum Glück viele gute, alte Spiele, für die weniger Grafikleistung ausreicht. Und es gibt auch andere schöne Hobbys, die nicht teurer sind.
Leidtragenden sind halt die Spieleentwickler, wenn das Interesse an Neuerscheinungen mangels erschwinglicher, hinreichend leistungsstarker HW sinkt.

Mein Ziel für 2025: Endlich "The Witcher 3" spielen.
 
  • Gefällt mir
Reaktionen: Maine
Der Artikel sagt ja auch nicht "kaufen ohne Rücksicht auf Verluste!!!", sondern genau das Gegenteil: Gut informieren und dann die für einen selbst bestmögliche Entscheidung treffen. 😉
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC und yamaharacer
Ich finde es sehr merkwürdig, dass sich z.B. der Preis der RX 7800 XT seit vielen Monaten nicht großartig bewegt hat, obwohl die Verkäufe von Radeon-GPUs vor allem in letzter Zeit extrem eingebrochen sind...

Das ist kein normales Verhalten der Händler für mich. Wollen sie alle auf ihre Posten sitzen bleiben?
 
  • Gefällt mir
Reaktionen: JackTheRippchen
JackTheRippchen schrieb:
Abfinden ja, die Konsequenz muss aber nicht sein, dass man seinen Geldbeutel weiter öffnet.
Es gibt ja zum Glück viele gute, alte Spiele, für die weniger Grafikleistung ausreicht. Und es gibt auch andere schöne Hobbys, die nicht teurer sind.
Die Liste "Marktpreise" fängt bei 266 € an. Das sind 100 € mehr, als ich jemals für eine dGPU ausgegeben habe.

Maine schrieb:
Der Artikel sagt ja auch nicht "kaufen ohne Rücksicht auf Verluste!!!", sondern genau das Gegenteil: Gut informieren und dann die für einen selbst bestmögliche Entscheidung treffen. 😉
Genau. Die bestmögliche Entscheidung bleibt da "keine dGPU" für "0 €".
 
Millennial_24K schrieb:
Ich finde es sehr merkwürdig, dass sich z.B. der Preis der RX 7800 XT seit vielen Monaten nicht großartig bewegt hat, obwohl ...
Dadurch das die GRE etwas eher im Preis angezogen hat, ist genug Platz für die 7800xt.
Und jetzt nach dem EOL der GRE soundso.
Nicht Jeder braucht die größere 7900xt und nicht Jedem reicht die kleinere 7700xt.
Die 7700xt sollte sich jetzt auch ein mue besser verkaufen nach dem EOL der 6800.
Obs preislich bei Grün mehr Bewegung gibt, ... bezweifel ich.
https://geizhals.de/?cat=gra16_512&xf=9816_03+05+17+-+RTX+4070~9816_03+05+17+-+RTX+4070+SUPER

Das im Prinzip alle Hersteller nicht vor Weihnachten die neuen Produkte bringen, ist zwar nicht schön für
Gamer die in der Woche bis Neujahr spielen wollten, but shit happens.
Kauft halt noch ne alte Graka, ... und betet, das der Wiederverkaufswert im Januar noch passt.

Intel ist eigentlich auch keine richtige Ausnahme, weil die B580 nicht in ausreichenden Stck.zahlen zum UVP@289€
erhältlich sind.

Die 12GB-5070 kommt evtl. erst Ende Februar, wo man ein klares P/L-Bild hat, ... bis dahin kann man also ne
16GB-7800xt gut zum Spielen gebrauchen.
Ne 5060Ti wird sicher nur in der 8GB-Variante "preiswert" sein.(im März ?)
B770/780 wirds gar wohl erst in H2 25 geben.
 

Anhänge

  • 7800xt vs Others.JPG
    7800xt vs Others.JPG
    52,1 KB · Aufrufe: 13
Zuletzt bearbeitet:
Zurück
Oben