Test Gaming-Grafikkarten 2024 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

@SavageSkull es geht nicht ums nutzen. Ich sagt ja, das man damit eine schwache grafikkarte retten kann. Es geht um test und da kann man dann upsampling im fazit oder nachegehend gerne auch sagen, das mit upsampling alles besser läuft (was logisch ist und eigentlich nicht erwähnt werden muss)
Aber in einem test hat upsampling nichts zu suchen.
 
@Shadak Das Upsampling ist ja pauschal eingeschaltet und für alle Grafikkarten auf der gleichen Einstellung und daher auch vergleichbar. Es ist nicht so, dass sich das zwischen den Karten verschiebt, weil es bei der einen ausgeschaltet ist und bei der anderen im "Performance" Setting.
Es hat nichts damit zu tun, "schwache" Karten zu retten. Ich schalte DLSS bei meiner 4090 immer an, wenn möglich, obwohl ich das in 90% der Fälle für 3440x1440 gar nicht bräuchte.
 
@SavageSkull trotzdem sagt es am ende nichts über die leistungsfähigkeit der hardware aus, wenn eine softwarefeature zur entlastung der hardware durchgehend aktiv ist.
 
Ben_computer_Ba schrieb:
Respekt für die Arbeit, aber ich muss wirklich sagen, dass ich die gesamt Tests, immer seltsam finde. Da variiert dann der Abstand zwischen einzelnen Modellen immer stärker, als man eigentlich denkt und es aus den anderen Tests vermuten sollte... Ebenfalls die Arc karten, ich selbst habe nur die 770 in einem bastel PC, den ich seit Monaten nicht benutzt habe, aber meine Erfahrung kam mir irgendwie stärker vor, als es dieser Test suggeriert, auf YouTube wird die Performance häufig auch besser dargestellt oder die anderen schlechter - je nachdem
Wo gibt es denn größere Änderungen zwischen einzelnen Karten? Die Abstände sind mit verschiedenen Tests halt nicht in Stein gemeißelt, wirklich größere Unterschiede sind mir aber nicht aufgefallen. Vielleicht habe ich aber ja auch etwas übersehen.
tdbr schrieb:
Mir fehlt einfach immer die Leistungsaufnahme. Das ist für mich ein sehr wichtiger Punkt. Deswegen gefallen mir die Tabellen von der8auer immer am besten. Das Problem ist nur, dass er nicht so viel testet wie jeder andere.
Naja, die Leistungsaufnahme der Grafikkarten findest du ja in den einzelnen Grafikkarten-Reviews, hier geht es nur um neue Benchmarks. Beim nächsten GPU-Test wird es diese dann natürlich wieder geben.
Chismon schrieb:
Was ist wenn Squadron 42 irgendwann kommt, wird das dann auch nicht mit aufgenommen werden oder wieso nimmt man eine Testsequenz vom ständig weiter entwickelten Star Citizen nicht mit in den Testparcours auf?

Genau, aber wie viel da durch K.I. entgegen dem ursprünglichen Design noch dazugedichtet bzw. von dieser grafisch umgewandelt wird, ist eben dann auch nicht mehr ersichtlich, wenn es an der nativen Basisdarstellung mangelt.

Mir fehlt übrigens die Intel Arc A(lchemist) 580 als die relativ konkurrenzlose Einsteiger-Gaming-Grafikkarte unter 200 Euro bei Euch komplett im Test-Aufgebot, zumal ich glaube, dass diese für die mehr Leute deutlich relevanter ist als etwa die Arc A(lchemist) 750 aus gleichem Hause, zumal sich die anderen Entwickler (nVidia und AMD/RTG) leider schon länger von dem eigentlichen Preisbereich für Einsteiger-dGPUs mit 8GB Speicher (unter 200 Euro) verabschiedet haben ;).
Wenn Squadron 42 jemals fertig wird und es sich für GPU-Benchmarks eignet, werden wir das natürlich auch in die Benchmarks aufnehmen. Warum sollten wir das nicht tun?

Zu deinen anderen Punkten:
DLSS, FSR und XeSS Super Resolution dichten nichts hinzu, es werden nur die vorhandenen Informationen aus vorherigen Frames genutzt. DLSS 1 war das mit dem Hinzudichten (und das war absolut nichts).

Die Arc 580 haben wir absichtlich weggelassen, einfach weil schon die A750 ganz am Ende vom Testfeld hängt. Entsprechend würde die Karte nicht so richtig ins Testfeld passen.
Asgartal schrieb:
Vielen Dank für den Test!
Könnt ihr noch die 6900XT oder 6950XT hinzu nehmen? Oder reicht es wenn man da gedanklich einfach 5-10% auf die 7800XT drauf rechnet?
Wie im Text erwähnt wird, wird im neuen Jahr noch die RTX 2080 Ti und die RX 5700 XT hinzu gefügt.
DJMadMax schrieb:
@Wolfgang @Jan
Wäre es in diesem Zuge nicht schön, wenn man einfach per zusätzlichem Schalter tatsächlich auf die Durchschnitts-FPS aller getesteter Grafikkarten umschalten könnte? In diesem Fall würden z.B. bei meiner RTX 3060 Ti keine wenig aussagenden 41,3 (Prozent) stehen, sondern eben deutlich aussagekräftigere 74,4 FPS Average bzw. 59,7 FPS 1% Low. Ja, ich habe nachgerechnet.

Nehmt es euch doch bitte zu Herzen: Testet die jeweils zwei oder drei langsamsten Grafikkarten eines Chipherstellers, bzw. zukünftig jede Grafikkarte, die in der Zielauflösung keine 60 FPS schafft, nicht im Maximal-Preset, sondern im Medium-Preset. Ihr habt das Spiel sowieso schon offen, ihr habt die jeweilige Grafikkarte eingebaut, ihr habt CapFrameX bereit, ihr habt eure Tabelle, in der ihr die Werte eintragt: lasst den Benchmark des gerade gestarteten Spiels doch einfach noch ein zweites Mal durchlaufen.
Aber wäre denn so ein "gefakter" AVG-FPS-Wert wirklich so von Vorteil? Ich meine, im Endeffekt sagt der ja nichts aus, in diversen Spielen werden die FPS hoher sein, in diversen anderen niedriger. Das ist ja keine Mindest-FPS-Zahl, die dann da stehen würde. Die Prozentangaben stellen dagegen genau das dar was sie sind. Prozentuale Abstände.

Tests mit durchweg reduzierten Details ist sicherlich eine interessante Idee für einen separaten Artikel. Das schreibe ich mir gerne mal auf die To Do.

Einen Abschnitt für reduzierte Grafikdetails hab ich hier übrigens schon in meinem Artikel-Dummy für den nächsten Spiele-Benchmarktest (nach deinem Vorschlag) :)
FallDown75 schrieb:
Dann sollte aber vielleicht darüber nachgedacht werden das Cities Skylines 2 da momentan nicht rein passt.
Die Entwickler:innen selbst sagen sie sind noch nicht zufrieden mit der Performance und lassen gerade alles andere liegen um daran zu arbeiten. Und das wollen sie auch machen bis sie zufrieden damit sind. (CO-CEO im Word of the Week)
Cities Skylines habe ich auch entsprechend im Blick. Das ist nicht schön, aber das wird sich entsprechend auch irgendwann erledigt haben. Fortnite wird dagegen so lange weiter gehen, wie es das Spiel gibt.
Nova eXelon schrieb:
Entweder das oder einfach wie vorher.

Zumindest für mich ist nicht das Endlos-Scrolling das eigentliche Problem, sondern das Widerfinden eines bestimmten Titels selbst innerhalb einer Auflösung.
Dem mitlaufenden Inhaltsverzeichnis fehlt in diesem Sinne eine Option direkt den Titel anzuklicken sogar noch mehr, als beim Non-CBPro-User. Und STRG+F kann ja nicht die Antwort sein........
Das ist definitiv ein Nachteil von der aktuellen Darstellung. Ist die Frage, wie sich das lösen lässt. Da werden wir uns mal ein paar Gedanken drüber machen. Denn optimal ist das wirklich nicht.

netzgestaltung schrieb:
Kann der neue Testparcours jetzt auch Linux? Hab diese Artikel bisher immer ganz ausgelassen, weil sie kaum Relevanz bei mir haben.
Der Testparcours ist natürlich unter Windows erstellt worden und nicht unter Linux. Im Vergleich dazu hat Linux halt immer noch keine Relevanz. Bei neuen Spielen reichen wir dagegen ja durchaus oft Tests mit Linux nach.
Starcraftfreak schrieb:
Könnt ihr noch die Daten des alten Parcours als ausklappbare Zusatzoption zum Vergleich einbauen? Wenn es innerhalb eines Charts nicht geht (so wie zB weitere Ergebnisse von meist älteren Produkten bei anderen Tests), dann zumindest als extra Chart. Ihr habt zwar im Text ganz gut beschrieben, wo die Unterschiede liegen, aber visuell ist das oft eindrücklicher.
Das wäre optisch maximal verwirrend, wenn da plötzlich zwei verschiedene Ergebnisse im Artikel stehen.
Schau doch einfach im letzten Artikel mit dem alten Parcours da, in zwei Tabs kann man dann gut alles vergleichen.

https://www.computerbase.de/2023-09/amd-radeon-rx-7700-xt-rx-7800-xt-test/
Duvar schrieb:
2367MHz AVG Taktraten bei der XTX? Scheint mir etwas wenig zu sein, auch verglichen mit eurem Test zu Release:

https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/3/#:~:text=Fazit-,Die durchschnittlichen Taktraten unter Last,Takt 2,3 GHz beträgt.

Dort waren es rund 200MHz mehr. Irgendwie sieht die XTX etwas lasch aus in dem aktuellen Test oder ist der nun so hart, dass die Karte (MBA Version) so stark ins PL gerät und dementsprechend niedrig die AVG Taktraten aussehen? Das Gute bei AMD ist, dass die per OC etwas mehr rausholen als zB eine 4090. (ca 5% vs 10% per OC)
Naja, was heißt etwas lasch? Die XTX schneidet in dem Parcours besser ab als jemals zuvor^^

Dich verwirrt glaube ich etwas, dass du da zwei verschiedene Sachen vergleichst:
Die Durchschnitts-Taktangabe in dem Artikel hier ist Metro Exodus, das ist schonmal ein ziemliches Worst-Case-Szenario. Hinzu kommt, dass in der Tabelle im Launch-Reviews die Taktraten wobei den Benchmarks angegeben sind. Der hier angegebene Takt von 2.367 MHz entspricht aber dem Schnitt der letzten 10 Minuten während einer 30 Minuten langen Lastphase. Das ist also quasi der Worst Case vom Worst Case. Daher die Unterschiede.

Xeldaran schrieb:
Es tut mir Leid negativ sein zu müssen, aber ich finde das überhaupt nicht hilfreich. Wenn nur die aktuelle Generation verglichen wird bringt mir das nichts.
Für mich ist Perf/€ der Indikator, und das dürfte für die meisten Käufer so sein. Man hätte relevante Karten der letzten Generation irgendwie einordnen müssen, wenn auch ggf. mit verkürztem Testparkour. Ohne vergleich mit 6700 xt, 3060 ti, etc bringen die Daten einfach nichts.
Es werden doch zwei Generationen miteinander vergleichen? Die aktuelle und die vorherige. 6700 XT und 3060 Ti sind doch vorhanden? In WQHD dann noch die 6800 XT und die 3080.
Shadak schrieb:
@Wolfgang ich finde es schade, das ihr eure arbeit mir der nutzung von upsmapling so entwertet. upsampling ist etwas, womit man seine eigene grafikkarte retten kann, wenn sie nicht genug leistung hat. In test hingegen hat das nichts zu suchen. Wenn dann keine 30FPS im test stehen, dann sagt das sehr viel über das spiel aus.
Für mich haben hiermit eure test keine relevanz mehr.
Ich finde nicht, dass Upsampling die Benchmarks entwertet. im Gegenteil, es wertet sie auf. Denn so spielen heute zu meisten und so sollte man auch oft, wenn auch nicht immer, spielen. Super Resolution ist mittlerweile mehr als nur die FPS anzugeben, wenn es anders nicht mehr geht.
 
  • Gefällt mir
Reaktionen: Vitche, Quidproquo77, Chismon und 4 andere
Hardwarious schrieb:
Die 7800XT ist bei Rasterizer gar nicht so viel schneller als die 4070. Bei Raytracing schlägt die 4070 die 7800XT umso deutlicher.
Ich hatte die 7800XT besser in Erinnerung.
Danke für die Mühe.
Ja. Es liegt daran, dass die RT-Qualität in den getesteten Spielen angegoben wurde. Somit legt die 4070 in Raytracing gegenüber der 7800 XT zu.
Ergänzung ()

haf-blade schrieb:
Sehr guter Testparcours. Ich finde es gut, dass ihr Dlss und Fsr verwendet. Das ist meiner Meinung nach eines der größten Kaufkriterien bei der Entscheidung zwischen Nvidia und AMD. Gerade bei Midrange Karten und höheren Auflösungen finde ich es essentiell.
Nein. Die bessere Bildqualität von DLSS spielt für den Mainstream (ca. 90% aller PC-Gamer) keine entscheidende Rolle. Es ist allein ein Thema für Gaming-Enthusiasten und professionelle Hardwaretester. Den meisten geht es also mehr um den Spieleinhalt als um etwas mehr Kantenflimmern.
Ergänzung ()

incurable schrieb:
Ich weiß nicht, wie dienlich es der (Vergleichs-)Sache an sich ist, Karten verschiedener Hersteller mit ihrer Leistung in unterabgetasteten Auflösungen ins gleiche Diagramm zu packen, wenn diese je nach Technik und Implementierung unterschiedliche Bildqualität liefern.
Es ist kein einfaches Unterfangen hier zu 100% gerecht zu testen. Du hast erst einmal Recht. Aber eine nicht gerade unwichtige Sache ist, dass Geforce-Besitzer eher DLSS nutzen würden als FSR. Ist ja naheliegend. Von daher sollte man schon mit unterschiedlichen Upscalingtechnologien testen.
Ergänzung ()

Discovery_1 schrieb:
Für 1080p soll die RX 6700 XT ja immer noch eine gute, preiswerte Wahl sein. Allerdings liebäugle ich jetzt eher mit dem Nachfolger, der RX 7700 XT, die für 1080P moderner und schneller ist, aber aktuell in meinen Augen auch noch gute 50€ zu teuer ist. Mal abwarten, ob sich da demnächst preislich noch etwas tun wird. Vielen Dank, für diesen ausführlichen Test.
Die RX 6700 XT ist aktuell die perfekte Karte für budgetorientierte Gamer, die nur maximal 300€ für eine Grafikkarte ausgeben möchten. Mit 12GB VRAM ist sie optimal für 1080p-Gaming ausgestattet.

Die RX 7700 XT ist aktuell eine sehr leistungsstarke und auch zukunftssichere Grafikkarte für 1080p. Das heißt man wird mit ihr problemlos mit Ultra-Setting und 60 FPS zocken können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheHille und TomH22
TigerherzLXXXVI schrieb:
Aber eine nicht gerade unwichtige Sache ist, dass Geforce-Besitzer eher DLSS nutzen würden als FSR. Ist ja naheliegend. Von daher sollte man schon mit unterschiedlichen Upscalingtechnologien testen.
Dann müsste das Fazit am Ende aber auch sein, dass es mit Nvidia Karten durchweg besser aussieht, wenn man die gleichen Qualitätsstufen nutzt, was die FPS Vergleich im Ranking weniger aussagekräftig macht, das ist das Problem.
Dann kann in der Tabelle stehen, dass 2 Karten gleich schnell sind, jedoch sieht bei einer das Bild besser aus. Und wenn man bei ihr die Qualitätsstufe reduziert, damit sie vergleichbarer mit der anderen Karte ist, ist sie deutlich schneller als diese.

Entweder man möchte es wirklich so abbilden wie es meist genutzt werden wird, also dass Nvidia Nutzer eher DLSS nehmen, dann hat aber eine Karte eine bessere Bildqualität, was man im Ranking nicht sieht.
Oder man möchte wirklich rein den Leistungsunterschiede der Karten zeigen, dann macht es Sinn, den gleichen Upscaler für alle zu nutzen, falls hier kleinere Unterschiede bei der Performance bestehen.
Oder man bildet es so ab, dass Nvidia Nutzer eher DLSS nehmen aber auch so, dass beide die gleiche Bildqualität haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable
Bulletchief schrieb:
RT ist und bleibt die Zukunft. Und das im übrigen schon lange bevor es in der Breite implementiert war...

Aber hey, versteh ich. Es gibt auch Leute die von Dampfloks fasziniert sind...
SEEEYMOUUUUUR!!!

Guter Spruch. Raytracing ist die Zukunft, das steht außer Frage. Ich bin auch ein Fan davon. Aber den Großteil der Gamerschaft ist es egal, wie lange es bis zum RT-Standard in Spielen braucht. Mich eingeschlossen. Es drängt also nicht. Spiele müssen in erster Linie mit Inhalt überzeugen und nicht mit Grafik.
Ergänzung ()

Taxxor schrieb:
Dann müsste das Fazit am Ende aber auch sein, dass es mit Nvidia Karten durchweg besser aussieht, wenn man die gleichen Qualitätsstufen nutzt, das ist das Problem.
Dann kann in der Tabelle stehen, dass 2 Karten gleich schnell sind, jedoch sieht bei einer das Bild besser aus. Und wenn man bei ihr die Qualitätsstufe reduziert, damit sie vergleichbarer mit der anderen Karte ist, ist sie deutlich schneller als diese.
Das ist nur die Aussage der Nvidia Marketingabteilung. In der Realität ist der qualitative Unterschied gar nicht so riesig und die meisten Gamer würden überhaupt nicht darauf achten. Du kennst die Sprüche über Digital Foundry, wenn sie mit der Lupe nach jeden noch so kleinen grafischen Unterschied suchen. Man muss einfach mal die Kirche im Dorf lassen. Als extremer Nvidia-Fan wird man sicherlich auf diese grafischen Unterschiede pochen. Der Mainstream-Gamer sagt, dass es ihm kaum aufgefallen ist.

Edit:
Darüber hinaus ist DLSS für manche Grafikfehler deutlich anfälliger als FSR. Nvidias Technologie ist also nicht frei von Fehlern oder Nachteilen...

Wenn es um das Testen mit vergleichbarer Bildqualität geht, müsste man jegliches Upscaling deaktivieren und die native Auflösung verwenden. Nur hier hat man einen wirklich fairen Performancevergleich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fighter1993, Casillas und Ghostfacekalle
TigerherzLXXXVI schrieb:
Das ist nur die Aussage der Nvidia Marketingabteilung
Ah also ist CB die Nvidia Marketingabteilung, wie auch fast alle anderen Seiten, die zu dem Ergebnis kommen.

Und gerade wenn du sagst dass es den wenigsten auffallen wird, dass DLSS Quality besser aussieht als FSR Quality, ist das ja noch ein Grund auf DLSS Balanced zu schalten
Ergänzung ()

TigerherzLXXXVI schrieb:
Als extremer Nvidia-Fan wird man sicherlich auf diese grafischen Unterschiede pochen
Sie sind nun mal vorhanden, die Downloadzahlen für die DLSS Mod für Starfield waren nicht umsonst so hoch. Die leute hat die Qualität von FSR einfach gestört, man muss kein "extrmehr Fan " sein, um gute Augen zu haben.
Aber schön wie du wieder jede Möglichkeit nutzten zu zeigen dass du neutral und im Einklang mit 99% der PC Community bist und alle mit anderer Meinung fanboys sind^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und MrHeisenberg
OTC-Trader schrieb:
Schade das nur die neuesten dabei sind, wo doch die Vergangenheit gezeigt hat, das knapp 50% der Nutzer hier bis zu 2 Generationen "zurück" liegen, ala gtx 2070 usw.
Berechtigterweise. Die 7800XT ist nicht schneller wie die 6800XT. Das ist ganz schwach. Es kann einfach nicht sein, dass die Vorgängergeneration mehr fps / Euro bietet wie die aktuelle Generation. Irgendwas läuft seit 2 Jahren gehörig schief.
Laut Steam ist die häufigste Karte die GTX 1650. So sieht die Realität aus. In der "normalen" Welt geben die Leute nicht 800€ für eine GPU aus.
 
  • Gefällt mir
Reaktionen: OTC-Trader
marakuhja schrieb:
Die 7800XT ist nicht schneller wie die 6800XT.

Huh? Nach den Ergebnissen, die ich las, ist die 7800XT immerhin um satt 2-5% schneller als die 6800XT. :heilig:

marakuhja schrieb:
Das ist ganz schwach.

Das ist in der Tat korrekt. Der Schritt zwischen den '800ern ist schlicht beschämend.

Und da ja weder 6900XT noch 6950XT mitgetestet wurden, kann man den Performancezuwachs der jeweiligen Topmodelle auch nur raten...
 
Wolfgang schrieb:
Aber wäre denn so ein "gefakter" AVG-FPS-Wert wirklich so von Vorteil?
Ehrlich gesagt: ich weiß es nicht. Die prozentuale Angabe im Verhältnis zu Grafikkarte XY ist eben auch nur in einem gewissen Maße hilfreich - z.B., ob man bereit ist, 50% mehr Geld für 30% mehr Grafikleistung auszugeben. Aber ja, letztlich hast du und auch einige Vorposter Recht: wenn man harte FPS-Zahlel-Daten-Fakten braucht, wählt man den jeweiligen Spielebenchmark aus dem Artikel an und schaut dort gezielt. Ich bin bei der Tabelle lediglich drübergestolpert, weil ja oben noch von "FPS" gesprochen wird, unten jedoch kleingedruckt "Angaben in Prozent" steht. Dass die RTX 4090 "nur" 99% hat, verstehe ich natürlich auch - eben, weil die RX 7900 XTX in einigen Fällen vor der 4090 landet.

Wolfgang schrieb:
Einen Abschnitt für reduzierte Grafikdetails hab ich hier übrigens schon in meinem Artikel-Dummy für den nächsten Spiele-Benchmarktest (nach deinem Vorschlag) :)
Juchu! Ich bin gespannt wie ein Flitzebogen :)
 
incurable schrieb:
Es ist kein Beinbruch. Die meisten Gamer wollen unterhalten werden. Solange das so ist, spielt Raytracing eine eher untergeordnete Rolle in der Gamingindustrie.
Ergänzung ()

Araska schrieb:
Das ist in der Tat korrekt. Der Schritt zwischen den '800ern ist schlicht beschämend.
Ja das ist leider war. Aber nichtsdestotrotz hat AMD mit der RX 7800 XT eine sehr attraktive Mittelklasse-Grafikkarte für Gamerinnen und Gamer im Angebot. Es ist immerhin eine modernere RX 6800 XT, also eine zukunftssichere WQHD-Karte.
 
Zuletzt bearbeitet:
DevPandi schrieb:
@Taxxor hat auch damit recht, dass man bei AMD bei Spielen wie Cyberpunk und Co einiges an Leistung liegen lässt bei der RT-Implementierung. Man könnte hier mit Optimierungen auf RDNA2 und RDNA3 die Leistung bei den gleichen Presets durchaus noch anheben, ohne die Strahlen zu vermindern.
Der einzige Titel, bei dem AMD in RT ordentlich punktet, ist aktuell Metro Exodus enhanced.
Trotz heavy RT usage brechen die AMD Karten nicht so stark weg, wie es sonst der Fall ist:
https://www.pcgameshardware.de/Metr...us-Enhanced-Edition-Test-Vergleich-1371524/3/

Verwundert mich aber, dass AMD da nicht stärker hinterher ist. Selbst bei Sponsortiteln geht man lieber sparsam mit RT um, anstatt es AMD performant zu implementieren.
Wieso?
 
DJMadMax schrieb:
Ehrlich gesagt: ich weiß es nicht. Die prozentuale Angabe im Verhältnis zu Grafikkarte XY ist eben auch nur in einem gewissen Maße hilfreich - z.B., ob man bereit ist, 50% mehr Geld für 30% mehr Grafikleistung auszugeben. Aber ja, letztlich hast du und auch einige Vorposter Recht: wenn man harte FPS-Zahlel-Daten-Fakten braucht, wählt man den jeweiligen Spielebenchmark aus dem Artikel an und schaut dort gezielt. Ich bin bei der Tabelle lediglich drübergestolpert, weil ja oben noch von "FPS" gesprochen wird, unten jedoch kleingedruckt "Angaben in Prozent" steht. Dass die RTX 4090 "nur" 99% hat, verstehe ich natürlich auch - eben, weil die RX 7900 XTX in einigen Fällen vor der 4090 landet.
Was ich bei dem künstlichen AVG-FPS-Wert halt befürchte ist, dass das einem (also uns bzw. mir) um die Ohren fliegen wird, wenn dort zum Beispiel 60 FPS bei rumkommt und bei den 3 Spielen, die man eben spielt, die Framerate aber unter 60 FPS liegt. Das ist dann ein Szenario, wo solch ein Wert einen Grafikkarten-Käufer der nur auf das Rating-Diagramm schaut (und davon gibt es viele) potenziell zu einem falschen Produkt führt und der sich hier dann natürlich entsprechend lautstark beschwert.

Ich sage nicht, dass AVG-FPS im Rating generell schlecht sind, wenn man weiß, was genau dieser Wert für einen selber bedeutet. Aber sie können halt potenziell zu einem völlig falschen Bild eines Produktes und damit zu einem Fehlkauf führen. Prozentwerte, wie wie sie aktuell nutzen, können das nicht. Denn spätestens so ist klar, dass es mehr Informationen benötigt, um einen sinnvollen Kauf zu tätigen.

Das die aktuelle Umsetzung optimal ist, sage ich damit natürlich auch nicht. Da kann man gerade bei der Namensgebung sicherlich noch etwas dran drehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DJMadMax
Grimba schrieb:
FG als Mogelei zu bezeichnen würde ich zumindest teilweise noch mitgehen. Andererseits, finde ich, ist der Ansatz der Hersteller [...]
Grundsätzlich ist FG nichts Schlechtes. Aber es sollte meiner Meinung nach nicht dafür verwendet werden, um aus "unspielbar" noch "gerade so spielbar" zu machen. Wie man es eben bei AW2 mit Path-Tracing gemacht hat. Denn die Qualität der zusätzlichen FPS durch FG ist nicht gleiche wie durch DLSS/FSR.

FG sollte dazu dienen aus 60 FPS (mit Hilfe von Upscaling) 120 FPS zu machen, damit man seinen 144Hz Monitor energieeffizient ausnutzen zu können.
 
TigerherzLXXXVI schrieb:
Aber es sollte meiner Meinung nach nicht dafür verwendet werden, um aus "unspielbar" noch "gerade so spielbar" zu machen. Wie man es eben bei AW2 mit Path-Tracing gemacht hat.
Kommt drauf an was du als unspielbar und gerade so spielbar einstufst.
Bei Alan Wake 2 ist ja grundsätzlich erst mal DLSS SR gefordert, da bekommt man also vorab schon mal seine erhöhten "echten" FPS.

Damit kommt ne 4060Ti in FHD halt so auf 40FPS, wenn man full Pathtracing geht. Das ist für mich "gerade so spielbar". Mit FG kommt man dann auf 59, was dann "Spielbar" für mich wäre.
 
Wolfgang schrieb:
Ich sage nicht, dass AVG-FPS im Rating generell schlecht sind, wenn man weiß, was genau dieser Wert für einen selber bedeutet. Aber sie können halt potenziell zu einem völlig falschen Bild eines Produktes und damit zu einem Fehlkauf führen. Prozentwerte, wie wie sie aktuell nutzen, können das nicht. Denn spätestens so ist klar, dass es mehr Informationen benötigt, um einen sinnvollen Kauf zu tätigen.
Es ist einfach so, dass eine Leistungsangabe in FPS für einen Menschen intuitiv ist. Prozentangaben wirken verglichen damit eher abstrakt und theoretisch.

Ich verstehe die Diskussion trotzdem nicht ganz. Bei den einzelnen Spielebenchmarks wird die gemesse Performance doch in FPS angegeben... Also alles gut. Beim Leistungsindex (für alle Spiele) nutzt ihr hingegen Prozentwerte, was ja auch Sinn macht.
 
Wolfgang schrieb:
Prozentwerte, wie wie sie aktuell nutzen, können das nicht. Denn spätestens so ist klar, dass es mehr Informationen benötigt, um einen sinnvollen Kauf zu tätigen

Das die aktuelle Umsetzung optimal ist, sage ich damit natürlich auch nicht. Da kann man gerade bei der Namensgebung sicherlich noch etwas dran drehen.
Ich würde an der Stelle zumindest der Kritik zustimmen, dass beim Aufbau der Ratings anscheinend an recht vielen die Info vorbeigeht, dass es sich um Prozente handelt.

In letzter Zeit hat man immer mehr Posts gelesen in der Richtung "Wie, meine Karte soll in 1080p 40FPS schaffen, aber in 1440p immer noch 39?", weil sie dachten, es handelt sich um FPS Werte.

Das größte Problem sind dabei die Tabs, weil dort halt AVG-FPS und Perzentil-FPS drinstehen, also erwartet man auch, dass die Werte darunter AVG-FPS und Perzentil-FPS sind. Bis in die unterste linke Ecke des Kastens wird kaum einer schauen, sobald er seine GPU in der Liste gefunden hat^^

Man müsste eine prägnante Formulierung dafür finden, was in dem Tab drin ist, nämlich der "Prozentuale Unterschied der GPUs basierend auf den AVF-FPS Messungen"
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vitche
Taxxor schrieb:
Die leute hat die Qualität von FSR einfach gestört, man muss kein "extrmehr Fan " sein, um gute Augen zu haben.
Aber Recht hat er wenn er sagt das es nur kleinere Unterschiede sind.
Klar gibt es Leute die das stört und das Optimum haben wollen,aber dem Großteil wird das nicht auffallen bzw wissen die noch nicht mal was von der Technik. :D

Seh ich ja bei mir im "Zockerkreis" wenn wir auf LAN fahren. Alle spielen am Rechner (mit Nvidia) aber die wenigsten kennen DLSS. Halt nur die Technikinteressierten.
Und selbst da kommt auch nur das DLSS mehr "schmiert" und FSR mehr flimmert.
Liegt ja auch an der Implementierung wie gut da ein Upscaler performt.
Aber unterm Strich sind beide Techniken nicht so weit voneinander entfernt das es in der Praxis unter Ottonormalspielern relevant ist was man nutzt.
Und der Abstand verkleinert sich auch immer mehr.
 
Ghostfacekalle schrieb:
Aber Recht hat er wenn er sagt das es nur kleinere Unterschiede sind.
Klar gibt es Leute die das stört und das Optimum haben wollen,aber dem Großteil wird das nicht auffallen
Aber gerade denen kann man dann ja ans Herz legen, wenn sie DLSS benutzen, direkt Balanced statt Quality zu nehmen^^
Je weiter man in den Stufen runter geht, desto größer wird der Unterschied zwischen FSR und DLSS auch.
 
Zurück
Oben