Bericht Grafikkarten-Rangliste 2024: GPU-Vergleich mit GeForce RTX, Radeon RX & Arc für Juli

Krautmaster schrieb:
nein CB macht das schon richtig. Wenn dann einheitlich das Setting erzwingen + die am besten laufende API verwenden. (gerade bei Doom also Alptraum, "Nutzen" hin oder her)

Wenn der Fury (X) der VRam ausgeht kann man das ruhig zeigen, auch wenn der Anwender ggf auf die kleinere Textur zurückgreift. Der GTX 970 und anderen 4 GB Karten geht er ja genauso aus. Und es ist auch richtig gerade bei hohen Einstellungen auch den Max VRam zu belasten. Besser als zu suggerieren dass der VRam bei 4Gb immer ausreicht.

Es wird doch nichts suggeriert wenn da angezeigt wird, dass man wegen des knappen Speichers nicht die volle Texturqualität aktivieren kann. Ich hab nichts gegen Ultra Benchmarks, aber Einstellungen über Spieldateimanipulation zu erzwingen ist genauso falsch wie auf mittleren Einstellungen zu benchen. Einfach maximale Einstellungen im Spiel aktivieren und gut ist.

Das Erzwingen von Einstellungen beeinflusst ja auch das Gesamtrating. Dann lieber komplett darauf verzichten, soll doch jeder sich die Spiele anschauen die einen interessieren und sich ein eigenes Bild von der Leistung der jeweiligen Karte machen.
Außerdem frage ich mich warum erst seit kurzem mit Alptraum Texturen gebencht wird.
 
Krautmaster schrieb:
wichtigste Ergänzung wird die Einführung der Precentile sein. Vermutlich wichtiger als jeder FPS Balken.

Es ging mir eher darum, Wolfgang vielleicht schon eine Abschätzung entlocken zu können, wann und wie Vega kommt.
 
Ap2000 schrieb:
...wann und wie Vega kommt.

Also wenn man dieser Verlautbarung, dass nur 16.000 Karten weltweit mit RX Vega GPUs noch in diesem Quartal (bis Ende Juni) auslieferbar sein sollen, glaubt, dann wird man wohl mit Sicherheit vorbestellen müssen um auch nur den Hauch einer Chance zu haben, eine der GPUs zu erhalten (wie steht's dann erst um die gemunkelten Limited Edition Ausgaben :eek: ;) ) ...

... HBM2/SK Hynix scheint da wohl ein großer Flaschenhals zu sein und die GPU Boardpartner von AMD werden sich darüber bestimmt auch mächtig "freuen".

Zumindest wird immer noch das Gerücht von 16 GB HBM2 Ausbau warm gehalten, was ich eher für unwahrscheinlich halte, lasse mich aber gerne dahingehend positiv überraschen/eines anderen belehren.
 
Zuletzt bearbeitet:
@zeedy

das ist meiner Ansicht nach schlich Quatscht und hat nichts mit Manipulation zu tun. Man will und muss Unterschiede zwischen 4 und 8 GB aufzeigen. Ganz gleich welche Marke. Hätte Fiji hier 8GB würde sie wohl abgehen wie Schmitz Katze und keiner würde sich beschweren, genauso eine 7GB GTX 970 oÄ.

Wie gesagt, ich macht genau 0 Sinn nach der Strategie zu benchen damit 4GB Karten besser aussehen. Genauso wären CPU Tests bei kleiner Gaming Auflösung auch Schwachsinn. Wer wissen will wie kleinere Presets performen kann den passenden Spiele Bench anschauen.

Für mich zeugt es eher von Parteilichkeit hier quasi zu verlangen dass ein belastendes Setting ausgeklammert wird. Wie schon geschrieben wäre das dann unfair gegenüber den 8GB Karten, auch aus dem Hause AMD.

Sache des Tellerrandes.
Ergänzung ()

psYcho-edgE schrieb:
Ich hab jetzt schon seit einer Viertelstunde versucht, herauszufinden, was die Angabe von Perzentilen im Benchmarkergebnis so toll macht :freak: Klärst du mich bitte auf, ich springe hier nur zwischen sinnlosen Erklärungen und abstrakten Erklärungen hin und her :o

es ist aussagekräftiger als zb sowas wie Min Frames. Seh es einfach als "Durchschnittliche Min Frames", weniger anfällig als reines Min Frames dass bei einem Peak nach unten dubiose Werte liefert.

Es ist die Varianz, also die Streuung der Frametimes. Sollte deutlich besserer Grad des Spieleempfindens sein als reine Average FPS.

Was bringt es dir wenn du in leeren Räumen zb auf Karte A 300 statt bei Karte B 250 FPS hast aber dann im Dickicht die FPS auf A 25 droppen, bei Karte B nur auf 35 FPS.

Percentile heißt dass 99% der Frames schneller sind als XX. Das ist wichtig, auch wenns um Karten nahe dem CPU Limit geht.
 
Zuletzt bearbeitet:
Chismon schrieb:
Ganz meine Meinung, eine Möglichkeit wäre pro Spieletitel einfach beide Daten gemittelt einfließen lassen, also bspw. bei Doom (4) die Open GL Daten und die Vulkan Daten mitteln oder bei Total - War Warhammer eine Mittellung aus Direct X 12 und Direct 11, so dass einigermaßen direkte Vergleichbarkeit gegeben ist.

Nein ! Mitteln von DX12 und DX11 und weiteren APIs ist totaler quatsch... Du kannst ja nicht auf beiden gleichzeitig zocken. Sondern immer nur ENTWEDER DX12 oder DX11.
ABER man könnte ja beide laufen lassen und dann die Grafiken nach API getrennt darstellen-

Natürlich kann man gesondert in einem Artikel solche Einstellungen forcieren/antesten, um zu sehen wo die Limitierungen einzelner GPUs durch den Speicherausbau sind, aber das gehört nicht in die Daten eines generellen CB Grafikkarten-Vergleichs von reiner Leistung, auf dessen Basis in der Materie wenig bewanderte Interessenten Kaufentscheidungen (oft ohne größere Nachforschungen) treffen.

Stattdessen wäre es besser in so einem Fall einfach eine etwas niedrigere Detailstufe (anstelle von "ultra", "hyper", "nightmare" Einstellungen eben nur "very high" oder "high" für den direkten Vergleich wählen, zumal die sichtbaren Unterschiede durch Detailabsenkung i.d.R. marginal sind) um zwischen allen Grafikkarten realistisch vergleichen zu können und einen Kommentar für all diejenigen Grafikkarten zu setzen (mit "*" versehener Verweis/Fußnote passt das schon), die im jeweiligen Spiel bei Höchsteinstellungen am Speicher verhungern.
Ja so ein Setting in einem speziellen vergleichstest von 4GB vs 8GB Karten oder so macht ja wirklich Sinn. Aber in so einer Übersicht einfach alle @maximum was überall gleich im Game einstellbar ist imd geht laufen lassen ! ODER eben alle 4GB Karten gesondert darstellen bzw. markieren ! Wenns dann eben nur Ultra ist statt Nightmare so what...

Bei AOTS ist es ja ähnlich...da müsste auch ein Hinweis hin (zumindest in test mit mehreren CPUs) dass man <4Kern CPUs nicht mit >4Kern CPUs vergleichen kann wegen der anderen DARSTELLUNG in-Game!

Auch wenn das etwas mehr Arbeit macht, würde ich daher vorschlagen, beide APIs (also DX11 und DX12 oder Open GL und Vulkan) bei jedem Spieletitel in Klammern hinter der jeweilig getesteten GPU anzugeben und die davon in den Vergleichsdaten genutzte/günstigere API für die jeweilige GPU in Fett- oder Kursivschrift für den Leser eindeutig sichtbar zu machen.
100% Zustimmung...die paar Angaben mehr machen kaum etwas unübersichtlich und sind IMMENS wichtig für alle Leute die sich nicht nur die Balken ansehen.

Bei PCGH finde ich das z.T. oft viel besser gelöst bzw. dargestellt.
Analog bei CPU-Tests eine Angabe 4C/8T 4C/4T hinter die CPUs + die jeweilige Taktungen...das sind paar Buchstaben mehr.
Gern kann man diese optionalen Angaben ja im "Bearbeiten"-Subfenster verstecken. Aber hingehören tun Sie in Tests meins erachtens schon.

Bei Automotive Zeitschrift steht ja auch nicht drin "Test-VW vs Test-BMW" ohne weitere Angabe...da steht auch immer das genaue Modell etc. bei...
 
Richtig das Problem ist doch wie viele machen ein config Hack, genau wahrscheinlich so viel die auch ein mobo Hack machen. ;-) Was ich damit sagen möchte also bei Forza H3 oder vielen anderen games kann man bestimmte Sachen nur mit entsprechender HW Base einstellen. Also klar kann man als HW Seite hergehen und alles übergehen ist aber realitätsfern finde ich.

So viel dazu.
 
Ich finde die Texturgrößenprobleme in einzelnen Spielen sollten sich nicht in dieser Form auf das Gesamtrating auswirken. Man stelle sich nur vor bei dem nächsten Spiel oder Benchmark ruckelt sich eine 4GB Karte mit 5-10 FPS statt des 10-fachen ab weil ununterbrochen nachgeladen wird. Das verzerrt den Vergleich im Gesamtrating zu stark... Bei der Fury (X) fällt das ja nur jetzt schon so stark auf weil DOOM mit Vulkan quasi die Paradedisziplin darstellt.

Dann lieber doch lieber mit niedrigeren Texturen benchen, dies kenntlich machen und das Ergebnis des entsprechenden Spiels/Benchmarks aus dem Gesamtrating rausstreichen bzw. ausblenden. Dann profitiert die Karte nicht von der "Mogelei", sie wird im Rating aber auch nicht schwächer gemacht als sie ist.
 
Iscaran schrieb:
... Mitteln von DX12 und DX11 und weiteren APIs ist totaler quatsch... Du kannst ja nicht auf beiden gleichzeitig zocken. Sondern immer nur ENTWEDER DX12 oder DX11. ABER man könnte ja beide laufen lassen und dann die Grafiken nach API getrennt darstellen-

Dass schrieb ich ja auch, dass das keine Sinn machen würde, da es das Nutzerverhalten nicht gänzlich reflektieren würde, allerdings wohl schon die gemittelte Gesamtleistung der Karten von High & Low-Level APIs, somit wäre es mit Sicherheit kein "totaler Quatsch".

Dein Vorschlag in allen Ehren, aber ich denke nicht, dass ComputerBase so einen Aufwand jetzt und in Zukunft betreiben wird. für alle halbwegs aktuellen GPUs beide APIs in allen Einstellungen zu testen.

Ich denke es würde sich für CB lohnen, bei älteren, gegenwärtigen und kommenden Spieletests erstmalig die bessere API Implementierung zu testen, dann eine Handvoll Beispiele für zwei bis maximal 4 GPUs zu benchen (die GTX 1060 und RX 580 bieten sich natürlich als Vergleichspaar dafür am besten an, evt. noch die R9 390 und GTX 970) - die man im Artikel unterbringen kann - und sonst alle GPU-Benchmarks nur auf der für den jeweiligen GPU-Entwickler (nVidia oder AMD) besseren API durchzuführen.

Alles andere erscheint mir vom Aufwand her nicht tragbar für CB, so schön es auch wäre, aber da muss man seine Ansprüche wohl auch ein wenig herunter schrauben und realistisch bleiben und das auf Kosten einer geringerer und weniger aussagekräftiger Spieleauswahl auszuweiten wäre auch keine plausible Option.

Iscaran schrieb:
Ja so ein Setting in einem speziellen vergleichstest von 4GB vs 8GB Karten oder so macht ja wirklich Sinn. Aber in so einer Übersicht einfach alle @maximum was überall gleich im Game einstellbar ist imd geht laufen lassen ! ODER eben alle 4GB Karten gesondert darstellen bzw. markieren ! Wenns dann eben nur Ultra ist statt Nightmare so what ...

Ich denke schon, dass es sinnvoll ist bzgl. Leistung und Speicherausbau getrennt voneinander vorzugehen, von mir aus die bisherigen Benchmarks als reinen Leistungsvergleich bei zu behalten (einzeln und gesamt, allerdings angepasst auf Einstellungen für jede GPU ohne am Speicher zu verhungern ... da diese Einstellungen auch nicht so überkandidelt/meist ohne sichtbaren Nutzen sind wie "hyper", "ultra", und "nightmare" Settings und wie viel Beispiele sind das denn, vielleicht eine Hand voll wenn es hoch kommt ... zumal die Relation bei Senkung des Detaillevels ja in etwa erhalten/repräsentativ für die Leistung bleiben dürfte) und die Speichermengen separat in der Tabelle gelistet für die Hand voll Spiele, bei denen nur eine beschränkte oder gar keine Empfehlung mehr ausgesprochen werden kann, sich so eine betroffene GPU anzuschaffen.

Wenn einen bspw. Doom, Call of Duty - Infinite Warfare, Rise of the Tomb Raider, Mirror's Edge Catalyst, Deus Ex - Mankind Divided oder Ghost Recon Wildlands (also meist Ego Shooter) nicht interessieren, dann wird man auch fündig bzw. das richtige Modell (bspw. eine R9 Fury (X)) finden, ohne durch die aktuell verkorksten Benchmarks - in denen Leistung aufgrund von wenigen Titeln mit Speicherausbau vermischt wird, was eine passende Zuordnung verfälscht und insgesamt verhindert - falsch beraten zu werden und dann teurer einzukaufen als dass was einem vollkommen ausreichen würde.

Iscaran schrieb:
Analog bei CPU-Tests eine Angabe 4C/8T 4C/4T hinter die CPUs + die jeweilige Taktungen...das sind paar Buchstaben mehr. Gern kann man diese optionalen Angaben ja im "Bearbeiten"-Subfenster verstecken. Aber hingehören tun Sie in Tests meins erachtens schon. Bei Automotive Zeitschrift steht ja auch nicht drin "Test-VW vs Test-BMW" ohne weitere Angabe...da steht auch immer das genaue Modell etc. bei...

Guter Einwurf, für CPUs bzgl. der Benchmarks sollte man ähnlich vorgehen wie bei den GPUs (der Aufwand für ein paar zusätzliche Infos/Buchstraben sollte dem nicht im Wege stehen, zumal dieser sich auszahlt, denn die einmal verrichtete Arbeit kann dann doch wieder/mehrfach genutzt werden bei den nächsten Benchmarks).

Wobei ich persönlich die 720p Tests auch als komplett realitätsfern ansehe für alle außer ein paar Notebooknutzern und HardCore-FPS-Spielern vielleicht. Ich weiss, dass dieses dazu dient um keine Limitierung durch GPUs zu erhalten, nur es bleibt nach wie vor komplett realitätsfern - da kaum noch ein Mensch auf 720p spielt - und es ist somit aus meiner Sicht keine relevante Argumentations- und Diskussionsgrundlage.
 
Zuletzt bearbeitet:
Ap2000 schrieb:
... halte ich nicht für glaubwürdig.

Naja, Tweak Town eben, hoffen wir, dass es nur heiße Luft ist ;).

Solange die Erwartungshaltung mit solchen Negativgerüchten (wie diesem oder dem vorherigen Benchmark-Leak) herunter gefahren wird, könnte das eigentlich AMDs RX Vega-Marktstart sogar zu Gute kommen, wenn die Realität dann deutlich positiver aussehen sollte.

Vorbestellen werde ich jedenfalls nicht :p ...
 
Zuletzt bearbeitet:
Ich halte auch die Vermischung von Speicherbegrenzung im Benchmark mit Leistung für falsch oder unglücklich.

Sicherlich ist genug VRAM ein wichtiger Aspekt beim Kauf, aber er wird nur dann essentiell wenn ein Spiel überhaupt nicht mehr läuft. Dies ist aber nicht der Fall.

Natürlich darf man sich die Frage stellen, ob man dann wirklich alles eine Stufe niedriger hätte benchen sollen oder nicht?

Im Endeffekt verzerrt aber so ein Benchmark aufgrund Speicherüberlastung halt ein Gesamtergebnis eines Leistungsbenchmarks, was m.E. noch viel schlimmer Leute in die Irre führen kann.

PS: Euch fehlt eine 1070 Custom in der Liste!
 
Zuletzt bearbeitet:
Mracpad schrieb:
Ich finde die Texturgrößenprobleme in einzelnen Spielen sollten sich nicht in dieser Form auf das Gesamtrating auswirken.[...] Bei der Fury (X) fällt das ja nur jetzt schon so stark auf weil DOOM mit Vulkan quasi die Paradedisziplin darstellt.

die fury hat in doom mit nightmare texturen kein problem. habs erst heut mittag selbst probiert - fps unterschied ist absolut in der messungenauigkeit. wqhd ultra preset + nightmare texturen im uav level sind im schnitt 110 fps, min 100 fps. was richtig leistung frisst sind nightmare schatten - und da komm ich auf ca 40 fps, zusätzlich mit cpu am limit (1700x @3,9 ghz).
 
Die Lieferbarkeit von RX 470/480 mit 8GiB scheint ja im Moment katastrophal zu sein. Weiß jemand, was da los ist? Und bei den RX 570/580 sieht es nicht besser aus...
 
Wenn wie schonmal dabei sind^^ .....wird es eine Diskussion geben bezüglich der neuen CPU- Testsequenzen? Wie es hoffentlich zur Kenntnis genommen wurde, gibt es da unterschiedliche Ansichten bezüglich sinvoller Ausrichtung der Tests.
Der vorläufige neue CPU-Spieltest ist ebenfalls nicht dokumentiert und daher undurchsichtig.
Auch wenn es nicht mein Gebiet ist, gehe ich davon aus, dass auf der zukünftige CPU-Parcours dokumentiert wird, wenn er fertig ist.
Bezüglich Ausrichtung etc.. Meinst du die Sache mit den Auflösungen? Oder was genau meinst du?

D.h. das Testverfahren ist jetzt für den baldigen Vega Start gut vorbereitet?
Genau deswegen ist der Parcours jetzt fertig geworden :)

Gabs dafür nicht mal nen Artikel wo alle Einstellungen etc. angegeben wurden? Irgendwie bin ich zu blind den zu finden.
Den gabs/gibts mal, aber der ist halt für den alten Parcours:
https://www.computerbase.de/2016-05/grafikkarten-testsystem-2016/

Daher denke ich wirklich, dass die von mir oben beschriebene Modifizierung/Umstellung Eurem fehlerbehafteten GPU-Vergleich-Aufbau und dazu gehörigen Daten gut Abhilfe schaffen dürfte, denn schließlich sollen die GPUs doch basierend auf reiner Leistung und eben nicht auf Leistung und manchmal auch Speicherausbau (somit verzerrt) verglichen werden.
Ich sehe das eher so: Für mich gehört der Speicherausbau auch zur "Leistung" hinzu. Für mich ist eine Grafikkarte ein Gesamtpaket, was stimmen muss. Dies ist für mich die "Leistung". Und wenn der Speicherausbau nicht stimmt, gibt es ein Problem bei der "Leistung".

Was man nicht vergessen darf ist, dass der Parcours sich an aktuelle und zukünftige Grafikkarte richtet. Und dass ist die R9 Fury (X) eben nicht. Zumal - um mal ganz ehrlich und offen zu sein - die 4GB auf der Fury X einfach nur total bescheuert waren. Es gibt eben nicht anders, aber das macht es nicht besser.

wobei hier die frage offen bleibt, wieso ich bei nightmare settings gerade mal bei der hälfte der fps herauskomme und hier nur von den nightmare texturen gesprochen wird, die bei mir allerdings überhauptkeine auswirkungen auf die performance haben
Wenn dies passiert, geht dir auch der VRAM aus (behaupte ich jetzt mal. Wenn deine Grafikkarte mehr als 4GB hat...hab ich mich in die Nesseln gesetzt:D).
Meine Erfahrung in Doom ist, dass die beiden Nightmare-Einstellungen überhaupt keine FPS kosten, wenn der Grafikkartenspeicher reicht.

es hat schon seinen grund, dass die nightmare einstellungen nicht über "max details" einstellbar sind, sondern einzeln ausgewählt werden müssen. imho sind das gimmick settings, die ggf. nicht optimiert sind.
doom hat eine wirklich gute performance @vulkan - die hardware um mit kaum sichtbaren nightmare schatten flüssig spielen zu können ist unverhältnismäßig. ich sehe hier absoluten keine vergleichbarkeit zur normalen "alltagssituation".
Das machen aber viele Spiele so. Also die die maximalen Details nicht automatisch mit den höchsten Presets genutzt werden. Und die letzten Grafikdetails kosten immer viel und bringen wenig. Dennoch werden die ja deswegen keinen totalen Quatsch.

Wie bereits gesagt, der Parcours richtet sich an aktuelle und zukünftige Grafikkarten. Die Settings wurden auch nicht ohne Sinn und Verstand ausgewählt. Das Ziel war es, mit einer GTX 1080 FE in 1.920x1.080 >= 60 FPS, in 2.560x1.440 >=45FPS und in 3.840x2.160 >=30 FPS zu erzielen. Und die damals mit der Fury X konkurrierende GTX 980 Ti kommt ja auch mit den Einstellungen klar. Es geht also schon.

Es wird doch nichts suggeriert wenn da angezeigt wird, dass man wegen des knappen Speichers nicht die volle Texturqualität aktivieren kann. Ich hab nichts gegen Ultra Benchmarks, aber Einstellungen über Spieldateimanipulation zu erzwingen ist genauso falsch wie auf mittleren Einstellungen zu benchen. Einfach maximale Einstellungen im Spiel aktivieren und gut ist.

Das Erzwingen von Einstellungen beeinflusst ja auch das Gesamtrating. Dann lieber komplett darauf verzichten, soll doch jeder sich die Spiele anschauen die einen interessieren und sich ein eigenes Bild von der Leistung der jeweiligen Karte machen.
Außerdem frage ich mich warum erst seit kurzem mit Alptraum Texturen gebencht wird.
Ist es aber nicht genauso falsch, die maximalen Details zu ignorieren, nur weil ältere Grafikkarten mit einem nicht exotischen (!) "Hardwaremangel" es nicht können? Ist es nicht eher sinnvoller, diese Produkte zu deswegen abzustrafen?

Die Texturen werden erst seit kurzem gebencht, weil eben erst seit kurzem der Parcours geändert wurde ;)

Es ging mir eher darum, Wolfgang vielleicht schon eine Abschätzung entlocken zu können, wann und wie Vega kommt.
Du, würde ich da auch nur irgendwas von wissen, wäre ich echt happy. Aber dann würde ich es hier eh nicht schreiben ;)

100% Zustimmung...die paar Angaben mehr machen kaum etwas unübersichtlich und sind IMMENS wichtig für alle Leute die sich nicht nur die Balken ansehen.

Bei PCGH finde ich das z.T. oft viel besser gelöst bzw. dargestellt.
Analog bei CPU-Tests eine Angabe 4C/8T 4C/4T hinter die CPUs + die jeweilige Taktungen...das sind paar Buchstaben mehr.
Das geht schon (beides) alleine deswegen nicht, da es die Diagramme und das Diagramm-Design sprengen würde. Das sind Sachen, die einem als Enthusiasten (und ehrlich, auch mir persöhnlich) egal sind, aber ich schreibe nunmal nicht nur für uns, sondern für alle Leser.

Ich benche für alle Grafikkarten immer beide APIs. Und ich habe auch kein Problem damit, euch hier im Forum, etwas aus Spaß mal zusammen zu basteln. Aber in die richtigen Artikeln passt das einfach nicht. Alleine aus Übersichts- und Design-Gründen.

PS: Euch fehlt eine 1070 Custom in der Liste!
Und eine 1080 Ti Custom. Bei denen scheiterte es noch am noch nicht finalen Parcours. Beim nächsten Mal sind beide aber drin.
 
Mcr-King schrieb:
Richtig das Problem ist doch wie viele machen ein config Hack, genau wahrscheinlich so viel die auch ein mobo Hack machen. ;-) Was ich damit sagen möchte also bei Forza H3 oder vielen anderen games kann man bestimmte Sachen nur mit entsprechender HW Base einstellen. Also klar kann man als HW Seite hergehen und alles übergehen ist aber realitätsfern finde ich.

So viel dazu.

also statt den "hack" zu machen lieber im Standard Setting testen? Dann kann man sich das Einstellen wohl gleich schenken und das Auto Setting nehmen ^^

Das kommt doch aufs gleiche raus wie wenn BF 1 für 2 Kern CPU nur 16 Player Maps zulassen würde. Wenn man CPU / GPU vernünftig testen muss das Setting schon gleich sein. Zumindest um einen Leistungseindruck zu gewinnen. Was du dann in Praxis tust steht doch auf einem anderen Papier, aber du willst sicher nicht 20 gleich lange Balken nur weil jede GPU im Auto Grafik-setting etwa identische FPS liefert - bei unterschiedlicher Optik.
 
@immortuos; Du bist ein weiterer Beweis dafür, dass wirklich jede auch noch so kleine Aussage eines CB-Redakteurs direkt extrem interpretiert wird. lol
 
Gnasher schrieb:
Ich halte auch die Vermischung von Speicherbegrenzung im Benchmark mit Leistung für falsch oder unglücklich.

Sicherlich ist genug VRAM ein wichtiger Aspekt beim Kauf, aber er wird nur dann essentiell wenn ein Spiel überhaupt nicht mehr läuft. Dies ist aber nicht der Fall.

naja wenn der Speicher gar nicht mehr reicht dann passiert das was man hier sieht. Das Spiel bricht total ein. Unabh. von der Farbe des Herstellers. Dass man angesichts 8 GB Karten zu 250€ einen Parcour wählt, der im Einzelfall auch von >4 GB profitiert ( bzw bei 4Gb dann komplett einbricht) ist doch nur sinnvoll.

4GB sind schlicht nicht mehr zeitgemäß. Fiji ist auch keine 2 Monate alt. Genau wie eine GTX 970. Man darf hier nicht erwarten dass ein neuer Parcour VRam freundlich zu >2 Jahre alten Karten sein muss. Es werden sicher 90% der Games 2017 mit 4GB auch gut zurecht kommen. Auch ohne dem Einbrechen der FPS wie in DOOM Alptraum sieht man aber auch gut an den Percentilen dass 4 GB heute schon oft nicht mehr ganz ausreicht, die Frametimes unrund werden.

zB:
https://www.computerbase.de/2017-05...g-99th-percentile-frametimes-in-fps-2560-1440

-> 1440p -> Fury X bei Average FPS gut 10% vor der RX 580.
-> bei den Percentilen gleich auf.

Begrenzt man die Percentile es auf Doom dann ist die RX 580 30% vor der Fury X. Und fühlt sich sicher auch Längen besser an.

Von der Rohleistung müsste die Fury X hier eig locker 30% davon ziehen.

P.S:: ein gutes Beispiel das HBM auch nur Speicher ist, zumindest bei der Fiji. Ob Vega hier was zaubern kann wird sich zeigen. Fakt is aber dass man 8 GB aktuell schwer ausgelastet bekommt, egal mit welchem Szenario. Vllt 3x 4K in Doom Alptraum ;)
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Doom ist genau derselbe Benchmark....Entsprechend sind die Grafikoptionen eingestellt. In Doom bedeutet das zum Beispiel die Alptraum-Texturen, die der Fury X aber gar nicht passen. Darum schneidet die Grafikkarte da schlechter ab. Und die GTX 970 bricht zum Beispiel völlig weg.
Sorry wenn ich die korrekte Antwort auf meine Frage in den letzten beiden Seiten überlesen habe, aber wenn man nur die Texturstufe geändert hat, zum Nachteil einer 4GB Karte, wie kommt es dann das im Vergleich beim Test der 1080Ti die 390 noch 28% schneller als eine 970 ist, und beim aktuellen Ranking ist die 970 plötzlich aber 3% schneller?
Quelle: https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/2/#diagramm-performancerating-1920-1080 und https://www.computerbase.de/thema/grafikkarte/rangliste/

Von wegbrechen kann hier nicht die Rede sein. Und
Wolfgang schrieb:
Meine Erfahrung in Doom ist, dass die beiden Nightmare-Einstellungen überhaupt keine FPS kosten, wenn der Grafikkartenspeicher reicht.
kann schon 2 mal nicht stimmen.

Und wenn man schon dabei ist, die Texturen zu erzwingen, hoffe ich doch mal stark dass ihr auch bei Deus Ex:MD und Mirros Edge Catalyst jeweils die höchsten Texturstufen verwedet habt. Schließlich wurde bei den beiden Spielen im Release Test auch erwähnt, dass man mit 4GB die Texturstufen runterstellen muss. Dennoch konnte in beiden Titeln eine 970 die 390 mittlerweile überholen.
So kritisch kann das also mit dem Vram nicht sein.

Edit: Ich glaub mich tritt ein Pferd, ich sah da vorhin 23% Unterschied, jetzt nur mehr 3%.
Dabei fällt mir aber auf, die Fury bricht wegen ihren 4GB Vram weg, in 4K kann sie aber eine 1070 und 980Ti wieder überholen? Kann das gehen?
 
Zuletzt bearbeitet:
Sorry wenn ich die korrekte Antwort auf meine Frage in den letzten beiden Seiten überlesen habe, aber wenn man nur die Texturstufe geändert hat, zum Nachteil einer 4GB Karte, wie kommt es dann das im Vergleich beim Test der 1080Ti die 390 noch 28% schneller als eine 970 ist, und beim aktuellen Ranking ist die 970 plötzlich aber 3% schneller?
Ganz einfach: Im 1080 Ti Test wird noch der alte Testparcours genutzt. Ohne Alptraum-Einstellungen.

kann schon 2 mal nicht stimmen.
Weil?

Und wenn man schon dabei ist, die Texturen zu erzwingen, hoffe ich doch mal stark dass ihr auch bei Deus Ex:MD und Mirros Edge Catalyst jeweils die höchsten Texturstufen verwedet habt. Schließlich wurde bei den beiden Spielen im Release Test auch erwähnt, dass man mit 4GB die Texturstufen runterstellen muss. Dennoch konnte in beiden Titeln eine 970 die 390 mittlerweile überholen.
So kritisch kann das also mit dem Vram nicht sein.
In Mirrors Edge Catalyst kommt durchweg das Hyper-Preset mit voller Texturauflösung zum Einsatz. In Deus Ex das Ultra-Preset mit vollen Texturdetails in 1920x1080 sowie 2560x144. In 3840x2160 dann das Sehr-Hoch-Preset mit zweithöchster Texturstufe.
Aber wo zur Hölle siehst du bei unseren Deus Ex Benchmarks, dass die GTX 970 vor der R9 390 liegt? Die AMD-Karte ist um Meilen schneller. Und genau dasselbe passiert in Mirror's Edge. Ich verstehe deinen Post nicht.

Und deine Beobachtung in Doom sehe ich in den Diagrammen auch nicht. Wo zur Hölle guckst du?^^
 
Zurück
Oben