Bericht Grafikkarten-Rangliste 2024: GPU-Vergleich mit GeForce RTX, Radeon RX & Arc für Juli

Danke @Wolfgang für die Aufklärung - bitte noch die Diagramme und Artikel "Bugfixen".
Es würde ja reichen wenn ihr zumindest KURZ auf die verwendeten Settings eingeht (z.B. in welcher API der Test war, etc...)
Geplant ist dazu wieder ein umfangreicherer Artikel..nur wann ist die Frage...

Grob kann ich zu den APIs sagen, dass Nvidia immer DX11 nutzt und nie DX12. Denn DX11 ist immer langsamer.
Bei AMD sieht es anders aus. Außer in Deus Ex, da ist DX12 auch immer langsamer. Generell wird wie im letzten Parcours wieder die API pro Grafikkarte genutzt, die schneller ist.

Jedoch , bin ich der Ansicht ,dass eine Änderung der Grafikeinstellungen definitiv mit Kommuniziert werden muss zu mal sich sonst Leute wundern warum sie unstimmige Werte erhalten ^^
Ja, optimal ist das diesmal alles nicht. Der Parcours wurde leider nicht rechtzeitig fertig. Dennoch habe ich es für besser gehalten, einen nicht ganz fertigen, dafür aber aktuellen Parcours zu nutzen als den alten Schinken, der halt nen ganzes Jahr aufm Buckel hatte.
 
@Wolfgang:

Es geht glaub ich hier gar nicht um den Parcours an sich - sondern einzig um die Art und Weise wie ihr eure Daten präsentiert/rausgebt.

Die ganze Konfusion wäre wohl nicht aufgetreten wenn die Angaben nVidia = DX11, AMD = DX12 + Alptraum-Setting etc. in/bei den Diagrammen stehen würden.
 
Es geht glaub ich hier gar nicht um den Parcours an sich - sondern einzig um die Art und Weise wie ihr eure Daten präsentiert/rausgebt.
Das meinte ich auch :)
 
Es ist sowieso ein Unding, Nvidia mit DX11 und AMD mit DX12 zu testen, nur weil Nvidia bei DX12 mehr oder weniger versagt.
 
Tuetensuppe schrieb:
Es ist sowieso ein Unding, Nvidia mit DX11 und AMD mit DX12 zu testen, nur weil Nvidia bei DX12 mehr oder weniger versagt.

Nö das ist total OK, schließlich kann der Nutzer die API umstellen, nur das mit den Alptraum Settings ist im wahrsten Sinne des Wortes "Praxis fern" da man in Doom die Ini.datei ändern muss und diese bei der Fury mit dem Vanilla Zustand von Doom nicht einstellen kann.
 
@Iscaran Genau. Und wenn sich in manchen Spielen die höchste Texturstufe nicht aktivieren lässt da zu wenig Speicher, würde ich dies auch nicht erzwingen. Denn das wäre nicht repräsentativ für die Leistung da wohl kaum jemand die Konfig Datei eines Spiels so verändert, dass es nicht mehr wirklich spielbar ist.

Einfach dazu schreiben, dass die höchste Einstellung nicht möglich ist. Ich mein ihr seid euch ja auch nicht zu achade in den Lautstärke Diagrammen bei der Fury X immer "störendes Fiepen" hin zu schreiben, auch wenn das Problem schon längst behoben wurde.
 
Die Kritik am Doom-Alptraum kann ich verstehen. Aber imo gibt es in dem Spiel derzeit keine gute Lösung ohne Einschränkungen.

Die an DX11/DX12 gemischt dagegen nicht. Warum sollte ich mit einer Nvidia-Grafikkarte ein Spiel mit DX12 spielen, wenns in DX11 besser läuft? Das gilt natürlich auch anders herum für AMD. Mit "versagen" hat das nichts zu tun. So gesehen "versagt" ja auch AMD in DX11. Und demnach wäre es unfair, AMD nicht mit DX11 zu testen. Nur ergibt sich mir der Sinn dahinter nicht. Man testet darin, wo einer am besten läuft.
 
nein CB macht das schon richtig. Wenn dann einheitlich das Setting erzwingen + die am besten laufende API verwenden. (gerade bei Doom also Alptraum, "Nutzen" hin oder her)

Wenn der Fury (X) der VRam ausgeht kann man das ruhig zeigen, auch wenn der Anwender ggf auf die kleinere Textur zurückgreift. Der GTX 970 und anderen 4 GB Karten geht er ja genauso aus. Und es ist auch richtig gerade bei hohen Einstellungen auch den Max VRam zu belasten. Besser als zu suggerieren dass der VRam bei 4Gb immer ausreicht.

Die API ist da was ganz anderes, das Ergebnis am Schirm sollte nämlich das selbe sein (im Gegensatz zu der Textureinstellung).

Da bin ich bei CB.

Edit: Man kann es halt nach belieben weitertreiben. Kann sein dass in 4K dann DX11 unter Alptraum und Doom dann wieder schneller ist als Vulkan. Die Frage ist was man dann tut. Eig muss man dann auch wieder die API wechseln.

@ Wolfgang
Danke für die Aufklärung. Wichtig wäre in der Tat hier für etwas mehr Transparenz zu sorgen. Genau das Thema zu Savegame, Benchmark usw kam nämlich bei den letzten Tests immer wieder auf.
Super ist zB auch dass nun noch die Percentile mit reinwandern.

Im Zweifelsfall gilt auch Savegame > integrierter Benchmark.
Ergänzung ()

Wolfgang schrieb:
Man testet darin, wo einer am besten läuft.

bei gleicher Grafik sollte man noch dazu fügen. Dazu gehört nun mal auch noch so geringe Unterschiede in Textur auf Max oder unnötig höhe Tessellation.
 
Zuletzt bearbeitet:
Ja, die Transparenz ist im neuen Parcours zugegebenermaßen noch reichlich wenig (bis gar nicht) gegeben...
Das war eigentlich anders geplant, doch grätschte da eben AMD dazwischen. Das soll keine Ausrede sein, nur eine Erklärung.
Ich kann derzeit noch kein Datum nennen, wann sich das verbessert. Auf jeden Fall will ich das aber bis spätestens Vega erledigt haben. Und vielleicht gehts ja auch etwas früher.

bei gleicher Grafik sollte man noch dazu fügen. Dazu gehört nun mal auch noch so geringe Unterschiede in Textur auf Max oder unnötig höhe Tessellation.
Natürlich, sonst wirds sinnlos.
 
Krautmaster schrieb:
nein CB macht das schon richtig. Wenn dann einheitlich das Setting erzwingen + die am besten laufende API verwenden. (gerade bei Doom also Alptraum, "Nutzen" hin oder her)

Wenn der Fury (X) der VRam ausgeht kann man das ruhig zeigen, auch wenn der Anwender ggf auf die kleinere Textur zurückgreift. Der GTX 970 und anderen 4 GB Karten geht er ja genauso aus. Und es ist auch richtig gerade bei hohen Einstellungen auch den Max VRam zu belasten. Besser als zu suggerieren dass der VRam bei 4Gb immer ausreicht.

Sollte nicht generell zuerst dargestellt werden, was die Karten können, anstatt sie gleich frontal gegen die Wand zu jagen? Was habe ich als potenzieller Interessent davon, wenn eine Karte schlechter gemacht wird als sie ist?
 
S3cret schrieb:
Sollte nicht generell zuerst dargestellt werden, was die Karten können, anstatt sie gleich frontal gegen die Wand zu jagen? Was habe ich als potenzieller Interessent davon, wenn eine Karte schlechter gemacht wird als sie ist?

Die Hersteller haben was davon - weil du dann zur nächsthöheren (teureren) Karte greifst ;)
 
Sollte nicht generell zuerst dargestellt werden, was die Karten können, anstatt sie gleich frontal gegen die Wand zu jagen? Was habe ich als potenzieller Interessent davon, wenn eine Karte schlechter gemacht wird als sie ist?
Durch die Einstellung wird die Karte ja nicht schlechter gemacht als sie ist. Mit den Einstellungen hat sie (und andere 4-GB-Karten) halt Probleme. Durch die Benchmarks weiß man dann, dass die volle Texturqualität mit der Karte halt nicht so gut geht (mit einer deutlich günstigeren Karte schon). Problem ist halt die fehlende Erklärung dazu, was man genau sieht.
 
Schön, dass sich die Unstimmigkeiten jetzt endlich aufklären....Ein Artikel mit den verwendeten Testsequenzen und Einstellungen für die Grafikkartentests hätte viele Vermutungen entkräftet. Aber wenn der noch kommt würde ich sagen:"Besser spät als nie."

Wenn wie schonmal dabei sind^^ .....wird es eine Diskussion geben bezüglich der neuen CPU- Testsequenzen? Wie es hoffentlich zur Kenntnis genommen wurde, gibt es da unterschiedliche Ansichten bezüglich sinvoller Ausrichtung der Tests.
Der vorläufige neue CPU-Spieltest ist ebenfalls nicht dokumentiert und daher undurchsichtig.
Und der alte Testparcour(2015 bis 2017) war zu Teilen sehr langweilig für die CPUs.....dafür sicherlich sehr reproduzierbar.....ich würde mir daher eine Diskussion stark wünschen bevor alles für die nächsten 2 Jahre in Stein gemeißelt ist ;).
 
S3cret schrieb:
Sollte nicht generell zuerst dargestellt werden, was die Karten können, anstatt sie gleich frontal gegen die Wand zu jagen? Was habe ich als potenzieller Interessent davon, wenn eine Karte schlechter gemacht wird als sie ist?

das gibts ja in jedem Game Test mit Presets / geringere Auflösungen usw zu genüge. Aber gerade das gegen die Wand fahren will man ja. Ich nehm in einen CPU test ja auch nicht nur Tools auf die max 8 Kerne belasten.
Ergänzung ()

Ap2000 schrieb:
D.h. das Testverfahren ist jetzt für den baldigen Vega Start gut vorbereitet? ;)

wichtigste Ergänzung wird die Einführung der Precentile sein. Vermutlich wichtiger als jeder FPS Balken.
 
Zuletzt bearbeitet:
Mich würde ja endlich mal interessieren, wie die Gigabyte Aorus RX 580 XTR abschneidet.
 
Danke für die näheren Infos zu den Settings.

Gabs dafür nicht mal nen Artikel wo alle Einstellungen etc. angegeben wurden? Irgendwie bin ich zu blind den zu finden.
 
Krautmaster schrieb:
wichtigste Ergänzung wird die Einführung der Precentile sein. Vermutlich wichtiger als jeder FPS Balken.

Ich hab jetzt schon seit einer Viertelstunde versucht, herauszufinden, was die Angabe von Perzentilen im Benchmarkergebnis so toll macht :freak: Klärst du mich bitte auf, ich springe hier nur zwischen sinnlosen Erklärungen und abstrakten Erklärungen hin und her :o
 
duskstalker schrieb:
ich finds löblich, dass du noch so schützende worte in diesem thema wählst. sicherlich passieren fehler, aber ... das ist so als würde ein vorwerk vertreter auf einmal einen bosch staubsager verkaufen und es angeblich nicht merken.

Naja, "schützend" ist vielleicht das falsche Wort, "mäßigend" passt das schon eher (zumal ich eine generelle und zudem so offensichtliche Verschwörung CBs gegen AMD Produkte für unwahrscheinlich halte) und am Ende war es scheinbar verbuggt, aber ich kann Deinen Unmut nachvollziehen und natürlich war es klar auffällig, dass der "Vergleich" gar nicht mehr geht und m.E. das Benchmarking bei CB komplett geändert werden sollte.

Iscaran schrieb:
Man könnte ja das Ranking nach API getrennt machen ... einfach 3 Grafiken. DX11, DX12 & Vulkan.

Ganz meine Meinung, eine Möglichkeit wäre pro Spieletitel einfach beide Daten gemittelt einfließen lassen, also bspw. bei Doom (4) die Open GL Daten und die Vulkan Daten mitteln oder bei Total - War Warhammer eine Mittellung aus Direct X 12 und Direct 11, so dass einigermaßen direkte Vergleichbarkeit gegeben ist.

Das Problem dabei wäre allerdings, dass man nicht beide APIs gleichzeitig zum spielen nutzt sondern immer nur die besser laufende und es weiterhin unrealistisch für den Nutzer/potentielle Käufer ist, so eine GPU vor die Wand fahren zu lassen, weil höchste Einstellungen forciert werden.

Das spiegelt ein Nutzerverhalten überhaupt nicht wieder und sollte als Ausnahme auch nicht in einem generellen Grafikkarten-Vergleich überbewertet werden (wie hier bei Doom geschehen, was keinen echten/fairen Leistungs-Vergleich mehr ermöglicht - da der Speicherausbau verzerrend mit hineinfließt - und so die Daten komplett verzerrt hat).

Natürlich kann man gesondert in einem Artikel solche Einstellungen forcieren/antesten, um zu sehen wo die Limitierungen einzelner GPUs durch den Speicherausbau sind, aber das gehört nicht in die Daten eines generellen CB Grafikkarten-Vergleichs von reiner Leistung, auf dessen Basis in der Materie wenig bewanderte Interessenten Kaufentscheidungen (oft ohne größere Nachforschungen) treffen.

Stattdessen wäre es besser in so einem Fall einfach eine etwas niedrigere Detailstufe (anstelle von "ultra", "hyper", "nightmare" Einstellungen eben nur "very high" oder "high" für den direkten Vergleich wählen, zumal die sichtbaren Unterschiede durch Detailabsenkung i.d.R. marginal sind) um zwischen allen Grafikkarten realistisch vergleichen zu können und einen Kommentar für all diejenigen Grafikkarten zu setzen (mit "*" versehener Verweis/Fußnote passt das schon), die im jeweiligen Spiel bei Höchsteinstellungen am Speicher verhungern.

Auch wenn das etwas mehr Arbeit macht, würde ich daher vorschlagen, beide APIs (also DX11 und DX12 oder Open GL und Vulkan) bei jedem Spieletitel in Klammern hinter der jeweilig getesteten GPU anzugeben und die davon in den Vergleichsdaten genutzte/günstigere API für die jeweilige GPU in Fett- oder Kursivschrift für den Leser eindeutig sichtbar zu machen.

Dann weiß man auch was genau eingeflossen ist und wenn man dann noch entsprechend skaliert, so dass keine der verglichenen GPUs forciert wird über dem Limit zu laufen, dann würde das ganze auch passen.

So viel Arbeit sollte so eine Umstellung nicht sein und ja, die Leistungsverhältnisse würden dann - wenn auch bei z.T. niedrigeren Detail-Einstellungen - aus Nutzersicht realistisch (von den Datenwerten im Verhältnis zueinander passend) dargestellt und alle GPUs die (speichertechnisch) bei Höchsteinstellungen limitieren könnten dementsprechend per "*" gekennzeichnet werden.

Wolfgang schrieb:
... wird die Karte ja nicht schlechter gemacht als sie ist. Mit den Einstellungen hat sie (und andere 4-GB-Karten) halt Probleme. Durch die Benchmarks weiß man dann, dass die volle Texturqualität mit der Karte halt nicht so gut geht (mit einer deutlich günstigeren Karte schon). Problem ist halt die fehlende Erklärung dazu, was man genau sieht.

Besten Dank für Deine Stellungnahme, Wolfgang :), doch leider wird die GPU dadurch schlechter gemacht, weil die Testdaten verzerrt wieder gegeben werden (keinen direkten Vergleich erlauben) und solche Verzerrungen kann man mit einfachen Mittteln nicht miteinander vergleichen (zumal da etliche Faktoren wie der Speichertyp, die GPU-Architektur, das verwendete Testsystem, der Code des Spiels, usw. mit hinein spielen).

Daher denke ich wirklich, dass die von mir oben beschriebene Modifizierung/Umstellung Eurem fehlerbehafteten GPU-Vergleich-Aufbau und dazu gehörigen Daten gut Abhilfe schaffen dürfte, denn schließlich sollen die GPUs doch basierend auf reiner Leistung und eben nicht auf Leistung und manchmal auch Speicherausbau (somit verzerrt) verglichen werden.

Neben dem reinen Leistungsvergleich wäre idealerweise natürlich/gesondert ein reiner Speicherlimit-Vergleich (per Tabelle, Benchmark o.ä. bezogen auf Detailstufe und Auflösungen uneingeschränkt, beschränkt oder gar nicht zu empfehlen) der GPUs angebracht als Teil des Grafikkarten-Vergleich-Artikel.

Jedoch beide (Leistung und Speicherlimit) in einem Benchmark zu vermischen klappt nicht und spiegelt die Realität des Nutzerverhaltens überhaupt nicht wider, wie jetzt ja durch die etlichen Kommentare aufgezeigt.
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Doom ist genau derselbe Benchmark. Aber was du in Doom mit der Fury X meinen könntest (auch das könnte das Problem die fehlende Dokumentation sein):[...] In Doom bedeutet das zum Beispiel die Alptraum-Texturen, die der Fury X aber gar nicht passen. Darum schneidet die Grafikkarte da schlechter ab.

ich habs gerade selbst getestet und die nightmare texturen sind garkein problem, die reduzieren die fps um 1-2. das problem liegt bei den nightmare schatten, aber hier ist auch mein 1700x@3,9 ghz in die knie gegangen. cpu & gpu graphen beide komplett rot @40 fps.

ich hab hier so meine zweifel ob die schatten wirklich sein müssen, zumal hier anscheinend die cpu heftig an der performance beteiligt ist, was bei einem gpu benchmark auch nicht wirklich sinn macht.

es hat schon seinen grund, dass die nightmare einstellungen nicht über "max details" einstellbar sind, sondern einzeln ausgewählt werden müssen. imho sind das gimmick settings, die ggf. nicht optimiert sind.
doom hat eine wirklich gute performance @vulkan - die hardware um mit kaum sichtbaren nightmare schatten flüssig spielen zu können ist unverhältnismäßig. ich sehe hier absoluten keine vergleichbarkeit zur normalen "alltagssituation".

ich würde wirklich dazu plädieren:

doom@ vulkan
ultra details (ultra schatten) + nightmare texturen

wobei hier die frage offen bleibt, wieso ich bei nightmare settings gerade mal bei der hälfte der fps herauskomme und hier nur von den nightmare texturen gesprochen wird, die bei mir allerdings überhauptkeine auswirkungen auf die performance haben :rolleyes:
 
Zuletzt bearbeitet:
Zurück
Oben