Test GPU-Testparcours 2020: Grafikkarten von AMD und Nvidia im Vergleich

ThirdLife schrieb:
Irgendwie seh ich davon garnix. Selbst eine nicht übertaktete 0815 FE unter Luft reisst problemlos knappe 100fps in BF5

Dann hast du dir aber auch einen Titel ausgesucht, der sowieso nicht besonders gut auf Nvidia Grafikkarten läuft. Wo du die Pascal Karten einordnen kannst, sieht man gut anhand von Raytracing Leistung OHNE Hardwareunterstützung.

1576604249048.png

https://www.computerbase.de/2019-04/nvidia-pascal-raytracing-treiber/

Der Unterschied zwischen den Architekturen ist enorm, wenn du dir mal die 1660Ti und die 1080Ti als Vergleich heranziehst und auch wenn RT ohne HW keine Relevanz hat, so wird man den Unterschied hier und dort immer stärker auch in anderen Bereichen spüren, sobald die Spiele auf die neuen GPU Generationen optimiert werden. Die Verschiebung in Richtung Turing beim aktuellen Parcours kommt ja nicht von ungefähr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso und captain kirk
Taxxor schrieb:
Wurde zwar schon gesagt aber Texturen kosten keine GPU Leistung, sondern nur VRAM. Ultra Texturen gehen also noch in absolut jedem Spiel.
Dazu muss sie auch erst einmal wer verbasteln ,ohne das die Grafikengine neuerer Spiele die GPU schon allein ohne solche Spielereien in die Knie zwingt
Letzteres ist quasi ein fortwährender Prozess , der den Grafikkarten so bereits ihren Gnadenstoß versetzt ,bevor da überhaupt jemand auf den Gedanken käme überbordende Tapete zu verbasteln:-)
 
captain kirk schrieb:
Dazu muss sie auch erst einmal wer verbasteln ,ohne das die Grafikengine neuerer Spiele die GPU schon allein ohne solche Spielereien in die Knie zwingt
Dazu kannst du ja die anderen Regler von Ultra auf hoch zurück ziehen und dir 25% Leistung für 1% schlechtere Optik holen. Und damit wird man noch ein Weilchen auskommen.
 
  • Gefällt mir
Reaktionen: schuetze27
@Wolfgang @Jan

Wäre es möglich anzugeben, ob die jeweilige GPU während des Runs ins Powerlimit gelaufen ist?
Noch besser wäre natürlich eine prozentuale Angabe :-)

Vielleicht können @ZeroStrat & @Taxxor gleich so ein Feature in CX mit einbauen? :-)
Wir wollen ja schließlich die eierlegende Wollmilchsau!
 
  • Gefällt mir
Reaktionen: ZeroStrat
@Redaktion:

Wie kann man bloß so einen Test zusammenstellen?

Wenn man ein Spiel wählt, was aber für Tests ungeeignet ist, dann läßt man dieses weg.
Oder aber man läßt die Hardware weg, die man nicht testen kann, was aber auch nicht im Sinne des Erfinders ist.
Oder, man ist so konsequent und bestraft das Objekt mit 0 Punkten für nicht erfüllte Testvorraussetzungen, die ja nunmal extra so festgelegt worden sind.
Aber der Höhepunkt ist, dass man sich dann einfach Werte ausdenkt, damit das alles so halbwegs irgendwie wohl hinkommen mag.
Aber wozu dann auch großartig testen?
Ich kann auch die Hardwareinfos von der Hersteller ablesen und rechne grob im Kopf aus, dass da ungefähr die Hälfte von Testobjekt xy dabei herauskommen müsste.
 
Zuletzt bearbeitet:
BxBender schrieb:
Aber wozu dann auch großartig testen?
Würfelzahlen damit die Balkendiagramme nicht komisch aussehen sind in der Tat Quark.
BxBender schrieb:
Ich fand den Blödsinn mit den hohen Auflösungen im Test immer schon sehr daneben, weil Leistungswerte verfälscht werden.
Hier geht es um den Test von Grafikkarten, hohe Auflösungen verfälschen nichts, sondern zeigen die Leistung unter verschiedenen Szenarien. Hier ist also Deine Kritik Quark.
BxBender schrieb:
Aber nun gut, jedenfalls hat es sich jetzt endgültig für mich erledigt, hier nach kompetenten Testberichten im Bereich Grafik Ausschau zu halten.
"Dabei seit: Juli 2019" :freak:
 
  • Gefällt mir
Reaktionen: Schranz0815
Hab ich was verpasst? Wo wurden denn hier Zahlen gewürfelt? Um welches Spiel geht es?
 
"Zu Red Dead Redemption 2 (Test) gibt es eine Anmerkung zu machen: Die gewählten Details erfordern mehr als 4 GB Grafikspeicher und lassen sich auf einer GeForce GTX 1650 (Super) deshalb erst gar nicht einstellen – „RDR2“ ist hier streng. Der in diesem Spiel eingetragene Wert für diese Grafikkarte basiert deshalb nicht auf einem tatsächlich durchgeführten Lauf, sondern wurde von der Redaktion aus noch lauffähigen Einstellungen abgeleitet. Ohne einen Wert in diesem Spiel wäre eine Abbildung der Grafikkarte im Leistungs-Rating allerdings nicht möglich."
 
  • Gefällt mir
Reaktionen: fox40phil, duskstalker und Taxxor
Ich bin auch etwas stutzig geworden, ich glaube, hier sollte CB nochmal erläutern, wie was genau getestet wurde.
Bei den Lautestärkemessungen ist mir aufgefallen, das die 5700 zwar immer noch als leise ein zustufen ist, aber meine Asrock Challenger 5700 mit 2 Slot größe, höre ich selbst bei Shadow of the Tomb Raider nicht, schon Merkwürdig, das da ne Polaris besser abschneidet, aber gut.
Achso Auflösung 5760x1200 (Eyefinity über drei Monitore a 1920x1200).
 
Entschleuniger2 schrieb:
Keine Ahnung, was du für eine 5700XT hattest, ich hab hier die Nitro+ und da ist nix mit Lüfterproblemen. Die Karte ist super. Und der allgemeine Tenor der Nutzer ist ähnlich.

Der allgemeine Tenor? Schau doch hier mal in das AMD Forum oder auf reddit oder sonst wo. Überall gibt es seit Release Lüfterprobleme bei diversen Modellen.
 
  • Gefällt mir
Reaktionen: Affe007 und dr. lele
incurable schrieb:
"Zu Red Dead Redemption 2 (Test) gibt es eine Anmerkung zu machen: Die gewählten Details erfordern mehr als 4 GB Grafikspeicher und lassen sich auf einer GeForce GTX 1650 (Super) deshalb erst gar nicht einstellen – „RDR2“ ist hier streng. Der in diesem Spiel eingetragene Wert für diese Grafikkarte basiert deshalb nicht auf einem tatsächlich durchgeführten Lauf, sondern wurde von der Redaktion aus noch lauffähigen Einstellungen abgeleitet. Ohne einen Wert in diesem Spiel wäre eine Abbildung der Grafikkarte im Leistungs-Rating allerdings nicht möglich."
Es ist ziemlich peinlich sich über etwas zu beschweren ohne den Text gelesen zu haben. Kommt immer öfter vor. TLDR too long, didn't read....
 
  • Gefällt mir
Reaktionen: KlaraElfer
LinuxTux schrieb:
Bei den Lautestärkemessungen ist mir aufgefallen, das die 5700 zwar immer noch als leise ein zustufen ist, aber meine Asrock Challenger 5700 mit 2 Slot größe, höre ich selbst bei Shadow of the Tomb Raider nicht
Das ist einfach der Unterschied zwischen Referenzbläser und Drittanbietermodell.
 
Esenel schrieb:
Vielleicht können @ZeroStrat & @Taxxor gleich so ein Feature in CX mit einbauen? :-)
Wir wollen ja schließlich die eierlegende Wollmilchsau!
@Taxxor kann zur Zeit nicht kompilieren, sonst wäre das längst fertig. ^^

Ne, im Ernst, die Infrastruktur steht ja jetzt dafür und wenn man die Parameter aus HWInfo rauskriegt, sollte das sogar relativ leicht machbar sein.
 
  • Gefällt mir
Reaktionen: Esenel
SoRBiT83 schrieb:
Kurze Frage: wo ist 1080ti?!

sollst gefälligst neu kaufen,

B2T:
Benchmarks heut zu Tage, sehe ich zumindest bei CB & Luxx als Sinnlos an.
Es wird nur das "Neueste" "Beste" und in Max Out getestet.

Vergleichbarkeit ergibt sich daher sehr wenig und unterstell CB & Luxx der Werbung für die Hersteller nicht des testens.
 
duskstalker schrieb:
Es sind sehr viele nvidia gesponsorte und unreal Engine Spiele (ist das selbe) im parcours, dazu noch anno. Resident evil ist rausgeflogen.

Finde ich irgendwie recht unausgeglichen, was den Vergleich zu alten Karten schwer macht, da für GCN heftige stolpersteine drin sind, in denen Navi gerade noch so "ok" aber keinesfalls gut ist.

Das sieht man auch an eurer Performance Analyse. RDNA gewinnt gegen GCN, aber insgesamt rutschen RDNA und GCN vs nvidia ab, während sich fps und frametimes bei turing und Pascal die Waage halten.

Also tldr: AMD durchweg langsamer, RDNA weniger langsam geworden als GCN, begründet durch Spieleauswahl, die für nvidia die alten Verhältnisse grob bewahrt.

Naja, wonach soll man denn die Spiele auswählen?

Insgesamt ist die Auswahl der Titel aktueller geworden.

Man könnte auch nach Spielerzahl auswählen. Fortnite, PUBG, GTA oder so? Schau dir die Engines dort mal an, fällt dir was auf? Nvidia würde sich noch deutlich weiter absetzen.

Die Realität ist nun mal, dass die Entwickler sich dem Markt anpassen und der besteht zu 80% aus Nvidia. Und das hat in dem Fall auch nichts mit Marktmanipulation oder Bestechungen zu tun, sondern damit, dass man konsequent über mehrere Generationen hinweg gute Ergebnisse abgeliefert hat.
 
  • Gefällt mir
Reaktionen: Affe007, captain kirk, KlaraElfer und eine weitere Person
Im Sommer 2020 wird es krachen.

Nvidia ist ja jetzt schon meilenweit vor AMD voraus aber mit der 3000er Serie wird es wohl den größten Abstand geben den es jemals gab.
 
ZeroStrat schrieb:
@Taxxor kann zur Zeit nicht kompilieren, sonst wäre das längst fertig. ^^

Ne, im Ernst, die Infrastruktur steht ja jetzt dafür und wenn man die Parameter aus HWInfo rauskriegt, sollte das sogar relativ leicht machbar sein.

MSI AB spuckt die Daten auch aus.
Der greift ja auch nur auf diese Schnittstellen zu, oder?
 
Esenel schrieb:
MSI AB spuckt die Daten auch aus.
Der greift ja auch nur auf diese Schnittstellen zu, oder?
HWInfo kann man z.B. nehmen um sich dort alles rauszuziehen(Da holt der Afterburner sich das wahlweise ja auch her), damit könnte man die Analysis Seite erweitern mit zuschaltbaren Graphen für CPU und GPU Auslastung über diese Zeit.
Mit dem Power Limit wirds evtl etwas schwieriger, weil man da nur einen Verbrauchswert rausziehen kann, das Maximum müsste man sich dann selbst einstellen.
So hätte man dann aber alle zuschaltbaren Graphen in Prozent, was die Darstellung vereinfacht.
 
Zurück
Oben