Test RX 5700 (XT) und RTX 2070 Super: Overclocking, Undervolting und PCIe 4.0 im Test

miagi schrieb:
Wenn man wirklich viel Spielt z.B. 40h die Woche im Jahresdurchschnitt und wir haben zwei Karten die ein Verbrauchsdelta von 50 W haben, kann das über zwei Jahre ein unterschied von 60€ sein. ....

Neeeeeein, da ist ja wieder diese Milchmädchenrechnung xD!
So funktioniert das nicht ^^
Auch wenn du aufwendige Titel zockst läuft deine Karte nahezu nie auf maximaler Auslastung.
Auch wenn GPU-Z (oder ein anderes Tool deiner Wahl) 98-100% anzeigt so ist dies nicht mit einer maximalen Auslastung und entsprechendem Verbrauch gleichzusetzen.
Wenn ich meine Vega 56 mit FurMark oder mit MHW laut Tool zu ~99% belaste, herrscht zwischen diesen Anwendungen trotzdem ein Unterschied von ~30W!

Des Weiteren zockt niemand so viel jeden Tag am Stück und das auch noch mit Maximallast.
Es gibt ja auch Ladebildschirme oder weniger aufwendige Szenen oder auch mal Urlaub ;)

Also nein!
Diese Rechnung funktioniert einfach nicht, auch nicht abstrahiert oder als Richtwert! ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Charminbaer und Unpassend
Zuerst mal Danke für den Test.
Ich hätte mir jedoch gewünscht, dass man das Thema PCIe 4.0 mal genauer unter die Lupe genommen hätte.
Die verwendete 5700 XT ist kein Highend sondern die gehobene Mittelklasse, da wird es in 2560x1440 schon eng und die Graka ist immer der limitierende Faktor.
Zweitens, wenn man ein Bussytem messen will, sollte man diese Limitationen möglichst umgehen oder so klein wie möglich halten. Mangels Alternativen, bleibt da ja nur die Reduzierung der Auflösung.
Alte Tests zu den Versionen 2.0 zu 3.0 zeigten doch damals schon, dass gerade in höheren Auflösungen abseits von SLi und CF keine signifikante Unterschiede auszumachen waren. Auch war damals schon das alte CoD (welche Nummer war das noch mal?) eines der wenigen Spiele die darauf angesprochen hatten.
Die Unterschiede wurden um so größer je schneller das System arbeiten durfte. Habe ich selbst getestet und das waren dann auch schon mal mehr wie 10% Leistungsunterschied.

Der Test so wie er jetzt durchgeführt wurde, ist meiner Meinung nach ähnlich zu bewerten wie ein CPU Test mit eine 5700 XT der mit der Auflösung 2560x1440 durchführt wurde und man zu dem der Fazit kommt:
Ist eh egal was da im Rechner steckt, Hauptsache mindestens 4 Kerne mit HT und möglichst hoher Takt auf diesen.
Die Aussage als solches wäre sogar richtig und dennoch sieht man, dass schon eine Auflösung von 1920x1080 ausreicht um deutlichere Unterschiede auszumachen. Die in der Regel bei den CPU Tests verwendete 2080Ti ist noch mal eine ganz andere Leistungsklasse wie die hier mangels Alternative verwendete 5700XT. Doch selbst die 2080Ti ist nicht immer schnell genug ( in 1920x1080) um aufzuzeigen, wie schnell eine CPU wirklich sein könnte.
Wenn die Graka entlastet wird wir eine bessere Balance zwischen GPU- und CPU-Limit erreichen würden kann man vielleicht eher, zum heutigen Zeitpunkt, zu einer belastbaren Aussage kommen ob eine Anbindung über PCIe 3.0 und PCIe 4.0 wirklich egal ist.

Hier mal ein Test aus 2013 mit einer HD 7970 von PCGH. Es würde mich sehr wundern, wenn man mit der heute verwendeten HW die um ein Vielfaches leistungsstärker ist nicht vergleichbare Ergebnisse erreichen könnte.
Pcie Test 2013.JPG


Und dann zum Vergleich aus dem gleichen Jahr hier auf CB.
https://www.computerbase.de/2013-01/bericht-pcie-3.0-vs-pcie-2.0/2/

Grüße
 
  • Gefällt mir
Reaktionen: Charminbaer und scratch
Zibbe schrieb:
Ich habe mir zwar von PCIe 4.0 mehr versprochen immerhin doppelte Datenübertragung zwischen CPU und GPU. [...] Zum glück gibt es Leute bei CB die für einen die Augen offen halten. Danke CB!

Du bist ja noch nicht so lange dabei. Aber im Grunde war das bei den Generationswechseln für PCIe immer so. Jede neue Generation hat eine Bandbreitenverdopplung zur vorherigen bedeutet und die zumindest die erst 2-3 Grafikkartengenerationen haben davon jeweils kaum profitiert - wenn überhaupt irgendwann signifikant. Wo es eine größere Rolle spielt ist beim Thema Multi-GPU sowie Storage - und möglicherweise noch bei Spezialhardware im Produktivbereich.

TechpowerUp hat das ganze sogar zurück bis Gen 2.0 (immmerhin nur 25% der Bandbreite von 4.0) - insgesamt verliert die RX5700XT ca. 2%: https://www.techpowerup.com/review/pci-express-4-0-performance-scaling-radeon-rx-5700-xt/19.html.

Insgeasmt werden wir abwarten müssen bis auch GPUs vom Leistungsniveau einer 2080 mit 4.0 erscheinen um da wirklich ein sinnvolles Urteil zu fällen.
 
  • Gefällt mir
Reaktionen: Charminbaer und loser
In dem Beitrag steht wirklich viel Unsinn. Wie kann man bitte von einem "Sweetspot" sprechen, wenn die kontinuierliche Kurve der Verbrauchseffizienz in Abhängigkeit einer stabilen Taktrate nur eine Krümmungsrichtung hat. Nur weil manch fremdsprachlicher Youtuber kein Verständnis für Technik hat, muss man so einen Unsinn doch nicht schreiben. Ein "Sweetspot" ist doch völlig subjektiv... für jeden Anspruch anders... Wenn ich einen Chip mit 20W Betreibe ist er in Sachen Verbrauchseffizienz natürlich besser als ein 200W Chip - da gibt es dann auch keinen objektiven "Sweetspot"... und dann kann man sich auch den Quark sparen... Ich suche mir z.B. einfach einen Punkt, bei dem ich die Abwärme noch ertragen kann, bei Anderen ist es dann eben die Lautstärke oder sonstiges... oder irgend ein Effizienzziel... aber bitte hört auf diesen Unsinn einfach zu kopieren oder schreibt zumindest was denn jetzt genau gemeint sein soll - unerträglich.

Außerdem würde ich gerne meine Meinung frei äußern dürfen, das ist hier ja zu gewissen Themen auch nicht möglich!

Die Gedanken sind frei!
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: adAstra, Dimensionday und Unpassend
Sennox schrieb:
Neeeeeein, da ist ja wieder diese Milchmädchenrechnung xD!
So funktioniert das nicht ^^
Auch wenn du aufwendige Titel zockst läuft deine Karte nahezu nie auf maximaler Auslastung.
Auch wenn GPU-Z (oder ein anderes Tool deiner Wahl) 98-100% anzeigt so ist dies nicht mit einer maximalen Auslastung und entsprechendem Verbrauch gleichzusetzen.
Wenn ich meine Vega 56 mit FurMark oder mit MHW laut Tool zu ~99% belaste, herrscht zwischen diesen Anwendungen trotzdem ein Unterschied von ~30W!

Des Weiteren zockt niemand so viel jeden Tag am Stück und das auch noch mit Maximallast.
Es gibt ja auch Ladebildschirme oder weniger aufwendige Szenen oder auch mal Urlaub ;)

Also nein!
Diese Rechnung funktioniert einfach nicht, auch nicht abstrahiert oder als Richtwert! ^^
Guck dir doch einfach "Leistungsaufnahme der Grafikkarte – Spiele-Durchschnitt" in diesem Test hier an da siehst du Durschnittliche Watt zahlen, mit FurMark hat das hier nix zutun. Wenn man nicht im FPS-Limit ist oder CPU-Limit läuft eine GPU natürlich mit 99% Auslastung.
 
@miagi
[ ] Du hast meine Aussage gelesen und verstanden.
 
Sennox schrieb:
[ ] Du hast meine Aussage gelesen und verstanden.
Das mit der Auslastung hat er nicht verstanden, Recht hat er aber trotzdem.
Hier wurde der Verbrauch in realen Spielen gemessen und verglichen. Nicht maximal möglicher Verbrauch. Zudem kann man das ja nach Belieben per Powerlimit einstellen, dann ist völlig egal welche Anwendung läuft - da wird dann einfach bei zu viel Verbrauch automatisch runtergetaktet.
 
  • Gefällt mir
Reaktionen: miagi
r4yn3 schrieb:
Ist eigentlich schon ein alter Hut: https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-pci-express-scaling/6.html
Hier sind im übrigen auch die Einzelergebnisse sehr interessant. Wenn man sich dann vor Augen führt, um wieviele Prozentpunkte man hier bei GPU Ranglisten streitet wo welche besser ist, dann kann ich hier nicht mehr davon sprechen, dass PCIe3.0 x8 mehr als genug sei.
Die Leistung einer 2080Ti vorrausgesetzt, welche man aber wohl nächstes Jahr deutlich öfter sehen wird.

Schade dass scheinbar so wenige den Test kennen. (Nicht auf dich bezogen)
Angiesan schrieb:
[...]

Hier mal ein Test aus 2013 mit einer HD 7970 von PCGH. Es würde mich sehr wundern, wenn man mit der heute verwendeten HW die um ein Vielfaches leistungsstärker ist nicht vergleichbare Ergebnisse erreichen könnte.
Anhang anzeigen 834299

Und dann zum Vergleich aus dem gleichen Jahr hier auf CB.
https://www.computerbase.de/2013-01/bericht-pcie-3.0-vs-pcie-2.0/2/

Grüße

Sehr interessant!
Man sieht hier ganz klar, dass in 2013 wie in 2019 Grafikkarten unter PCIe 3.0 x16 ca. 1-3% mehr Leistung gegenüber x8 heraus bekommen. Daran hat sich über die Jahre rein garnichts verändert, nichtmal mit dem momentanen Flagschiff von NVidia. Demnach ist davon auszugehen, dass damalige genauso wie die jetzige Graka-Generationen NICHT den Bus auslasten, nichtmal annähernd. Die Steigerung zwischen x8 und x16 resultiert möglicherweise garnicht durch die Lanes selbst, sondern durch eine bessere Abstimmung der Abarbeitung im System durch bessere Parallelisierung (so oder ähnlich ;) ).

Dennoch, im Artikel von Techpowerup wird beschrieben, dass PCIe 3.0 x8 für die 2080 TI nicht mehr ausreichen würde - in Anbetracht einzelner Spiele, die bis 10% profitieren. Der Schnitt liegt immer noch bei 2-3% Steigerung. Allerdings ist das meines Erachtens nicht abschließend geklärt, solange wir nicht regelmäßig an diese Grenze stoßen und hier nicht andere Faktoren einfließen. Recht könnten sie dennoch haben.

Die intel-Grafik zeigt hierfür sehr gut die Leistungsfähigkeit des Busses auf, auch wenn da ganz sicher keine Pixel übertragen werden. Selbst wenn eine 2080 TI PCIe 3.0 x8 auslasten können sollte, so würde sie sich aber gerade so mit der Zungenspitze an 3.0 x16 heran tasten. Das bedeutet, dass die Szenen zur Berechnung, die über den Bus geschickt werden, in ihrer Komplexität um das Doppelte steigen müssten, damit x16 ausgelastet würde. Damit die doppelte Rohdatenmenge aber verarbeitet werden kann, brauchen wir nicht eine 100% Leistungssteigerung der Grafikkarte, sondern wahrscheinlich eher 1000% - da sich die Menge der von der Graka durchzuführenden Berechnungen teilweise potenziert. Wir lasten die Grafikkarten aber schon mit momentan Szenen problemlos aus, die (mit scheinbar bisher wenigen Ausnahmen) locker über x8 übertragen werden können.

Schlussendlich komme ich zu der Erkenntnis, dass es sich für mich wohl doch nichtmal ansatzweise lohnt, auf B550 zu warten in der Hoffnung, dort für die Zukunftssicherheit evtl. PCIe 4.0 nutzen zu können. Und Storage ist auch mit 3.0 schnell genug. Vielen Dank, nun kann ich in Ruhe ein B450 oder X470 bestellen und endlich aufrüsten. Wer grobe Mängel in meiner Argumentationskette findet, möge sich bitte bis dahin melden! 😊
 
  • Gefällt mir
Reaktionen: Charminbaer
scratch schrieb:
Man sieht hier ganz klar, dass in 2013 wie in 2019 Grafikkarten unter PCIe 3.0 x16 ca. 1-3% mehr Leistung gegenüber x8 heraus bekommen
Das gilt nur, wenn der VRAM nicht "überläuft". Wenn du nicht genung VRAM hast, profitierst du fast linear von mehr Bandbreite... bei puren FPS-Werten limitiert meist schlicht der Grafikprozessor zuerst, sodass die erhöhte Bandbreite in vielen Fällen irrelevant ist - wie du ja selbst schreibst. Bei Grafikkarten die älter sind, würde es aktuell helfen, jedoch haben die ja nicht die "neue" Gen4 Technik. Ein gutes Beispiel wäre wohl ein Spiel, bei dem z.B. eine GTX 770 2GB nicht genung VRAM hat und einbricht. Dann siehst du auch die Vorteile von Gen3 zu älteren Versionen - meist ist jedoch die Bildrate so niedrig, dass man eh nicht mehr damit spielen will. Trotzdem würde ich die paar Euro nicht sparen und das gilt auch bei der Frage nach mehr VRAM oder nicht, die Leute mit 4GB-Karten können noch damit spielen, während viele mit 2GB-Karten schon keinen Spaß mehr haben - leider gibt es heute sogut wie keine Grafikkarte mit 16GB - ein Schelm wer Böses dabei denkt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Charminbaer und scratch
miagi schrieb:
Guck dir doch einfach "Leistungsaufnahme der Grafikkarte – Spiele-Durchschnitt" in diesem Test hier an da siehst du Durschnittliche Watt zahlen, mit FurMark hat das hier nix zutun.
Aber auch nur innerhalb der jeweiligen Testsequenz, das kann man nicht einfach auf 40 Stunden hochrechnen, da du selbst in ein und dem selben Spiel Parts hast wo die GPU mal 50W weniger oder mehr verbraucht. Sowas wird durch den 20s Bench pro Spiel hier nicht abgebildet.
 
  • Gefällt mir
Reaktionen: Charminbaer und Sennox
DasUnding schrieb:
Das gilt nur, wenn der VRAM nicht "überläuft". Wenn du nicht genung VRAM hast, profitierst du fast linear von mehr Bandbreite... bei puren FPS-Werten limitiert meist schlicht der Grafikprozessor zuerst, sodass die erhöhte Bandbreite in vielen Fällen irrelevant ist - wie du ja selbst schreibst. Bei Grafikkarten die älter sind, würde es aktuell helfen, jedoch haben die ja nicht die "neue" Gen4 Technik. Ein gutes Beispiel wäre wohl ein Spiel, bei dem z.B. eine 970 nicht genung VRAM hat und einbricht. Dann siehst du auch die Vorteile von Gen3 zu älteren Versionen - meist ist jedoch die Bildrate so niedrig, dass man eh nicht mehr damit spielen will.

Ganz genau, die Bildrate hat ebenso Einfluss auf die Datenmenge, die über den Bus fließen muss. Sieht man sehr schön an den TPU-Charts, z.B. für Assassins Creed: In niedrigeren Auflösungen mit höheren Bildraten ist der Unterschied zwischen x8 und x16 größer als in höheren Auflösungen, da dann die Bildrate aufgrund einer stärkeren GPU-Auslastung sinkt. Die großen Unterschiede zwischen x8 und x16 entstehen hier bei 100+ FPS mit High-End-Ausrüstung. Eh das im Mainstream ankommt, werden gut und gerne noch zehn Jahre vergehen.
 
  • Gefällt mir
Reaktionen: Charminbaer
catch 22 schrieb:
Allerdings wird sich das kaum vermarkten lassen, da wir konsumtechnisch leider in einer Welt leben, in der die großen Zahlen vorne liegen (siehe PS / Zylinder / Ventile bei Motoren, Watt Angaben bei den Boxen zu Stereoanlagen, ...), ohne darauf zu achten, ob es überhaupt auch nur ansatzweise sinnvoll ist.

Da geb ich dir Recht - Big numbers win - war schon immer so.
 
scratch schrieb:
Die Steigerung zwischen x8 und x16 resultiert möglicherweise garnicht durch die Lanes selbst, sondern durch eine bessere Abstimmung der Abarbeitung im System durch bessere Parallelisierung (so oder ähnlich ;) ).
Weil du das ansprichst. Mir kam gestern auch noch ein anderer "Test" unter, wo man auch mit PCIe2.0 testet, wo das Ergebnis eigentlich genau das wiederspiegelt: https://www.pugetsystems.com/labs/a...ne-Scaling-in-OctaneRender-and-Redshift-1259/
Ich konnte damit aber nicht viel anfangen bzw. schob es auf die Anwendungen, daher hab ichs nicht oben gepostet.

So gesehen fehlt beim TPU Test eigentlich ein PCIe2.0 x16 System.
DasUnding schrieb:
Wenn du nicht genung VRAM hast, profitierst du fast linear von mehr Bandbreite
Lässt sich das auch irgendwie belegen oder ist das mehr eine These die du in den Raum wirfst? Von linear ist man hier glaube ich weit weg.
 
  • Gefällt mir
Reaktionen: Charminbaer und scratch
r4yn3 schrieb:
Lässt sich das auch irgendwie belegen oder ist das mehr eine These die du in den Raum wirfst? Von linear ist man hier glaube ich weit weg.
Du musst im Netz nur den richtigen Benchmark dazu suchen oder es selber mit einer alten Grafikkarte z.B. GTX 770 2GB (oder ähnliches) in neueren Spielen testen - aber Vorsicht oft wird auch durch Mangel an VRAM, die Texturqualität reduziert und somit das Ergebnis "verfälscht". Ein guter Benchmark wäre z.B. der 3DMark PCIe Test, bei dem das nicht so sein sollte. Um es zu sehen, muss eben der VRAM "überlaufen", da kann dann vieles als Benchmark herhalten.

Wenn man natürlich eine RTX 2080 Ti oder 2070 Super nimmt und Benchmarks macht, wird man nur in seltenen Fällen aktuell einen Vorteil von Gen4 finden, warum Computerbase solche Tests macht erschließt sich mir nicht - da wird einfach viel Unsinn geschrieben.
 
Zuletzt bearbeitet von einem Moderator:
r4yn3 schrieb:
Weil du das ansprichst. Mir kam gestern auch noch ein anderer "Test" unter, wo man auch mit PCIe2.0 testet, wo das Ergebnis eigentlich genau das wiederspiegelt: https://www.pugetsystems.com/labs/a...ne-Scaling-in-OctaneRender-and-Redshift-1259/
Ich konnte damit aber nicht viel anfangen bzw. schob es auf die Anwendungen, daher hab ichs nicht oben gepostet.

So gesehen fehlt beim TPU Test eigentlich ein PCIe2.0 x16 System.

2.0 16x sollte vergleichbar sein mit 3.0 8x.
Ansonsten, genau die Schlussfolgerung Deines Artikels ist auch den anderen Tests zu entnehmen mit Ausnahme der Frage, ob die 2080 TI tatsächlich in einigen Situationen am x8-Limit kratzen kann. Das kommt einfach auf die Komplexität / Menge der Rohdaten an, die über den Bus gehen müssen. Macht aber schlussendlich tatsächlich keinen Unterschied, da alle modernen Boards mindestens PCIe3 x16 unterstützen, welches also noch "ein gutes Weilchen" ausreicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Charminbaer
Auf FurMark-Benchmarks habe ich mich nie bezogen. Ich habe nur vom Verbrauch bei Spielen gesprochen. Dafür hat CB ein Balkendiagramm gemacht. Mir ging es auch darum das innerhalb eines Spiels man schon oft schaut das die GPU ausgelastet wird. Entweder man gönnt sich mehr FPS oder mehr Grafikqualität darum die 99% GPU last. Wenn ein Benchmark sich stark vom eigentlichen Spielverhalten unterscheidet ist es kein guter Benchmark denn dann wird nicht die reale Performance abgebildet, wozu dann der Benchmark. Klar kann es in einem Shooter mal passieren das man paar Sekunden campt und auf eine Wand guck aber die meiste Zeit sollte schon etwas abgehen sonst kann man auch Solitär spielen. Bei Anno z.B. würde es mich schon sehr wundern wenn der Benchmark-Verbrauch signifikant unterschiedlich zum Spielverbrauch wäre. Die ganze Welt die da so vor sich hinwuselt braucht permanent Performance. Wenn ich ein 1h Rennen in ACC oder Pcars2 fahre ist da 1h Last auf dem GPU ohne Ladebildschirme oder Pausen. Und ein Spiel bei dem die Ladebildschirme einen signifikanten Anteil an der Spielzeit einnehmen, möchte ich auf PC mit SSD nicht spielen!

Ich sehe kein stechendes Gegenargument gegen meine Aussage dass, wenn man viel spielt der Verbrauch als Kosten eventuell in die Kaufentscheidung einbezogen werden kann.
 
Sennox schrieb:
Naja bei der 970 werden die 3,5 GB doch nur dank der Treiberanpassungen nicht zum Riesenproblem.
Also ja, AMD könnte mit Treiberpflege die Furys vllt. höher halten aber dennoch sehe ich dank 8GB bei den Vegas da weniger Problempotential.
Ich mein die 4 GB auf den Furys waren zum Release ja schon knapp bemessen und wurden (zu Recht) belächelt ^^
Genau, Nvidia pflegt den Treiber für die 970 sehr gut, was viele damals bezweifelt haben. Die 8GB der Vegas werden selbstverständlich reichen, aber das ist eben nicht alles. Für fast jedes Spiel gibt es größere und kleinere Optimierungen von AMD und Nvidia. Wenn AMD hier die Optimierungen für Vega zurückfährt, dann bringen auch die 8GB nichts mehr und die Karte fällt wieder zurück. Man darf nicht vergessen, Vega ist das komplette Gegenteil von Navi und AMD hat in der Vergangenheit gerne alte Zöpfe abgeschnitten.
 
Zero_Point schrieb:
Genau, Nvidia pflegt den Treiber für die 970 sehr gut, was viele damals bezweifelt haben. Die 8GB der Vegas werden selbstverständlich reichen, aber das ist eben nicht alles. Für fast jedes Spiel gibt es größere und kleinere Optimierungen von AMD und Nvidia. Wenn AMD hier die Optimierungen für Vega zurückfährt, dann bringen auch die 8GB nichts mehr und die Karte fällt wieder zurück. Man darf nicht vergessen, Vega ist das komplette Gegenteil von Navi und AMD hat in der Vergangenheit gerne alte Zöpfe abgeschnitten.
Zum Glück ist Vega auch ohne "Optimierungen" schnell genug ;) - AMD braucht eh immer zu lange für seine "Optimierungen".
 
@DasUnding Ich verstehe, also keine Belege. Der 3D Mark Test wäre im übrigen ein eher schlechtes Beispiel. Der wurde dafür gemacht, hier unterschiedliche Ergebnisse zu präsentieren. Natürlich ist hier mehr gleich mehr. Jeder andere Test zeigt, dass es nur kleine Unterschiede gibt, und selbst diese kann man nicht auf die Bandbreite festnageln.

Solage man nicht wirklich feststellen kann, wieviele GB über den Bus wandern, ist das alles nur Theorie. Selbst wenn man es wüsste, bräuchte man hier im ns Bereich ausgelesene Daten um wirklich zu wissen ob hier beim nachladen einer Textur eine höhere Bandbreite wirklich einen Ruckler verhindert hätte.
 
  • Gefällt mir
Reaktionen: Charminbaer
Zurück
Oben