Test RX 5700 (XT) und RTX 2070 Super: Overclocking, Undervolting und PCIe 4.0 im Test

GerryB schrieb:
Kauft halt ne Energiesparlampe mehr, wenns wichtig ist.
W zählen ist nur lächerlich. Frag mal Deine Frau, was so Bügeleisen+Herd+Spülmasch.+Waschmasch. verbrauchen.
Da gehts um Kilowatt! Kilo = 1000 x
(W anschauen macht nur Sinn in Punkto Kühlerauswahl)

edit:
Ein User bei pcgh hat gerade mit seiner brandneuen Nitro nur 5min gebraucht um den selben eff.Takt wie Wolfgang mit 1998@1080mV zu schaffen.(avg <200W)
Der Score hat nix für Gaming zu sagen, weil sehr NV lastiger Benchmark, aber gut für Check der Temps.
Wenn man wirklich viel Spielt z.B. 40h die Woche im Jahresdurchschnitt und wir haben zwei Karten die ein Verbrauchsdelta von 50 W haben, kann das über zwei Jahre ein unterschied von 60€ sein. Klar 60€ über 2 Jahre ist nicht viel aber wenn man auf zwei von der FPS-Performance ähnliche Grafikkarten bei gleichem Preis blickt, kann man das schon in die Kaufeinscheidung einbinden.
 
Taxxor schrieb:
Das tut sie bei mir definitiv nicht, denn mit 1.2V würde die Karte keine 1592MHz hinbekommen ohne über 150W zu verbrauchen. Deshalb läuft sie meist um P5 oder manchmal auch P6 je nach Spiel, in P7 kommt sie nur durch Erhöhung des Power Target.

Sieht man ja auch an den Taktraten, die sie im CB Test gefahren hat
https://www.computerbase.de/2017-08...hnitt_die_tatsaechlichen_taktraten_unter_last

Nur 6 Spielen lag überhaupt irgendwann mal P6(1538) an und das auch nicht konstant, 1269 sind P3, 1312 sind P4, 1474 sind P5

Beim UVen von Vega müsst Ihr umdenken!

Stellt Euch einfach P7-Takt x VDDC/1,2V x Faktor vor.(x)
Natürlich liegt beim UVen der P7-Takt an = keine Frage.

(x) Faktor= Chipgüte Asic und Gameengine und Auflösung und GPU-Auslastung
4k drückt den eff. Takt mehr nach unten als FHD.
Mit Fps-Limit hat man ne Auslastung <100%, was mehr Boost erlaubt.
In GPU-Z sind oft auch kleine Spikes.

edit: mal ne 64 mit OverdrivnTool+PPT-Editor gepimpt (MemTweaker fehlt noch)
 

Anhänge

  • RX64devil@h2o.jpg
    RX64devil@h2o.jpg
    368,8 KB · Aufrufe: 347
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Charminbaer und Sennox
Schade, dass der PCIe-4.0-Test nur so halbgar gemacht wurde. Natürlich macht es keinen Sinn, die neue Schnittstelle mit den 5700ern zu testen, das war von vornherein klar. Gibt es denn irgendwo verlässliche Infos zum Bandbreitenanspruch moderner Karten, worüber man Schlussfolgerungen zur zukünftigen Entwicklung machen könnte?
 
Hallo zusammen,

also ich Glaube, daß bei den Custom Design`s der RX 5700 Modelle in Punkto Undervolting mehr geht, teils vermute ich sogar deutlich mehr. Da sehe ich stellvertretend die PowerColor Red Dragon 5700, welche mit dem Silent-Bios auf ca. 168 Watt kommt, dabei verliert sie praktisch keine spürbare Performance.

Der Test ist zwar gut. Aber er fördert die tatsächlichen Möglichkeiten bei den RX 5700er Modellen leider nur eher Rudimentär zutage. Besonders gilt dies für die Rundeste der Neuen Navi Karten, nämlich die RX 5700.

Irgendwie bin ich mir nicht so im Klaren, wie ich das Einzuordnen habe, daß für die 5700 XT ein Custom Modell verteten ist, für die RX 5700 aber nur das AMD Stock-Modell, welches vom Kühler her gesehen sowieso unter aller ist. Wie immer ist das meine eigene Persönliche Auffassung.

@ scratch
scratch schrieb:
Schade, dass der PCIe-4.0-Test nur so halbgar gemacht wurde. Natürlich macht es keinen Sinn, die neue Schnittstelle mit den 5700ern zu testen, das war von vornherein klar.

War in der Vergangenheit auch nicht anders, daß der Einfluß von PCE-E bei neuer Implementierung mehr als vernachlässigbar war. Besonders zu Beginn der Verbreitung. Das wird wie üblich noch dauern und später wie bei den bisherigen Revisionen eher vernachlässigbar sein.

So long....
 
GerryB schrieb:
Beim UVen von Vega müsst Ihr umdenken!

Stellt Euch einfach P7-Takt x VDDC/1,2V x Faktor vor.(x)
Natürlich liegt der P7-Takt an = keine Frage.
Es geht aber hier um Stock.

Zum Glück sehe ich die P-State LEDs und kann dir daher versichern dass sie ohne UV und PT Erhöhung immer bei 3-5 liegen
 
Stock ist halt ungünstig mit Vega.
Ich denke wir sind hier in nem UV-Review!
und
Erfahrungsaustausch bringt die Leser voran.
OoB kann net das Ziel sein.
 
  • Gefällt mir
Reaktionen: Sennox
GerryB schrieb:
Mit Fps-Limit hat man ne Auslastung <100%, was mehr Boost erlaubt.
Wobei der Takt dann auch schrittweise abgesenkt wird und die Auslastung im Bereich von 50-70% gehalten wird. Fällt sie weiter runter, geht's auch wieder einen P-State runter und die Auslastung dementsprechend wieder hoch
Ergänzung ()

GerryB schrieb:
Stock ist halt unsinnig.
War trotzdem das Thema
Ergänzung ()

GerryB schrieb:
Ich denke wir sind hier in nem UV-Review!
Dazu gehört nun mal auch, den Ist-Zustand ohne UV zu analysieren, ansonsten gibt's keine Bewertung wie viel UV bringt.
Und ein Punkt war eben, dass man nur mit UV überhaupt eine Chance hat in P7 zu kommen, ohne das PT zu erhöhen, woraufhin gesagt wurde, dass sie auch so konstant in P7 mit 1.2V laufen würde. Was sie aber nicht tut
 
  • Gefällt mir
Reaktionen: Sennox
95% GPU-Last sind erstmal besser für die Temps/Lautstärke. Keiner spricht von 70%.
Da könnte man ja gleich ne kleinere Graka kaufen.

Das Fps-Limit kann man doch geschickt setzen.

btw.
Den IST-Zustand von Vega kennen wir seit 2 Jahren. Was soll da noch zusätzlich ne Analyse@Stock bringen?
Die Leser wollen Fakten zum UVen.
 
Zuletzt bearbeitet:
scratch schrieb:
Schade, dass der PCIe-4.0-Test nur so halbgar gemacht wurde. Natürlich macht es keinen Sinn, die neue Schnittstelle mit den 5700ern zu testen, das war von vornherein klar. Gibt es denn irgendwo verlässliche Infos zum Bandbreitenanspruch moderner Karten, worüber man Schlussfolgerungen zur zukünftigen Entwicklung machen könnte?
Ich meine mal irgendwo aufgeschnappt zu haben, dass PCIe2.0 mit 8 Lanes die Performance spürbar um bis zu etwa 10% Performance senkt. Zumindest wird diese Aussage durch CF / SLI Systeme auf PCIe 2.0 auch unterstützt. (siehe auch das Fazit im unten Verlinkten Artikel)

Ansonsten ist folgender CB Test eigentlich informativ
https://www.computerbase.de/2013-01/bericht-pcie-3.0-vs-pcie-2.0/
Von daher ist PCIe 3.0 mit nur 8 Lanes auch bei aktuellen Grafikkarten keine Bremse, selbst im SLI / CF eher nur im messbarem Bereich. Aufgrund der Verdopplung der Bandbreiten zwischen den PCIe Generationen, würden selbst 2 (4) Lanes bei PCIe 4.0 für eine (zwei) Grafikkarten ausreichen, um die Performance von PCIe2.0 mit 8 Lanes zu erreichen.
Mit theoretischen 5 bis 6 Lanes bei PCIe 4.0 dürfte es selbst im SLI / CF keine Performance Einbußen, selbst lediglich messbare, geben.
 
  • Gefällt mir
Reaktionen: GerryB
Es gänge soviel, wenn man mal richtig wollte/dürfte. Stadia machts ja vor. Triple-mGPU.
Bei ollen Games machts auch noch Spass.
Neue Games sind wg. indirekter Schatten und TAA 2x net mehr kompatibel.
Es gibt natürlich Ausnahmen, wo auf Drängen der Community SLI wieder gangbar gemacht wird.(Anthem)
Witzigerweise werden oft Promo-Videos noch mit SLi erstellt (Anthem).

btw.
Bei Cf wird übrigens net so straff runtergetaktet bei geringer Auslastung.
Denke mal es werden eher Shader schlafen gelegt.
 

Anhänge

  • 875-225-1000.png
    875-225-1000.png
    2,6 MB · Aufrufe: 358
  • 875-902p.PNG
    875-902p.PNG
    52 KB · Aufrufe: 353
Zuletzt bearbeitet:
scratch schrieb:
Gibt es denn irgendwo verlässliche Infos zum Bandbreitenanspruch moderner Karten, worüber man Schlussfolgerungen zur zukünftigen Entwicklung machen könnte?

Intel hat diesbezüglich auch schon dargestellt, dass PCIe 4.0 für Gaming nichts bringt.
https://www.legitreviews.com/wp-content/uploads/2019/06/pcie-gen4-gaming-impat.png

Wenn man sich die Tabelle ansieht, dann wird erst ab 4K 144Hz 10bit PCIe 3.0x8 benötigt. Für alles darunter reicht auch PCIe 3.0x4. Und selbst PCIe 3.0x8 ist nicht mal ansatzweise dann am Limit, x16 schon gar nicht.

Dass ist dann auch der Grund warum man solche Spielereien wie 8K@120Hz sehen wird, um da überhaupt die Bandbreiten nutzen zu können. Für Gaming wird das lange Zeit nicht relevant sein. Außer es gibt irgendwann man eine revolutionäre Entdeckung. :)
 
  • Gefällt mir
Reaktionen: TheUngrateful und Luxmanl525
Der Vollständigkeit halber mal ein Hinweis auf Schnäppchen mit guten Kühlern:
Die 5700XT Nitro gibts im Mindstar für 449€ und die 2070s Gaming OC im Outlet für 539€.
Sonderangebote im MindStar | Mindfactory.de
RTX 2070 SUPER Outlet-Artikel

Mit Beiden sollte Tweaken richtig Spass machen.

edit: Mir persönlich gefallen die Ergebnisse@UV. Mehr brauchts net.
Bei Shootern sollten Beide schnell genug sein. (mit Navi in D2 den vol. Nebel reduzieren)
In anderen Games sollten die Fps net ganz so wichtig sein.
 

Anhänge

  • Shooter@UV.PNG
    Shooter@UV.PNG
    67,5 KB · Aufrufe: 362
  • ShooterD2.PNG
    ShooterD2.PNG
    15,4 KB · Aufrufe: 358
Zuletzt bearbeitet:
SKu schrieb:
Intel hat diesbezüglich auch schon dargestellt, dass PCIe 4.0 für Gaming nichts bringt.
https://www.legitreviews.com/wp-content/uploads/2019/06/pcie-gen4-gaming-impat.png

Wenn man sich die Tabelle ansieht, dann wird erst ab 4K 144Hz 10bit PCIe 3.0x8 benötigt. Für alles darunter reicht auch PCIe 3.0x4. Und selbst PCIe 3.0x8 ist nicht mal ansatzweise dann am Limit, x16 schon gar nicht.

Dass ist dann auch der Grund warum man solche Spielereien wie 8K@120Hz sehen wird, um da überhaupt die Bandbreiten nutzen zu können. Für Gaming wird das lange Zeit nicht relevant sein. Außer es gibt irgendwann man eine revolutionäre Entdeckung. :)

Das ist 'ne komische Grafik. Pixel werden doch meines Wissens in dem Sinne nicht über den PCIe-Bus übertragen, sondern eben erst von der Graka berechnet aus Daten wie Models, Texturen, Shaderdaten. Diese Daten werden übertragen, aber doch keine Pixel - Pixel gehen von der Graka zum Display, also ohne Belastung des PCIe-Busses. Oder habe ich da einen groben Mangel im Verständnis dafür, wie Grafikkarten funktionieren? Ne, das glaube ich nicht. Es wird sich damit zwar erstmal nichts an der Validität der Aussage des Artikels ändern, aber der konkrete Inhalt ist... zweifelhaft, zumal das von intel kommt, die bisher kein 4.0 anbieten.
 
  • Gefällt mir
Reaktionen: Charminbaer und Sennox
scratch schrieb:
Gibt es denn irgendwo verlässliche Infos zum Bandbreitenanspruch moderner Karten, worüber man Schlussfolgerungen zur zukünftigen Entwicklung machen könnte?
Ist eigentlich schon ein alter Hut: https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-pci-express-scaling/6.html
Hier sind im übrigen auch die Einzelergebnisse sehr interessant. Wenn man sich dann vor Augen führt, um wieviele Prozentpunkte man hier bei GPU Ranglisten streitet wo welche besser ist, dann kann ich hier nicht mehr davon sprechen, dass PCIe3.0 x8 mehr als genug sei.
Die Leistung einer 2080Ti vorrausgesetzt, welche man aber wohl nächstes Jahr deutlich öfter sehen wird.

Schade dass scheinbar so wenige den Test kennen. (Nicht auf dich bezogen)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: scratch und Sennox
Schoener Test :) @Wolfgang , danke dafuer und ich schliesse mich anderen an, dass ein Aushebeln des Powerlimits, von mir aus zusammen mit Undervolting und ebenso Uebertakten noch eine Sache waere, die ich ebenfalls bei einer RX 5700 (zum Beispiel dem Red Devil Modell von Powercolor) gerne getestet/nachgereicht sehen wuerde, wenn moeglich?

Was den Ansatz angeht hier eine Founder's Edition (nVidia) und dort das Custom-Vorzeigemodell (AMD/RTG) zu nehmen, kann man das natuerlich kritisieren, wenn man will.

Ob man allerdings jetzt mit einer RX 5700XT Referenzkarte da deutlich mehr herausholen haette koennen, wage ich zu bezweifeln (evt. koennte das im Vergleich noch schlechter aussehen).

So gesehen ist es natuerlich ausgemachter Quatsch (einige duerften es wohl auch als "Fanboy"-Stichelei deuten), was einige hier schrieben, dass nVidia GPUs sich generell besser undervolten lassen als die von AMD/RTG, sondern es kommt auf die technische Umsetzung bzw. Boardkomponenten und die Architektur der GPU an, sonst nichts.

Letztendlich muss jeder alleine entscheiden, ob einem der groessere Spielraum der nVidia-Karten in diesem Turing-Navi-Vergleich (sowie der damit verbundenen Aufwand fuer OC und UV) den Aufpreis gegenueber den Konkurrenzprodukten von AMD/RTG wert ist.

Was den Test von PCIe 4.0 angeht, steht das Fazit hier dem von PCGH entgegen (wobei die unterschiedlichen Boards und Treiber natuerlich eine Rolle spielen duerften), aber ich denke das Ganze laesst je nach Gusto genug Spielraum es in die eine oder andere Richtung zu interpretieren:

In den einzelnen Spielen zeigen sich zwar auch einige „größere“ Unterschiede, die Ausschläge finden aber in beide Richtungen statt. Während zum Beispiel in Call of Duty: Black Ops 4 die Frametimes mit PCIe 4.0 noch 3 Prozent besser werden, sind sie in Resident Evil 2 mit PCIe 3.0 3 Prozent besser.

Fuer einige moegen 3% hoehere Frames bei Call of Duty: Black Ops 4 nicht signifikant genug sein, fuer andere ist es ein Anfang bzw. ausserhalb des Bereichs einer Messungenauigkeit und ja, es geht zwar in beide Richtungen (positiv und negativ), aber das heist ja nicht, dass bei Auschlaegen in beiden Richtungen kein Unterschied zwischen PCIe3.0 und PCIe4.0 besteht und es sich insgesamt neutralisiert.

Ich denke nach wie vor es ist als RyZen3000-Einsteiger nicht wirklich sinnvoll ein PCIe3.0 Board zu kaufen und damit den Funktionsumfang der neu gekauften CPU direkt zu beschneiden, es sei denn das Budget ist dermassen knapp (aber dann ist ein kleineres Modell vielleicht eher anzuraten), zumal die wenigsten jede ein bis zwei Jahre ein neues Board oder eine neue CPU kaufen werden und sich PCIe4.0 mittel- bis laengerfristig durchaus auszahlen koennte (man kauft ein neues PC System oder ruestet ein bestehendes auf nicht nur fuer den unmittelbaren Augenblick, sondern i.d.R. mit Blick auf die kommenden Jahre) ;).

Die wenigen Bastler und Hobby-Enthusiasten hier sind davon natuerlich ausgenommen, aber diese sind mitnichten repraesentativ fuer die Allgemeinheit, die fruehestens alle 4 Jahre einmal aufruesten und fuer die die Sockelkompatibilitaet ueber bis zu vier Generationen - die hier oft zugunsten AMDs angefuehrt wird - meistens irrelevant ist.
Ergänzung ()

v_ossi schrieb:
@Wolfgang ... sollte man dem Artikel noch einen Disclaimer voranstellen, dass die Ergebnisse von Karte zu Karte variieren können und man sich immer außerhalb der vom Hersteller garantierten Taktraten oder Spannungen befindet.

Könnte sonst zu einigen Enttäuschungen kommen, wenn "Nachahmer" auf ihren Karten schlechtere Ergebnisse erzielen.

Ebenso ist nicht belegt, ob sich "Undervolting" aehnlich "Overclocking" negativ (oder vielleicht im Gegensatz dazu gar positiv) auf die Lebensdauer einer Grafikkarte auswirken kann (da diese Aenderung der Betriebseinstellungen ausserhalb der vom Hersteller ab Werk fest gesetzten Spezifikationen laeuft).

Das waere durchaus einmal interessant zu erfahren (vermutlich wird, abseits der GPU-Entwickler und Boardpartner vielleicht, aber keiner solche aufwendigen Langzeittests machen) ;).
 
Zuletzt bearbeitet:
Danke für diesen umfangreichen Test.
 
steve-sts schrieb:
Ich kann AMD nicht verstehen. Wieder steht man wegen den hohen Spannungen schlecht da
Und ich kann solche Nörgler seit Navi weniger denn je verstehen :rolleyes:
Wo steht AMD schlecht da?
Weil die Mittelklasse 1660 ~10% effizienter ist? (Mal abwarten was 5500 und 5600 in dem Bereich liefern).
oder weil die (teurere) 2070 ~5% effizienter ist?

Navi macht vieles richtig, ist nicht perfekt und steckt noch in den Kinderschuhen!
Außer der absoluten Leistungskrone, hat Nvidia dem aktuell auch nichts bombastisches entgegenzusetzen.
Navi und ihre Konkurrenten nehmen sich nicht viel und wenn die Leute den Kram dieses mal auch kaufen haben wir alle was davon!
Ergänzung ()

Metallmann schrieb:
Da sieht man mal wieder das Nvidia bei der effizienz immer noch die Nase weit vorn hat.
Bitte definier' das ^^
Ergänzung ()

-RAMMSTEIN- schrieb:
Wie ist es mit 5700 XT ? Wenn die soviel Energie verbrauchen ... muss auch gekühlt werden ? und deshalb wieder laut wie eine Vega 64 ?
Lies doch einfach den Test von CB.
Navi macht sich richtig gut, die Customs von Sapphire und besonders PowerColor können echte Leisetreter sein.
Ergänzung ()

Zero_Point schrieb:
Nicht zu vergessen, dass Vega und GCN EOL sind und AMD zeitnah keine großen Optimierungen mehr vornehmen wird, sondern sich voll auf Navi konzentrieren wird. Da sollte man eher hoffen, dass Vega nicht so einbricht wie seinerzeit die Fury.
Agreed.
Wobei ich da weniger Angst habe, die 8GB dürften langen bis die Leistung zu mager wird :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Charminbaer
So gesehen alles wie erwartet. Ich persönlich betreibe aber weder OC noch UV. Dafür lohnt es sich nicht zumal der Kühler meiner Karte nicht wirklich gut ist.. Da wäre jeder Referenzkühler besser :D im Moment kann ich es mir nicht erlauben auch nur einen fps aufzugeben weil es dann schnell unspielbar wird.. Bin froh dass ich auf 4k zumindest noch die 30 fps halten kann. Mal sehen wie lange noch. Bis Ende 2020 mindestens muss die noch halten. Dann ist Budget für ein ordentliches Upgrade da.

Navi ist ein schöner Zwischenschritt und hat seine Daseinsberechtigung. Ebenso sind Nvidias Karten ein gutes Gesamtkonzept für flüssiges gaming. Egal für welche man sich entscheidet. Man erhält gute Produkte die preislich aber teilweise sehr weit auseinander liegen können. Hier ein gutes Händchen zu haben ist aus meiner Sicht wichtiger als maximales OC und UV. Preis Leistung wird dadurch nur besser und Watt zählen halte ich für Unfug, da gibt es andere Möglichkeiten im Haushalt bedeutend mehr einzusparen. Das angezicke in den Kommentaren ist teilweise recht unverständlich.

Ich kann natürlich nur für mich selbst sprechen aber mein Rechner ist alles andere als silent. Gründe dafür gibt es viele. Schlimm finde ich das nicht da ich beim zocken oder anderen Aufgaben durch die Umgebung mehr Geräusche habe als sie der Rechner produziert. Zudem verschwindem die Geräusche im Hintergrund und es fällt einem nicht mehr auf :D
 
Zero_Point schrieb:
...Ich gehe aber stark davon aus, dass AMD die Chips irgendwann einfach nicht mehr ernsthaft in den Treibern berücksichtigt hat. Die 970 ist auch nicht plötzlich derart eingebrochen, obwohl deren Speicherproblem noch viel größer war.
Naja bei der 970 werden die 3,5 GB doch nur dank der Treiberanpassungen nicht zum Riesenproblem.
Also ja, AMD könnte mit Treiberpflege die Furys vllt. höher halten aber dennoch sehe ich dank 8GB bei den Vegas da weniger Problempotential.
Ich mein die 4 GB auf den Furys waren zum Release ja schon knapp bemessen und wurden (zu Recht) belächelt ^^
 
  • Gefällt mir
Reaktionen: Charminbaer
GerryB schrieb:
Den IST-Zustand von Vega kennen wir seit 2 Jahren. Was soll da noch zusätzlich ne Analyse@Stock bringen?
Anscheinend ja nicht wenn geschrieben wird dass sie P7 mit 1.2V erreicht. Und darauf wird man ja wohl antworten dürfen ohne dass sich beschwert wird dass es hier nur um UV ginge(zumal das auch nur eines von drei Themen dieses Artikels ist)
 
Zurück
Oben