Test RX 5700 (XT) und RTX 2070 Super: Overclocking, Undervolting und PCIe 4.0 im Test

r4yn3 schrieb:
@DasUnding Ich verstehe, also keine Belege. Der 3D Mark Test wäre im übrigen ein eher schlechtes Beispiel. Der wurde dafür gemacht, hier unterschiedliche Ergebnisse zu präsentieren. Natürlich ist hier mehr gleich mehr. Jeder andere Test zeigt, dass es nur kleine Unterschiede gibt, und selbst diese kann man nicht auf die Bandbreite festnageln.

Solage man nicht wirklich feststellen kann, wieviele GB über den Bus wandern, ist das alles nur Theorie. Selbst wenn man es wüsste, bräuchte man hier im ns Bereich ausgelesene Daten um wirklich zu wissen ob hier beim nachladen einer Textur eine höhere Bandbreite wirklich einen Ruckler verhindert hätte.
Ich würde einfach sagen, wenn du noch eine alte Grafikkarte hast, probiere es am besten selber aus. Du kannst "Belege" im Internet dazu finden, die stammen aber dann von jemand anderem. Probiere es einfach aus und du siehst es. Du kannst dann ja auch eine Grafik dazu machen und dann hier posten.

Hier siehst du den Einfluss von Bandbreite auf die Bildrate ganz gut - hier ist aber die DDR-Geschwindigkeit im Blickpunkt. Dennoch gilt auch hier, wenn du statt auf VRAM eben auf RAM zugreifen musst, gibt es erhebliche Limits - dann helfen eben PCIe-Bandbreite und die Bandbreite des Speichers. Dadurch bekommst du dann eben auch keine völlige Linearität, da der Speicher noch eine Rolle spielt und natürlich sind die Anforderungen an die PCIe-Anbindungen auch nicht immer ähnlich - manche Software braucht weniger, Andere mehr.
Deswegen kommt bei einem Test von PCIe Gen4 bei einer 2070 Super, die nicht im VRAM-Limit ist nichts heraus und man macht tolle Aussagen, die natürlich nur bedingt stimmen. Es gibt durchaus Szenarien, wo der Unterschied erheblich ist.

Zumindest ist klar, dass es in den meisten Fällen erstmal nichts bringt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Charminbaer
Ich verstehe.
 
  • Gefällt mir
Reaktionen: Charminbaer und DasUnding
Enurian schrieb:
Das mit der Auslastung hat er nicht verstanden, Recht hat er aber trotzdem.
Hat er nicht, diese Rechnung von wegen "60€ Stromkosten in zwei Jahren" ist hanebüchener Unsinn!
Die Reale Auslastung ist ja nur einer der Punkte die ich angemerkt habe :D
Ergänzung ()

Zero_Point schrieb:
Genau, Nvidia pflegt den Treiber für die 970 sehr gut, was viele damals bezweifelt haben. Die 8GB der Vegas werden selbstverständlich reichen, aber das ist eben nicht alles. Für fast jedes Spiel gibt es größere und kleinere Optimierungen von AMD und Nvidia. Wenn AMD hier die Optimierungen für Vega zurückfährt, dann bringen auch die 8GB nichts mehr und die Karte fällt wieder zurück....
I agree aber so extrem wie die Furys halte ich dann doch für unwahrscheinlich :D
 
  • Gefällt mir
Reaktionen: Charminbaer
Sennox schrieb:
I agree aber so extrem wie die Furys halte ich dann doch für unwahrscheinlich :D
Das glaube ich auch nicht. Aber da die Vega56 in den 2 Jahren nur 4-5% zugelegt hat, können diese schneller wieder weg sein als man schauen kann. ;) Das war ja auch das eigentliche Thema, die Vegas sind nie explodiert.
 
miagi schrieb:
Auf FurMark-Benchmarks habe ich mich nie bezogen. Ich habe nur vom Verbrauch bei Spielen gesprochen. Dafür hat CB ein Balkendiagramm gemacht. Mir ging es auch darum das innerhalb eines Spiels man schon oft schaut das die GPU ausgelastet wird. Entweder man gönnt sich mehr FPS oder mehr Grafikqualität darum die 99% GPU last. Wenn ein Benchmark sich stark vom eigentlichen Spielverhalten unterscheidet ist es kein guter Benchmark
a) 99% Auslastung sind nicht immer gleich 99% Auslastung!
b) ein Spiel fordert i.d.r. nicht durchgehend die selbe Leistung, ein Benchmark gibt für gewöhnlich eine Szene mit hoher Last vor damit anständig gebencht werden kann.

Über den realen Verbrauch sagt das nichts aus.

Wenn du dein Argument unbedingt untermauern willst kannst du ja mal genau definieren was du mit "viel" meinst :rolleyes:
Ergänzung ()

Zero_Point schrieb:
Das glaube ich auch nicht. Aber da die Vega56 in den 2 Jahren nur 4-5% zugelegt hat, können diese schneller wieder weg sein als man schauen kann. ;)
Hör auf, sonst krieg ich Albträume :p
Ergänzung ()

miagi schrieb:
Wenn ich ein 1h Rennen in ACC oder Pcars2 fahre ist da 1h Last auf dem GPU ohne Ladebildschirme oder Pausen. Und ein Spiel bei dem die Ladebildschirme einen signifikanten Anteil an der Spielzeit einnehmen, möchte ich auf PC mit SSD nicht spielen!
Wow das sehe ich jetzt erst...
Oh boy...
Ja, ok!
für eine ganz geringe Spielerschaft, die am laufenden Band Runden auf der virtuellen Nordschleife dreht und dabei einen Katheter nutzt um nicht für den Klogang unterbrechen zu müssen, mag deine These zutreffen.
🤦‍♂️
Man! Wenn wir auf dem Niveau argumentieren wollen können wir's gleich lassen, man wird immer irgendwie irgendeinen Extremfall konstruieren können wo das eigene Szenario perfekt passt.

Aber ich denke die meisten würden mir zustimmen wenn ich sage dass ein Großteil der potentiellen Kunden für 5700 XT und 2070S nicht zu denen gehören die über Stunden Autorennen nach den von dir genannten Vorgaben fahren.

Edit: und wer das tut ist dann halt wirklich besser bei der Karte mit dem geringeren Verbrauch bzw. dem besseren Performance per Watt Verhältnis aufgehoben (wobei da ja die 1660 noch besser wäre ;) ^^) aber das betrifft nicht die allgemeine Spielerschaft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Charminbaer und Cpt.Willard
PS828 schrieb:
So gesehen alles wie erwartet. Ich persönlich betreibe aber weder OC noch UV. Dafür lohnt es sich nicht zumal der Kühler meiner Karte nicht wirklich gut ist.. [...]

Ist das nicht irgendwie die komplett falsche Schlussfolgerung, die man aus dem Bericht ziehen kann?

Musst ja nicht mal die Grenzen deines Chips ausloten, aber einfach 50mV runter und deine Karte ist (minimal) kühler, leiser, schneller und sparsamer.

Das ist für 2 Minuten "Arbeit" ne Win-Win-Win-Win Situation, ein No-Brainer.

r4yn3 schrieb:

Klassischer Charlie Harper, nice.
 
  • Gefällt mir
Reaktionen: Charminbaer, Sennox und r4yn3
@v_ossi ich habs ja probiert. Aber weil die Karte so alt ist gibt's im wattman keine Option für Auto UV und die kleinste Änderung der Spannung nach unten führt bei mir zu abstürzen. Nach oben geht's taktmäßig nur mit viel mehr Spannung. Deshalb kann ich, ausgehend von meiner R9 390X, sagen dass jede Abwandlung zur Instabilität führt und ich deshalb zunächst nichts machen kann.

Hab ich dann eine andere Karte siehts anders aus. Bis dahin dauerts aber noch bis Ende 2020
 
Schade, dass CB nicht vom Standard-Takt abgewichen ist, um UV Ergebnisse zu verfeinern.

Meine XT 50th lässt sich bei 1849mhz@0.964v betreiten und verliert gegenüber der Standardeinstellung (2069mhz@1.192volt) nur 50mhz Effektiv-Takt, verbraucht aber um die 40-50 Watt GPU-Only weniger Strom. Performanceunterschied sind bei Witcher 3 lediglich ca. 3FPS bei ca. 80 FPS average in 1440p Very High.

Ich bin mir sicher, die 2070 Super lässt sich ebenso noch viel weiter im Effizienz-Bereich betreiben, wenn man ein paar Mhz vom Standardtakt abweicht.
 
  • Gefällt mir
Reaktionen: Charminbaer
ich verstehe den Hype nicht.. die 5700er Serie ist nur ein bisschen schneller als die fast 3,5 Jahre alte 1080er Serie... die 5700XT ist zwischen 1080 und 1080Ti...
Warum soviel Wirbel um nix?
 
  • Gefällt mir
Reaktionen: CrustiCroc
@PS828 Dann hast du aber einen verdammt schlechten Chip erwischt. Ist natürlich doof gelaufen.

Auch schon mal eines der alternativen Tools probiert?
Afterburner?
WattTool?

So hart auf Kante genäht ist doch fast keine Karte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828
Ctrl schrieb:
ich verstehe den Hype nicht.. die 5700er Serie ist nur ein bisschen schneller als die fast 3,5 Jahre alte 1080er Serie... die 5700XT ist zwischen 1080 und 1080Ti...
Warum soviel Wirbel um nix?
So ganz komme ich auch nicht dahinter.
Zumal die Dinger auch viel zu teuer sind.
 
  • Gefällt mir
Reaktionen: Ctrl
@v_ossi bisher noch nicht, ich hatte bisher wenig Zeit. Aber einen Versuch ist es auf jeden Fall wert :D
 
Ctrl schrieb:
ich verstehe den Hype nicht.. die 5700er Serie ist nur ein bisschen schneller als die fast 3,5 Jahre alte 1080er Serie... die 5700XT ist zwischen 1080 und 1080Ti...
Warum soviel Wirbel um nix?
Ist das ein Trollversuch? Es gibt keinen "Hype", sondern einfach nur ein aktuelles Produkt, über das logischerweise diskutiert wird.
Seit Jahren gibt es keine Sprünge mehr beim fps/€ Verhältnis, da ist die Karte zumindest ein Schritt in die richtige Richtung. 17% schneller als die 1080 und um die 25% günstiger.
 
  • Gefällt mir
Reaktionen: Charminbaer, Sennox und Tanzmusikus
Sennox schrieb:
Wenn du dein Argument unbedingt untermauern willst kannst du ja mal genau definieren was du mit "viel" meinst :rolleyes:
jo hier

Sennox schrieb:
Man! Wenn wir auf dem Niveau argumentieren wollen können wir's gleich lassen, man wird immer irgendwie irgendeinen Extremfall konstruieren können wo das eigene Szenario perfekt passt.

Aber ich denke die meisten würden mir zustimmen wenn ich sage dass ein Großteil der potentiellen Kunden für 5700 XT und 2070S nicht zu denen gehören die über Stunden Autorennen nach den von dir genannten Vorgaben fahren.

Edit: und wer das tut ist dann halt wirklich besser bei der Karte mit dem geringeren Verbrauch bzw. dem besseren Performance per Watt Verhältnis aufgehoben (wobei da ja die 1660 noch besser wäre ;) ^^) aber das betrifft nicht die allgemeine Spielerschaft.
Naja stundenlag Autorennen ist eher selten aber 6 oder 8 Stunden bei Anno auf den Bildschirm starren wie ein Zombie ist so normal dass das Spiel selber darauf hinweist wie lange man schon spielt.
 
  • Gefällt mir
Reaktionen: Charminbaer und PS828
Jep.. Typisch ich wenn ich anno spiele.. 20 uhr angefangen und beim nächsten mal angstvoll auf die uhr geschaut weil der typ vor einiger zeit gesagt hat dass ich schon 6 stunden spiele..

Stellaris ist auch sowas :D furchtbar xD und dann ists 3 Uhr nachts.. Zum Glück spiel ich sowas nur am Wochenende..
 
  • Gefällt mir
Reaktionen: miagi und Sennox
Sennox schrieb:
Aber ich denke die meisten würden mir zustimmen

Ich kann dir in diesem Fall nicht zustimmen, die wenigsten Spiele benötigen stellenweise eine niedrige last.

Ob du GTA zockst, ein MMO, ein Ballerspiel oder Fortnite, wenn du nicht gerade ein Titel mit vielen Ladescreens oder sonstigen Unterbrechungen erwischst, läuft deine Karte im Limit und verbraucht auch entsprechend Strom.

Als Ausnahme sind natürlich Spieler zu sehen die mit VSYNC ON spielen, wenn die Grafikkarte nicht ausgelastet ist.

Die Stromkosten in Deutschland sind hoch und die sollte man schon einkalkulieren.
 
  • Gefällt mir
Reaktionen: miagi
@Wolfgang
Ich würde mir wünschen, dass Ihr den PCIe 4.0-Test vielleicht nochmal mit deutlich niedrigeren Auflösungen fahrt. Diese Graka ist schon unter normalen Bedingungen nicht in der Lage, aus 4.0 Vorteile zu schlagen, da muss man sie nicht auch noch mit einer hohen Auflösung traktieren, mit der die Auslastung des Busses noch geringer wird, weil die Graka mit dem Rendering zu kämpfen hat. Das gänge dann zwar an realen Nutzungsszenarien vorbei, interessant wäre es dennoch. Falls es überhaupt Unterschiede macht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Charminbaer
xexex schrieb:
Ich kann dir in diesem Fall nicht zustimmen, die wenigsten Spiele benötigen stellenweise eine niedrige last.
Es geht nicht um "niedrige Last" sondern um "nicht durchgehend Volllast"

Ich hab gerade Screenshots von einem neulichen Test zur Hand wo der HBM OCed und das PPT um 50% angehoben wurde (Vega 56 PowerColor Red Dragon):
Monster Hunter World:
233W_MHW_UV_RAMOC_50PPT.png

Furmark:
247W_furmark_UV_RAMOC_50PPT.png


Obwohl die Karte in beiden Fällen an die Kotzgrenze belastet zu sein scheint (MHW kann echt fordernd sein :D) fährt die V56 unter Furmark mit mehr VDDC einen geringeren Takt und hat viel weniger RAM in use, trotzdem ist der ermittelte Verbrauch 14W/6% höher (6% wurden hier ja teilweise schon als wesentlich effizienter eingestuft ;))

Es ist immer auch davon abhängig wie die Karte belastet wird, ich weiß nicht genau warum das da oben so aussieht aber ich weiß dass das zwei Extremfälle sind.

Bevor mir hier noch ein Troll auf den Keks gehen will dass die Karte so ja mega ineffizient wäre: Ist mir klar :rolleyes: das war nur für den Test :p
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Charminbaer
Sennox schrieb:
Es geht nicht um "niedrige Last" sondern um "nicht durchgehend Volllast"

Wo hast du bei abgeschalteten VSYNC nicht durchgehend Vollast? Bestenfalls dann, wenn deine CPU nicht schnell genug die Daten liefern kann oder wenn du dich irgendwo im Inventar oder Ladescreen befindest.

Selbst mit VSYNC wirst du letztlich nur dann keine Vollast haben, wenn deine GPU überdimensioniert für die eingestellten Settings ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: miagi
Zurück
Oben