Test RX 5700 (XT) und RTX 2070 Super: Overclocking, Undervolting und PCIe 4.0 im Test

steve-sts schrieb:
Ich kann AMD nicht verstehen. Wieder steht man wegen den hohen Spannungen schlecht da. Ist die Streuung der Chips so groß dass sie so einen Puffer einplanen müssen??

Der Test zeigt aber doch, dass AMD bei RDNA die Spannungen deutlich besser im Griff hat als GCN. Die Taktraten sind halt recht hoch, das ist schätze ich der eigentliche "Watt-Killer".

GerryB schrieb:
AMD sagt, der GDDR ist net schnell genug für HBCC. Kommt evtl. mit bigNavi wieder.
Irgendwie bezweifle ich, dass es wirklich daran liegt. Die Radeon RX 5700 und die RX 5700 XT haben eine höhere Speicherbandbreite als die RX Vega 56. Aber ja, interessante Frage. Spätestens beim Big Navi werden wirs wissen :)
 
4to cka3al schrieb:
Weil die Vergleiche sich bei CB und anderen Seiten auf Stock beziehen.
aber dann kannst du doch das verhältnis deiner karte dazu ableiten.
 
steve-sts schrieb:
Ich kann AMD nicht verstehen. Wieder steht man wegen den hohen Spannungen schlecht da. Ist die Streuung der Chips so groß dass sie so einen Puffer einplanen müssen??
Hä? Die Spannung ab Werk ist bei den Radeons doch näher am nötigen Minimum als bei Nvidia.
 
Fraggball schrieb:
ich habe diese schlussfolgerung auch nicht gezogen, ich erwarte aber schon eine quelle wenn man behauptet nvidia würde nach wie vor so stark binnen.
Desweiteren habe ich auch noch nirgendwo gelesen das AMD die schlechten chips in seine referenzmodelle baut, bzw. keinerlei binning betreibt.
wenn Leute diese behauptungen aufstellen sollten sie sie begründen und belegen, vor allem aber nicht anhand von quellen die sich auf komplett andere produkte und chipkennungen beziehen.

nach wie vor halte ich die ganze diskussion aber auch für überflüssig weil die veränderungen vermutlich im einstelligen prozentbereich stattfinden würden wenn man einen gebinnten und nicht gebinnten AMD oder nvidia chip bezüglich UV vergleichen würde.
somit zeichnet der artikel als ganzes ein schlüssiges bild und man hängt sich hier an spitzfindigkeiten auf!


Es gibt einen Igor Bericht darüber, dass es kein offensichtliches Binning mit "Super" mehr gibt.
Es gibt keine Quelle für Binning bei Super oder dagegen.

Ich gehe davon aus, dass die OEMS nach wie vor Chipgüten kaufen können, weil sie das auch vor Turing konnten.
Wobei Firmen wie EVGA immer wieder beschreiben, dass sie zb. die GPU's nochmal selektieren um zb für die Kingpin Karte die besten Chips zu haben.

Bei AMD ist es da ruhig bei Sapphire gab es mal Infos zu binning, aber nichts handfestes.
 
  • Gefällt mir
Reaktionen: Zero_Point, KlaraElfer und Fraggball
Wolfgang schrieb:
Irgendwie bezweifle ich, dass es wirklich daran liegt. Die Radeon RX 5700 und die RX 5700 XT haben eine höhere Speicherbandbreite als die RX Vega 56. Aber ja, interessante Frage. Spätestens beim Big Navi werden wirs wissen

AMD hängt i.d.R. net an der Bandbreite sondern den Latenzen. (GPU+CPU)

4to cka3al schrieb:
Ich kenne und liebe das UV Potential meiner Vega. Wollte nur Mal anmerken, dass die Vega mit in die Benchmarks reingenommen werden soll. Damit wir Bezugspunkte zur Leistungsbewertung haben.

I.d.R. würde ein Reviewer auch nur auf die Schnelle abschätzen, was geht.
Kann vermutlich net so EFFIZIENT werden wie bei den Usern.
Da hätte man dann für Vega einen ähnlich unpraktikablen Wert wie Hier für Navi.
 
Zuletzt bearbeitet:
Endlich greift CB mal das UV bei der Turing Serie auf. Die 2080 lässt sich im Übrigen auch super undervolten. Meine läuft mit 0,843V nicht nur kühler und leiser, sondern taktet deshalb auch höher.
 
Dasbaum42 schrieb:
Sehr schöner Artikel, ich denke ich sollte mich mit dem Thema UV doch noch einmal beschäftigen. Für das "zocken zwischendurch" 18 % weniger Leistungsaufnahme, macht aufs Jahr gesehen schon viel aus.

Ja, und zwar 18%. Also 18% von einem Dutzend oder auch zwei Dutzend Euro. Fürs Spielen zwischendurch reden wir halt dann doch von recht überschaubarem verbrauch, selbst wenn die Karten 300W Schluckspechte wären, was sie aber ohnehin nicht sind. Strom wird immer noch in kW abgerechnet und nicht in Miliwatt ;-)
 
Ui, krass was bei der 2070 Super FE mit UV zu holen ist.
Ich habe selber genau die Karte. Gleich direkt mal selber testen.
Danke Computerbase :daumen:

Interessant wäre noch gewesen, was mit UV + OC machbar ist.
 
@Wolfgang Vlt. sollte man dem Artikel noch einen Disclaimer voranstellen, dass die Ergebnisse von Karte zu Karte variieren können und man sich immer außerhalb der vom Hersteller garantierten Taktraten oder Spannungen befindet.

Könnte sonst zu einigen Enttäuschungen kommen, wenn "Nachahmer" auf ihren Karten schlechtere Ergebnisse erzielen.
 
  • Gefällt mir
Reaktionen: Chismon, NMA und TheUngrateful
duskstalker schrieb:
dass nvidia ab sofort jede chipqualität für die founders nimmt, während man nur ein paar monate zuvor durch die bank nachweislich nur die besten chips auf den founders edition karten verlötet hat.

"Ein paar Monate zuvor" haben die FE Editionen noch deftige Aufpreise gekostet.
 
KlaraElfer schrieb:
Warum sollte sie einen schlechten Chip haben? Ob man einen guten oder schlechten Chip hat, macht auch nur Unterschiede innerhalb der Messungenauigkeit. Alle Vega GPU´s ließen sich deutlich besser Undervolten, da macht die Chipgüte keinen besonderen Unterschied.

ich habe nicht gesagt, dass die karte schlecht ist. ich habe gesagt, dass die amd gpus nicht speziell gebinnt sind, und daraus ergibt sich nunmal, dass in dieser einen getesteten karte eine gpu aus dem ganzen spektrum drin sein kann. daher kommt doch erst das ganze thema mit dem overvolt @stock. bei v64 ist es so, dass die karte den referenztakt @1,25v core schaffen muss und dann ist die durch. der ganze rest passiert entweder bei den boardpartnern oder beim endanwender. würde amd auf, sagen wir mal, 10% yield aus den schlechtesten gpus verzichten, könnte man vega 64 statt mit 1,25v auch mit 1,1v ausliefern. dann hat man halt die chips übrig. außer yield gibts keinen grund vega mit 1,25v auszuliefern, wenn die meisten vega gpus den selben takt mit 150-275 mV weniger auch schaffen. diese dimensionen an delta zwischen "vcore haben" und "vcore brauchen" und folglich weggeschmissenem potential bei vega ist eigentlich schon skandalös.

die getestete XT scheint wohl eher aus dem gurkenspektrum zu kommen (siehe kommentare im thread), wohingegen die 2070 super augenscheinlich sehr gut ist. und wie ich ausgeführt habe, macht das natürlich auch sinn, dass das so ist. die gurkenquote bei einer frisch gestarteten produktion ist immer höher. das war doch auch genau der grund wieso nvidia A und nonA chips bei turing hatte und jetzt nicht mehr. ich mache hier doch keinen vorwurf, dass referenz vs referenz getestet wurde. ich klage lediglich an, dass man anhand einer first run 5700 xt vs ausoptimierte + gebinnte 2070 super keine schlüsse ala "nvidia undervoltet besser" ziehen kann.

die chipgüte macht sehr wohl einen unterschied. meine zwei vegas liegen 75mV auseinander. eine läuft mit 975mV und die andere 1050mV beim selben takt. das entspricht im undervolting potential in etwa einem delta von 30%.

KlaraElfer schrieb:
Seit der Super Generation gibt es keine A und B Chips mehr, also wird das Nvidia wohl nicht tun.
Hast du hierzu eine Quelle?
KlaraElfer schrieb:
Nvidia hat die Founders Editionen der ersten Turing Charge gebinnt, genau wie auch die anderen Karten mit A Chip. Ist bei den Super Karten und oder auch schon der 2060 und 1660 Ti nicht mehr der Fall gewesen.

was macht dann amd mit den zen chiplets, die nicht beschiftet sind? eine beschriftung ist fürs binning absolut irrelevant. man sollte das zeug halt getrennt verpacken.

wieso hängt man sich hier so sehr an den A chips auf? die A chips sagen ganz klar: nvidia will die besten chips für die founders karten, sonst hätte man damals die schlechteren genommen. nvidia entfernt jetzt überall die A bezeichnung, und dann ist der schluss, dass nvidia auf einmal nicht mehr die besten chips für die founders nimmt? natürlich binnen die weiterhin die chips und nehmen die guten für die founders, nur gibts halt die A bezeichnung nicht mehr.

KlaraElfer schrieb:
In nur sehr sehr geringem Maße.


besorg dir mal b-die speicher und vergleich da mal die OC stabilität bei 40°C und 65°C. du wirst dich wundern, was da auf einmal alles passiert.

Fraggball schrieb:
ich habe diese schlussfolgerung auch nicht gezogen, ich erwarte aber schon eine quelle wenn man behauptet nvidia würde nach wie vor so stark binnen.

sag du mir, wieso nvidia es nicht mehr tun sollte, wenn mans vorher getan hat? die qualität geht nur nicht mehr so weit auseinander, dass nvidia A und non-A trennt. nvidia verkauft und verteilt trotzdem mehrere binning stufen:

Doch Nvidia wäre nicht Nvidia, wenn man solche Dinge nicht ins eigene Geschäftsmodell assemblieren würde. Schließlich erfolgt ja bereits nach der Herstellung die Einsortierung der Chips (Vollausbau für Quadro, Laser-Cut für Consumer-Produkte), da liegt es sicher nahe, dies auch nach Übertaktungs-Gesichtspunkten hin vorzunehmen. Und so bietet man den Boardpartnern, das habe ich aus mehreren unabhängigen Quellen erfahren können, mittlerweile gleich drei Qualitätsstufen an.


Am oberen Ende der Pixelnahrungskette stehen die OC-Chips, gefolgt von denen für leichtes OC und die Standard-Chips, bei denen OC voraussichtlich eher kaum möglich ist. Auch wenn alles wohl nur Klassifizierungen anhand von recht exakten Prognosen und Herstellungsdaten sind, müssen die Boardpartner bereits beim Einkauf für die jeweilige Qualität der Chip-Speicher-Bundles zahlen. Je besser die Übertaktungsvorraussetzungen, umso höher der Preis. Logisch.
https://www.igorslab.media/nvidia-s...aetsstufen-fuer-die-rtx-2080-und-rtx-2080-ti/



Fraggball schrieb:
Desweiteren habe ich auch noch nirgendwo gelesen das AMD die schlechten chips in seine referenzmodelle baut, bzw. keinerlei binning betreibt.
wenn Leute diese behauptungen aufstellen sollten sie sie begründen und belegen, vor allem aber nicht anhand von quellen die sich auf komplett andere produkte und chipkennungen beziehen.

viel spaß beim suchen von berichten darüber. wirst du nicht finden. das einzige was uns bleibt, ist die erfahrung aus mehreren quellen, leaks, insidern und dem sehen und verstehen von vorgängen. kein hersteller wird sich so einfach in die karten schauen lassen. das binning der zen chiplets ist bei amd eine sehr unangenehme angelegenheit, weil die nämlich mit einer veröffentlichung der daten zugeben müssten, dass ryzen 3000 im grunde die abfallchips aus der epyc produktion sind, der 3900X deshalb so schlecht verfügbar ist, und aus binninggründen die 3900X und 3800X ihren soll-takt nicht erreichen. die chiplets, die den takt schaffen, sind nämlich in rome drin und lassen sich fürs dreifache verkaufen.

die radeon gpus für consumer sind aber kraut und rüben.

Palmdale schrieb:
Dann sag einfach, es ist deine weit her geholte Mutmaßung und gut ist. Von Fakt isses aber meilenweit entfernt und auch eigentlich abwegig, wenn man die Differenzierung der Board Partner bei den Modellen sieht.

wieso abwegig? nvidia hat nachweislich für die founders editions die besten chips genommen, obwohl andere verfügbar waren. die founders editions der non-super liegen sogar oberhalb der referenzspezifikationen. jetzt hat sich der yield so weit stabilisiert, dass es keine non-A abfallchips mehr gibt, und auf einmal ist nvidia die qualität der chips in den founder editions egal? das glaubst ja selber nicht.

die founders editions gibts aus 2 gründen:

1. selbst eine qualitativ hochwertige karte zum höchsten preis verkaufen, damit nvidia = qualität unterstrichen wird - stichwort mindshare.

2. im kampf referenz vs referenz gegen amd und pascal den längeren balken haben.

und durch was genau wird nvidia ab datum X motiviert schlechtere qualität auf die founders editions zu löten?

CrustiCroc schrieb:
Ahja...jetzt reift also bei AMD auch noch das Silizium zum "Fine Wine"....
Die können ja Sachen....

ist halt leider tatsache, dass das silizium im späteren verlauf der fertigung bessere qualität hat als das erste. kann niemand was dafür, dass du das noch nicht mitbekommen hast. kann nvidia übrigens auch:

Theoretically, this is good news for gamers, as the non-A die silicon was the cheaper, less capable variant that limited overclocking headroom. This should mean that the TSMC 12nm "FFN" process is mature enough to maximize yields, meaning Nvidia no longer needs to segregate the Turing silicon. The "new" silicon, reportedly already in production, will be the TU104-410 (RTX 2080) and TU106-410 (RTX 2070). Nvidia will reportedly sell the new dies at the same price point as the previous non-A counterparts.
https://www.techspot.com/news/79939-nvidia-stop-producing-non-die-variants-turing-rtx.html
 
  • Gefällt mir
Reaktionen: Charminbaer
duskstalker schrieb:
die founders editions gibts aus 2 gründen:

1. selbst eine qualitativ hochwertige karte zum höchsten preis verkaufen, damit nvidia = qualität unterstrichen wird - stichwort mindshare.

Gab es!!!!

Wie du vielleicht nicht mitbekommen hast, sind die FE Super Karten allesamt in eher unteren Preis- und Leistungskategorien gelandet, damit die Partner mehr Luft für Binning und die Preisgestaltung haben.

Beide Founders Editions eint die neue Kühler-Optik mit spiegelnder Oberfläche und grün hinterlegtem Super-Schriftzug und dass sie beide mit den Referenz-Taktraten laufen. Bisher war das nur bei der GeForce RTX 2060 der Fall, während die GeForce RTX 2070 Founders Edition bereits ein „OC-Modell“ zum höheren Preis war. Gut möglich, dass die Beschwerden der Partner hier Wirkung gezeigt haben.
https://www.computerbase.de/2019-07/geforce-rtx-2060-2070-super-test/

Und erkläre uns wieso man dann für solche Karten extra gebinnte Chips nehmen sollte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und Kytor
@Wolfgang wie auch @OneShot würde mich mal sehr interessieren, wie es sich mit PCI 4.0 bei Anwendungen verhält. Besteht die Möglichkeit das noch mal zu testen?

Auch generell der Vergleich der Render-, En- und Dekodierungsperformance von AMD zu nvidia fände ich sehr interessant und da könnte PCI4.0 im Vergleich zu PCI3.0 noch mal aufgegriffen werden.
Wäre das möglich?
(Mein persönlicher Schwerpunkt des Interesses ist Renderperformance :heilig:)
 
  • Gefällt mir
Reaktionen: Unlimited1980 und OneShot
R00kie schrieb:
Auch generell der Vergleich der Render-, En- und Dekodierungsperformance von AMD zu nvidia fände ich sehr interessant und da könnte PCI4.0 im Vergleich zu PCI3.0 noch mal aufgegriffen werden.
Wäre das möglich?
(Mein persönlicher Schwerpunkt des Interesses ist Renderperformance :heilig:)
Wenn du mir sagst, wie ich das testen soll, kann ich das machen. Habe noch ein BIOS mit PCIe 4.0-Option drauf, das läuft auch.
Wenn ich mit Davinci Resolve rendere, macht das ja die CPU, die GPU macht meines Wissens nur Kram während des Editings.
 
Meiner Meinung nach rante die Navi beim OC +50% PT (AMD Power Target!) slicht ins GPU-HotSpot/Vram-HotSpot "Limit". Sorry aber wer macht OC mit stumpf +50% PT(AMD Power Target!)?
Auch für UV sind niedrigere Temperaturen hilfreich, da dann die REF Navi zu nehem ist doch schon sehr seltsam.
 
  • Gefällt mir
Reaktionen: Charminbaer
@Enurian Vermutlich am besten per VRAY Benchmark:
https://www.chaosgroup.com/vray/benchmark

Zumindest ist das ein Renderer, der von OpenCL Gebrauch macht.
Die beiden Renderer Octane und Redshift benötigen wohl CUDA-Cores und dürften damit wohl für AMD rausfallen.
Wäre echt super, wenn du da Ergebnisse liefern könntest :daumen:
 
Habe mir jetzt nicht alle 6 Kommentarseiten durchgelesen, evtl. hat es schon jemand angemerkt..

aber...der Satz im Artikel: "Vega wurde nämlich bei einer geringeren Spannung automatisch langsamer – bei Navi ist das nicht mehr der Fall. "

stimmt so nicht.
Senke ich die Spannung meiner V56, steigt der Takt. Und somit wird die Karte bei Spannungssenkung sogar schneller!
 
  • Gefällt mir
Reaktionen: Charminbaer
Verstehe den Vergleich zwischen einer der besten 5700xt mit ner Einstiegs founders Edition nicht. Ja es mag schlechtere customs bei der 2070super geben aber seit den super Chips gibt es keine oc Premium founders mehr, wie mehrfach in diesem thread belegt wurde. Eine z. B PALIT GameRock oder Jetstream mit vernünftigen einstellbaren power target auf 325watt währe für den test ein vergleichbarer Gegner der Sapphire 5700xt.
 
DannyA4 schrieb:
Senke ich die Spannung meiner V56, steigt der Takt. Und somit wird die Karte bei Spannungssenkung sogar schneller!
Aber nur, wenn du im PT hängst. Sobald du unter dem PT bist, sinkt der Takt mit der Spannung.
 
  • Gefällt mir
Reaktionen: Charminbaer
Vega 56 bleibt wohl noch UV king :D

20% weniger verbrauch, bei 20% mehr Leistung ist halt schon ne Hausnummer :)
 
Zurück
Oben