Test GPU-Testparcours 2020: Grafikkarten von AMD und Nvidia im Vergleich

Den stinknormalen Morpheus II, und ja meine VRM Temps sind recht hoch^^ Hotspot aber nicht.

In den Bildern der weiteren Posts sehe ich aber auch nur immer Settings mit PT+50%, somit sind alle Settings außer P7 doch im grunde völlig irrelevant, da sowieso bis 250W GPU Power verballert werden kann und die Karte bei entsprechender Last konstant im P7 läuft. So ist es bei mir zumindest.

Da würde sich fürs UV doch eher anbieten ein negatives PT zu definieren, wo man hin möchte und dann die Spannungen der P-States so anzupassen, bis man mit diesem PT so hoch wie möglich kommt.
 
Zuletzt bearbeitet:
Also wenn Du glaubst das der Verbrauch nur vom PT abhängt, liegt das an Deinen hohen Spannungen.
Mit niedrigen Spannungen wird nur soviel genommen, wie erforderlich.
PT+50 hat den Vorteil, das der Arbitrator net in die Regelung eingreift. Das würde nähmlich beim Anstossen ans
TDP-Limit passieren.(uralte Weisheit von Igor Stand 2017)
 
GerryB schrieb:
Also wenn Du glaubst das der Verbrauch nur vom PT abhängt, liegt das an Deinen hohen Spannungen.
Mit niedrigen Spannungen wird nur soviel genommen, wie erforderlich.
Ohne FPS Limit ist "erforderlich" doch immer alles was geht.
Und das ist der höchste P-State, der erreicht werden kann, ohne ins Power Limit zu kommen, mit PT+50% ist das immer P7

So sieht das bei mir z.b. aus, wenn ich in Witcher 3 rumstehe, die LEDs der Karte zeigen P7
Witcher 3 zieht den Takt aber auch schon ganz schön nach unten, in anderen Spielen sind es eher 1490-1520 bei ca 210W
Anmerkung 2019-12-19 043241.png
 
Zuletzt bearbeitet:
Mal ein Bsp. mit P7 950mV und PT+50 in Borderlands.Der Verbrauch ist angemessen und net Alles was geht.
AMD Radeon RX Vega 64 und RX Vega 56 Overclocking/Undervolting-Thread - Seite 603
(HBM-P2 wurde mitttels OverdrivNTool-PPT-Editor reduziert)

Wie ist eigentlich Deine SOC-Spannung? (das ist nähmlich net der HBM, was im Wattman eingestellt wird)
Prinzipiell würde ich mich etwas mehr an die Spannungstable halten und die Kurve deltaTakt/deltaV gleichmäßiger gestalten. 920 sind z.Bsp. eff. 925, sprich der Wert vom nächsten State bei Dir. Und Abstand 1474 zu 1502 ist zu klein. Da kanns kein sauberes Hoch-und Runtertakten geben.

edit:
Mal noch zusätzlich eine rel. schlechte RX5700XT Devil. Auch hier wird net mehr verbraucht als nötig:
 

Anhänge

  • Voltage_svi2.PNG
    Voltage_svi2.PNG
    478,5 KB · Aufrufe: 339
  • 1946@1056@900 PT10 @19.11.3.jpg
    1946@1056@900 PT10 @19.11.3.jpg
    480,7 KB · Aufrufe: 361
Zuletzt bearbeitet:
GerryB schrieb:
Wie ist eigentlich Deine SOC-Spannung? (das ist nähmlich net der HBM, was im Wattman eingestellt wird)
Also das was unter den HBM Taktraten steht? 980
 
Zuletzt bearbeitet:
Eine SOC-Spannung von 980mV ist einfach crazy. HBM-P3 = GPU-P7 ???
Oder hast Du auf 64 geflashed?

Bei einer normalen 56ref. ist HBM-P3 = GPU-P2.(x)
Würde Beides bei Dir auf 906mV setzen.
und dann
P5 1452@943mV
P6 1522
P7 1592 Wenn net stabil, dann in 5MHz-Schritten runter.
edit: sorry, Schreibfehler bei den States

Der HBM-Takt mal vorsichtshalber auch auf einen sicheren Wert! (ca. Artefakte abzgl. 20MHz)
Hinterher behutsam anheben.

(x) Übrigens wird der HBM-Takt über die Verknüpfung mit dem GPU-Takt gekoppelt!!!
Nur bei 64customs ist HBM-P3= GPU-P5.(standardmäßig im Bios)

btw.
Wer manuell stärker untervolten möchte sollte sich wirklich Rat in den einschlägigen Threads suchen.
Gilt sowohl für NV als auch AMD.
Die AutoUV-Funktionen im AB(NV) oder Wattman(AMD) sind für Leute, die nur mal fix etwas
optimieren wollen auch OK.
 
Zuletzt bearbeitet:
GerryB schrieb:
Mal ein Bsp. mit P7 950mV und PT+50 in Borderlands.Der Verbrauch ist angemessen und net Alles was geht.
Dennoch hat die Karte 1592MHz erreicht und ist nicht über 164W gekommen?

Eben in Witcher 3 hab ich zum Test mal wieder den P7 Takt auf den Standardwert von 1592 angehoben und es hat keine 20 Sekunden gedauert bis das System abgeschmiert ist. Also den Standardtakt von P7 kann ich mit 980mV definitiv schon mal nicht halten, mit einem PT von +50% springt meine Karte aber immer sofort in P7(wo sie dann mit 1592MHz/980mV abschmiert^^) weswegen ich ja eigentlich nicht so viel Sinn darin sehe, die anderen P-States zu bearbeiten. Bei 1562(effektiv 1475) und 980mV ist es dann stabil, aber eben auch bei 190W.
Ergänzung ()

GerryB schrieb:
P4 1452@943mV
P5 1522
P6 1592 Wenn net stabil, dann in 5MHz-Schritten runter)
Hat es einen Grund, warum du P7 auslässt, der die 1592 sowieso schon drin stehen hat?
GerryB schrieb:
Oder hast Du auf 64 geflashed?
Das Alternativ BIOS mit 150W TDP
 
Zuletzt bearbeitet:
Es lohnt sich doch eh nicht GCN zu OC, da sehr viele Games direkt ins Overhead rennen und dann sieht es oftmals so aus wie auf dem Bild unten ! Es spielt überhaupt keine rolle ob die GPU mit 1500MHz oder 3500MHz läuft. :skull_alt:

Mit schwächeren CPU´s ist das Problem noch viel ausgeprägter bzw. schlimmer.
Man gewinnt dadurch nicht einen einzigen Frame und das sieht bei NVIDIA natürlich ganz anders aus.


Screenshot_2019-12-19 Sniper Ghost Warrior Contracts тест GPU CPU Action FPS TPS Тест GPU.png


NVIDIA karten wie die GTX1080 profitieren viel mehr vom OC als zb. RX64 , da es im gegensatz zu AMD praktisch keinen Overhead gibt.

..... eigentlich sollte man die GPU´s nicht vergleichen den Vega ist erst jahre später erschienen, man müsste also die rx64 mir RTX2070 vergleichen. Die zeitabstände (release) sind hier weitaus kleiner.

Egal, anderes Thema! Dieser Link zeigt auch sehr gut wie unglaublich gut sich Pascal OVERCLOCKEN liess.


Screenshot_2019-12-18 Can Custom Vega 64 Beat The GTX 1080 2018 Update [27 Game Benchmark] - Y...png


Custom (Stock) = 4%
Custom (OC) = 8%

Die arme GTX1080FE geht bei CB auf 1607MHz runter und jeder weiß das praktisch jede GTX1080 (Custom) die 2GHZ spielend packt! ....bei extremer last gehts dann auf ca. 1950-1970MHz runter was immer noch beachtlich ist !
Wir sprechen hier von fast 400MHz, oftmals sind 500MHz möglich und dann erreicht die GTX1080 stolze 2100MHz und es geht noch mehr aber nicht viel mehr. :D

CB schrieb:
Gegenüber der Founders Edition legen alle Partnerkarten deutlich zu. Selbst die langsamste Variante, die MSI GeForce GTX 1080 Gaming X, ist immer noch gute elf Prozent schneller. Die schnellste Grafikkarte im Vergleich ist die Zotac GeForce GTX 1080 AMP! Extreme, die 18 Prozent schneller als die Founders Edition ist.

https://www.computerbase.de/2016-07...ich-test/#abschnitt_wer_knackt_die_20ghzmarke

...und selbst hand anlegen konnte man selbstverständlich auch noch

....bis zu 550Mhz mehr als die FE, not bad.

Das ist leider der "kleine" nachteil den Pascal gegenüber Turing in den Benchmarks hat, nicht tragisch aber schon ein bisschen unfair ! Pfui :evillol:

Der kühler ist natürlich nicht ganz unschuldig ! GTX1080 hatte noch den "standard" blower.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Dennoch hat die Karte 1592MHz erreicht und ist nicht über 164W gekommen?

Hat es einen Grund, warum du P7 auslässt, der die 1592 sowieso schon drin stehen hat?
Sorry war verrutscht. Schau bitte nochmal Oben.

Das Bsp. hat keine avg.1592MHz erreicht, das sind lediglich Spikes.
Fahr mal mit der Mouse über den roten Bereich von GPU-Z, wenns bei Dir offen ist.
Es sind meist Fluktationen drin.
Weiss jetzt net ob B3 im eff.Takt höher ist als W3. Das kann differieren.

Kannst Du nochmal bestätigen, das HBM-P3=GPU-P7=980mV sind?
Net, das Du ausversehen beim Takt guckst.(x)
Das macht jede Graka störrisch. Weniger HBM-P3 ist oft zahmer.(dafür muss bei der 64 erstmal HBM-P2 runter)
Das ist auch der Grund, warum OverdrivNTool-PPT-Editor so beliebt ist.

(x) wie ist der HBM-Takt?
Darunter ist die Spannung. (bei mir etwas niedriger als normal)
 

Anhänge

  • HBM-Takt-Spannung.PNG
    HBM-Takt-Spannung.PNG
    14,3 KB · Aufrufe: 333
Zuletzt bearbeitet:
sialickiz schrieb:
Es lohnt sich doch eh nicht GCN zu OC, da sehr viele Games direkt ins Overhead rennen und dann sieht es oftmals so aus wie auf dem Bild unten ! Es spielt überhaupt keine rolle ob die GPU mit 1500MHz oder 3500MHz läuft. :skull_alt:

Mit schwächeren CPU´s ist das Problem noch viel ausgeprägter bzw. schlimmer.
Man gewinnt dadurch nicht einen einzigen Frame und das sieht bei NVIDIA natürlich ganz anders aus.
Keines der Spiele, die ich in den letzten 2 Jahren gespeist habe hat nicht zu mindestens 5% auf das UV/OC reagiert, meist eher 10%.

Und bevor ich die immer gleichen Bilder noch 10 weiteren Posts sehen muss wird es Zeit, das erste Mal die ignore Funktion zu nutzen, hätte nicht gedacht das ich das mal tue..
 
Ich kann dir noch viele weitere posten falls gewünscht aber das mache ich morgen ! Es ist schon ziemlich spät

Meine freundin steht gleich auf und ich bekomme hier richtig Theather. Ich wollte mich dafür ganz herrzlich bei euch bedanken :D
Das werde ich nicht überleben und das ist mein ernst.
 
GerryB schrieb:
Kannst Du nochmal bestätigen, das HBM-P3=GPU-P7=980mV sind?
Net, das Du ausversehen beim Takt guckst.
Ja das stand so, damals als ich das mal gesetzt hatte hieß es noch überall, dass dieser Wert keine Relevanz hätte, also hab ich ihn so gelassen.
 
Dann setz mal bitte HBM-P3 und GPU-P2=906mV.
Wenn Du einen halbwegs normalen Chip hast sollte evtl. auch P7 1602 erreichbar sein, weils dann einfach besser harmoniert. Der eff. Takt ist evtl. ein mue kleiner, als vorher, weil auch die VDDC etwas kleiner ist.
Aber Du wirst mit weniger Verbrauch und besseren Temps belohnt.

Der eff. Takt richtet sich nach der Shaderauslastung und der VDDC und nem Faktor für Chipgüte.(Leckströme)
Durch das UVen ist die VDDC rel klein. Man kommt oft net an den eingestellten P7-Takt=Boost ran.
Anhand der VDDC sieht man aber rel. gut in welchem State die GPU ist.
(das ist noch net die ganze Wahrheit weils auch noch nen kleinen Abschlag bei der Spannung gibt,
was aber für den Thread zu weit geht)
Vega + R7+Navi sind halt komplett anders als Polaris.

edit2: Am Besten Du schaust am WE mal im Luxx vorbei, da können wir in aller Ruhe rumprobieren.
[Sammelthread] AMD RX VEGA Sammelthread + FAQ - Seite 411

edit: Ich hab mal spassenshalber W3 angemacht. Wie bereits im CF-Thread erklärt nehme ich keine Maxed-Settings vom Game. Dadurch skaled Cf besser. Trotz PT+50 passiert nix, weil das Fps-Limit mich auf Chill einbremst. In dem Fall 1800p@50Hz mit 47fps.
 

Anhänge

  • W3-1800p-verkleinert.png
    W3-1800p-verkleinert.png
    1,4 MB · Aufrufe: 352
Zuletzt bearbeitet:
Esenel schrieb:
:daumen:
Aber ich hoffe du hast nen Shunt Mod gemacht.
Sonst tritze ich dich so lange wie @HisN bis der gemacht ist :stacheln:

Ich muss eh noch HisNs TimeSpy Punkte knacken.
Dafür müsste es aber draussen mal weniger als 16°C haben :freak:

also an sowas traue ich mich leider nicht ran :/
 
Taxxor schrieb:
Das hat auch nichts damit zu tun ob AMD die Hardware hat oder nicht.
Und genau da liegst Du falsch, und das Fundament Deiner Argumentation ist zerlegt:

"But like Microsoft’s other DirectX APIs it’s important to note that the company isn’t defining how the hardware should work, only that the hardware needs to support certain features. Past that, it’s up to the individual hardware vendors to create their own backends for executing DXR commands. "

https://www.anandtech.com/show/12547/expanding-directx-12-microsoft-announces-directx-raytracing

AMD hat hier nix im Portfolio, Nvidia hat die RT/Tensor Cores so einfach ist das.
Nvidia bedient genau das, was Microsofts DXR ermöglicht, auf Hardware Basis.
Dass AMD das verpennt/unterschätzt hat, kannst Du doch nicht Nvidia anlasten?!


Ist witzigerweise die Umkehrung der CPU Entwicklung, dort hat AMD die Jahre genutzt, Intel nicht, und für Konsumer GPU Raytracing hat Nvidia die ganzen Jahre entwickelt und nun vorgelegt, AMD hat ja dann auch ebenfalls die "eigene" Lösung demnächst.
 
Zuletzt bearbeitet:
Meine Güte, die Menge an dämlich anmutendem nVidia Turing RTX Marketing-Gesülze einiger hier nimmt langsam schon bedenkliche Züge an (als ob diese Leute von nVidia für Ihre hohle Propaganda Provision bekommen).

Ihr könnt Euch zuhause ja gerne einen nVidia Schrein bauen und "der Lederjacke" huldigen, aber bitte verschont uns mit dem ewigen, weltfremden Gelobhudle fern jeder Realität.

RTX ist Stand jetzt immer noch ein ziemliches Windei gemessen an der Zahl bisher verfügbarer Spiele und den wenig ruhmreichen Umsetzungen und wie lange nach RTX Turing Marktstart, so dass der großkotzig mit "Super"lativen nur so um sich schmeissende nVidia CEO Huang eher kleinlaut geworden ist und wohl selber gemerkt, dass seine Versprechungen eher lauwarme Luft waren und man erst einmal kleinere Brötchen backen muss.

Die RTX Turing Karten dürften mit Ausnahme der immer noch exorbitant teuren RTX 2080Ti eher schlecht altern und dann schon ziemlich alt aussehen, sobald in 2020 Ampere auf den Markt kommt (wenn es denn ein echter Shrink auf 7nm werden sollte und der Leistungszuwachs nicht so (bewusst) bescheiden ausfallen sollte wie von Pascal zu Turing (Vanilla)).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DarkerThanBlack und Hardwarious
Ich bekommen heute nichts zu essen, sauer ist noch untertrieben. :(
...aber versprochen ist versprochen :
https://www.hardwareluxx.de/communi...ne-performance-im-dx11-cpu-limit-1089150.html

und in vielen neuen Spielen siehts genauso aus, logisch.
Ich kann dir die Benchmarks morgen per Mail posten falls gewünscht.
Es ist ein Architekturenproblem (GCN) und lässt sich nicht beheben, deswegen versuchte es AMD mit Mantle, leider nicht sehr erfolgreich. Das einzige Spiel das den roten Mantel unterstütze war BF4.

https://www.pcgameshardware.de/AMD-...ecials/AMD-Mantle-Test-Battlefield-4-1107754/


...weitere implentierungen waren geplant aber daraus wurde nichts :

https://www.tweakpc.de/news/30778/amd-liste-kommender-spiele-mit-mantle-unterstuetzung/


RDNA zeigt in dieser disziplin deutlich bessere Resultate, allerdings nicht immer.
Ob das jetzt am Overhead liegt oder es andere gründe für die massiven Framedrops gibt, kann dir nur AMD beantworten.
Es hält sich allerdings stark in grenzen bei Navi, kein vergleich mit GCN !
 
Laphonso schrieb:
Und genau da liegst Du falsch, und das Fundament Deiner Argumentation ist zerlegt:

"But like Microsoft’s other DirectX APIs it’s important to note that the company isn’t defining how the hardware should work, only that the hardware needs to support certain features. Past that, it’s up to the individual hardware vendors to create their own backends for executing DXR commands. "

Die Art und Weise wie Nvidia DXR umsetzt muss aber ja von den spielen unterstützt werden.
Und wie meinst du wird das dann umgesetzt? Eine RTX Option und eine für wie auch immer es dann bei AMD heißt? Nvidia nutzt hier die Marktposition um RTX zu pushen und wenn AMDs Implementierung da ist werden die meisten es wenn überhaupt nur halbgar in ihren spielen einbauen, ist ja schließlich schon RTX drin.
Bei AMD wird es wahrscheinlich wieder ein offener Standard werden den Nvidia einfach auch genau so nutzen könnte, auf den nur niemand optimiert weil alle Gameworks nutzen.
Das meinte ich mit "es ist egal ob AMD die Hardware hat oder nicht"
 
Als ob nur NV den Stein der Weisen besitzt!?

Wie war das nochmal mit AC? Jo, erst AMD (Pascal net so richtig) und jetzt kanns auch Turing.
dito Adaptive Sync ohne teures Modul , einige Tweaks wie RIS, GPU-Scaling, AntiLag etc.
NV macht aus meiner Sicht auch bloss "gezwungenermaßen" mit, um net zu sagen "hinterher".

Ohne Mantle gäbs kein DX12+VLK.

DANKE AMD
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Zurück
Oben