Test GPU-Testparcours 2020: Grafikkarten von AMD und Nvidia im Vergleich

Laphonso schrieb:
exakt đź‘Ť dedizierte RT Chips helfen halt,
und das ist der Grund warum AMD nicht gewillt ist die Radeons freizuschalten fit zu machen für DXR, denn das Resultat wäre klar ,und definitiv kontraproduktiv, ganz ohne Zutun von Nvidia per Gameworks
 
  • Gefällt mir
Reaktionen: Laphonso
captain kirk schrieb:
und das ist der Grund warum AMD nicht gewillt ist die Radeons freizuschalten, denn das Resultat wäre klar ,und definitiv kontraproduktiv, ganz ohne Zutun von Nvidia per Gameworks
Korrekt, aber wenn man eine fiktive Realität basteln will, in der nicht AMD technisch im RT featureset zurückliegt und verantwortlich ist, erfindet man halt ulkige Interpretationen 🎅 Hohoho!
Ergänzung ()

https://www.computerbase.de/2018-03/directx-12-raytracing-dxr/

Bis auf den Fallback Layer hat AMD halt nix gehabt und das Raytracing Thema offensichtlich komplett unterschätzt.

"Software Raytracing" haben wir seit Mitte der 80er in Software und Gamedemos. Auf dem Stand ist AMD halt noch heute, und Nvidia war es bis Turing. Ist halt ein Technologiesprung auf Konsumerhardware, bisher von Nvidia only.
 
Laphonso schrieb:
Bis auf den Fallback Layer hat AMD halt nix gehabt und das Raytracing Thema offensichtlich komplett unterschätzt.
ich gehe stark davon aus das es intern einen Fallback Layer existiert, nur ist der aus oben genannten Gründen eben nicht für die Öffentlichkeit per Treiber zugänglich, so wie bei Nvidia Karten vor Turing

denn das Resultat dĂĽrfte sich ableiten von Pascal ,Kepler u Co, solange es die Shader bedient
 
CB@ Ich habe eine frage die sicherlich viele interessieren wird.
Testet ihr die Spiele komplett durch bevor ihr die Benchmarks veröffentlicht oder ist das bei euch aus zeitgründen etc. nicht möglich ?
Ich bitte um eine ehrliche Antwort.

Vielen Dank
:)
 
DarkerThanBlack schrieb:
Meinst du den selben Sandhügel in Nevada worin die ganzen RTX2060 Besitzer ihre Karten verbudelt haben, als NVIDIA 6 Monate später eine 2060 Super mit 8GB-Speicher angekündigt hat?

Nur zur deiner Information!
4 GB reichen bei AMD in zwei Spielen nicht
Schaut man sich die einzelnen Spielen im Detail an, fallen zwei Titel aus dem Rahmen. In den meisten Fällen herrscht zwischen der Radeon RX 5500 XT mit 4 GB und jener mit 8 GB ein Gleichstand, doch nicht so in Call of Duty: Modern Warfare und Planet Zoo, wo das 8-GB-Modell große Vorteile zeigt.
So liefert die 8-GB-Karte in Planet Zoo 24 Prozent mehr FPS als die 4-GB-Variante und 21 Prozent bessere Frametimes. Interessanterweise zeigt die GeForce GTX 1650 Super mit ebenso nur 4 GB dieses Problem nicht, die Grafikkarte ist in dem Spiel leicht schneller als die 8-GB-Version der Radeon RX 5500 XT. Eine groĂźe Ăśberraschung ist das aber nicht: Es hat sich bereits in der Vergangenheit gezeigt, dass Nvidia das Speichermanagement besser im Griff hat als AMD, wenn Spiele eigentlich mehr als den physisch vorhandenen Grafikkartenspeicher verlangen.
https://www.computerbase.de/2019-12/amd-radeon-rx-5500-xt-test/2/

Was lernen wir daraus? Vermutlich werden die Käufer einer 6GB Nvidia Karte genauso lange damit Spass haben, wie diejenigen die sich für eine 8GB AMD Karte entschieden haben. Ist die 2060 Super die bessere Karte? Definitiv! Aber sowohl die 2060 als auch die 2060 Super werden weiterhin produziert und bedienen unterschiedliche Preissegmente.

Benji21 schrieb:
Wenn Nvidia ihre Raytracing Bibliotheken zur einfacheren Implementierung in die Gameworks SDK wirft, wieviele andere Hersteller können dann darauf zugreifen?

Seit wann laufen Gameworks Titel exklusiv mit Nvidia Karten? Auf die API kann jeder Softwarehersteller zurückgreifen und sich damit die Arbeit vereinfachen, was dabei herumkommt ist allerdings ein Code der auf jeder DX11 oder DX12 Karte lauffähig ist, solange sie die entsprechenden Features liefert.

AMD hatte genug Zeit eine eigene Implementierung von DXR in die Hardware zu gießen, bald sind zwei Jahre vergangen in denen man mal wieder nur vertröstet wurde. Trotzdem dürften einige Chips für die kommende Xbox SX bereits im Umlauf sein und es werden auch Titel für die kommende Konsole mit DXR Unterstützung, auf AMD Hardware entwickelt.

Irgendwann wird also auch der Tag kommen, an dem man Battlefield V, Metro Exodus oder Control auf AMD Hardware mit Hardware RT spielen können wird. Leider muss man im AMD Lager viel zu häufig ewig warten und kriegt dann am Ende doch nur den sprichwörtlichen "Spatz" geliefert. Radeon VII war ein Lückenfüller, Navi 10 ist eigentlich auch nur ein Lückenfüller und nun soll es dann Navi 20 im kommenden Jahr richten. Mal schauen was dann im kommendem Jahr für ein "Wunderchip" angekündigt wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: captain kirk
https://hexus.net/tech/news/graphics/116354-amd-nvidia-working-closely-microsoft-dxr-api/

HEXUS received an email bulletin from AMD about its own work on Microsoft's DirectX Raytracing API. It said that it was "closely collaborating with Microsoft," on the future of the API. More specifically it is helping to "define, refine and support the future of DirectX12 and ray tracing". Without mentioning any of its own hardware/software technologies, AMD said that it "remains at the forefront of new programming model and application programming interface (API) innovation based on a forward-looking, system-level foundation for graphics programming." AMD hinted that it would have more to share about PC-based ray tracing techniques in the future."

;)

"But like Microsoft’s other DirectX APIs it’s important to note that the company isn’t defining how the hardware should work, only that the hardware needs to support certain features. Past that, it’s up to the individual hardware vendors to create their own backends for executing DXR commands. "

https://www.anandtech.com/show/12547/expanding-directx-12-microsoft-announces-directx-raytracing

"One interesting side effect is that because DXR support is handled at the driver level, the addition of DXR support is supposed to be transparent to current DXR-enabled games. That means developers won't need to issue updates to get DXR working on these GTX cards. "


https://www.anandtech.com/show/1410...n-pascal-gpus-dxr-support-in-unity-and-unreal


Nvidia hat NICHTS damit zu tun, dass AMD nicht im (ĂĽberschaubaren) "DXR Game Portfolio" auftaucht
 
xexex schrieb:
Was lernen wir daraus? Vermutlich werden die Käufer einer 6GB Nvidia Karte genauso lange damit Spass haben, wie diejenigen die sich für eine 8GB AMD Karte entschieden haben. Ist die 2060 Super die bessere Karte? Definitiv! Aber sowohl die 2060 als auch die 2060 Super werden weiterhin produziert und bedienen unterschiedliche Preissegmente.

Nur mit dem Unterschied, dass es damals die RTX2060 nur in 6GB gab. Bei der RX5500 kann man frei wählen ob 4 oder 8GB.
Nur so zu deiner Information! :hammer_alt:
Das zweite Spiel ist Call of Duty: Modern Warfare. Hier erreicht die 8-GB-Karte von AMDs neuem Einstiegsmodell 47 Prozent mehr Bilder in der Sekunde und 42 Prozent bessere Frametimes. Und in dem Spiel hilft dann auch Nvidias besseres Speichermanagement nicht mehr. Die GeForce GTX 1650 Super bricht ebenfalls ein, wenn auch nicht ganz so intensiv wie die Radeon. Die GeForce GTX 1660 ist in dem Spiel 27 beziehungsweise 39 Prozent flotter als die GeForce GTX 1650 Super, gewöhnlich liegt der Abstand bei rund 10 Prozent.

Daraus lernen wir, wenn man keine freie Wahl hat, ist man immer der Mops.
Und was spielt es bitte fĂĽr eine Rolle ob eine Karte nicht mehr produziert wird, wenn man sie noch kaufen kann?
Wer sich noch eine RTX2060 nonSuper kauft ist selber schuld, genauso wie jemand welcher sich eine 4GB RX5500 kauft.
Und seit der GTX970 hat NVIDIA eben gelernt wie man Grafikspeicher deckelt.
 
Zuletzt bearbeitet:
captain kirk schrieb:
das wäre nicht der Fall wenn AMD entsprechende Hardware hätte mit entsprechenden Support für DXR

Imo gibt es nur DXR per RTX und so wird imo logischerweiĂźe auch nur fĂĽr Nvidia optimiert

Hier irgendwo schon wieder zu versuchen das auf die Gameworksschiene zu schieben(siehe oben) ist ganz schön schräg
Warum bleibt Nvidia dann nicht einfach bei DXR sondern nennt es RTX?

Das hat auch nichts damit zu tun ob AMD die Hardware hat oder nicht. Soll man von den Entwicklern jetzt erwarten, dass sie zwei unterschiedliche DXR Implementierungen einbauen? Die werden einfach die nehmen, die die meiste Verbreitung hat, was dann RTX sein wird, und AMD darf dann wieder schauen, dass sie ihre Hardware damit performant zum laufen bekommen.
Hairworks ist das beste Beispiel, AMD Karten könnten hier genau so gut arbeiten wie Nvidia Karten bei allem was bis zu einem Tesselation Faktor von 16 geht, darüber hinaus sieht man nämlich sowieso keine Unterschiede mehr.

Nun nutzen die Spiele mit Hairworks aber standardmäßig das was in Gameworks drin ist und das ist 64, wodurch AMD Karten sehr viel stärker einbrechen ohne dass ein optischer Mehrwert vorhanden wäre.

Stellt sich die Frage warum Nvidia ihre Architektur auf solche hohen Tesselation Faktoren hin aufgebaut hat, obwohl es keinen optischen Mehrwert bietet, solche Faktoren zu nutzen. Die fĂĽr mich einzig logische Antwort ist, um AMD Karten in Gameworks Titeln bewusst auszubremsen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: duskstalker und DarkerThanBlack
sialickiz schrieb:
Testet ihr die Spiele komplett durch bevor ihr die Benchmarks veröffentlicht:)
Du siehst alleine schon an der Szene für RDR2, dass sie nach Abschluss der Kampagne spielt, also wenn man ein RDR2 komplett durchgespielt hat und dann eine passende Benachmarkszene gewählt hat, dürfte das auch für die anderen weitaus kürzeren Spiele gelten.

Wenn du damit wieder auf dein "Worst Case" anspielen willst, sage ich gerne noch mal, dass das sehr viel weniger aussagekräftig ist.
Was interessieren mich z.B. 30fps, die ich in einem Gebiet von RDR2 habe, welches man im Spiel mal fĂĽr 10 Minuten durchquert, wenn die FPS im Rest des Spiels ĂĽber 50 liegen?
Eine Testseite, die mir nun sagt, dass ich mit meiner Karte 30fps in dem Spiel haben werde, verkauft mir also Informationen, die 99% der Zeit die ich das Spiel spiele, keine Relevanz haben.
Und im Fall von RDR2 habe ich tatsächlich in den 60 Stunden, die ich es gespielt habe, nirgendwo bemerkt, dass meine FPS spürbar unterhalb dessen lagen, was ich habe, wenn ich die Szene von CB ablaufe.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sun-Berg, DarkerThanBlack und GerryB
Taxxor schrieb:
Warum bleibt Nvidia dann nicht einfach bei DXR sondern nennt es RTX?

Das hat auch nichts damit zu tun ob AMD die Hardware hat oder nicht.
Hairworks ist das beste Beispiel, AMD Karten könnten hier genau so gut arbeiten wie Nvidia Karten bei allem was bis zu einem Tesselation Faktor von 16 geht, darüber hinaus sieht man nämlich sowieso keine Unterschiede mehr.

Nun nutzen die Spiele mit Hairworks aber standardmäßig das was in Gameworks drin ist und das ist 64, wodurch AMD Karten sehr viel stärker einbrechen ohne dass ein optischer Mehrwert vorhanden wäre.

Stellt sich die Frage warum Nvidia ihre Architektur auf solche hohen Tesselation Faktoren hin aufgebaut hat, obwohl es keinen optischen Mehrwert bietet, solche Faktoren zu nutzen. Die fĂĽr mich einzig logische Antwort ist, um AMD Karten in Gameworks Titeln bewusst auszubremsen.

...du siehst keine Unterschiede. Das ist hier der Unterschied.;)
Soll AMD doch selbst mal was auf die beine stellen.

NVIDIA bemĂĽht sich wenigstens und treibt neue technologien/features ala Raytracing vorran !
Was macht AMD, was bietet mir AMD ?

Schau dir doch mal wie inkonstant die AMD karten performen !
Wir sprechen hier nicht von 5-10FPS, sondern häufig von 40-50FPS (siehe letzte seite)

Weißt du was besonders traurig ist ? Das sind lediglich drei Beispiele von unzähligen.

...solche Patzer wĂĽrde sich NVIDIA nie leisten, nie !

Ich zocke gerne alte Spiele ala Mirrors Edge (GPU-Physx), wĂĽrdest du auf solche genialen Effekte verzichten wollen ? Ich nicht


HBAO+ bits, bietet mir AMD solche grafischen traumfeatures ? Leider nein !
https://forums.guru3d.com/threads/hbao-compatibility-flags-thread.387114/

...und der Thread lebt bis heute !
Die ganzen oldies ala F.E.A.R werden dadurch enorm aufgewertet optisch und mit einer AMD schaue ich mal wieder in die röhre, nicht möglich !

FĂĽr manche ist das vielleicht unwichtig aber ich und viele andere sehen das anders.



NO AO
http://i.picpar.com/xMhb.png

HBAO+
Bit

0x00000023

HBAO+
Bit

0x00000008



Strom wird im ĂĽbrigen auch immer teurer und das nicht zu knapp ! Schau dir mal an wieviel die fast zwei jahre jĂĽngere rx64 verbraucht im vergleich zu GTX1080 !
Das ist ein absolutes NO-GO und komplett inakzeptabel ! WIR SCHREIBEN DAS JAHR 2020 BALD:confused_alt:

....also sag mir mal bitte, was spricht fĂĽr AMD ?
 
Zuletzt bearbeitet:
sialickiz schrieb:
Schau dir doch mal wie inkonstant die AMD karten performen !
Wir sprechen hier nicht von 5-10FPS, sondern häufig von 40-50FPS (siehe letzte seite)

Weißt du was besonders traurig ist ? Das sind lediglich drei Beispiele von unzähligen.

...solche Patzer wĂĽrde sich NVIDIA nie leisten, nie !
Was sicherlich nicht am Marktanteil von Nvidia liegt und sie entsprechend erste Wahl bei der Optimierung sind, wenn nich von selbst von den Entwicklern aus, dann eben mit Nachhilfe.

Ich frage mich auch, ob es dir, wenn bei einem Spiel wie Sniper Ghost Warrior aus einem deiner letzten Posts alle AMD Karten die exakt gleichen Werte haben, nicht in den Sinn kommt, dass der Entwickler hier einfach geschlampt hat. Das sind drei verschiedene Generationen in 3 verschiedenen Fertigungsprozessen, und alle bleiben bei der selben Zahl kleben?
Normalerweise wĂĽrde man so ein Spiel niemals fĂĽr einen Performancevergleich hernehmen, da es offensichtlich nicht dazu geeignet ist.
sialickiz schrieb:
Schau dir mal an wieviel die fast zwei jahre jĂĽngere rx64 verbraucht im vergleich zu GTX1080 !
Das ist ein absolutes NO-GO und komplett inakzeptabel ! WIR SCHREIBEN DAS JAHR 2020 BALD:confused_alt:
Ja wir schreiben bald 2020 und deshalb redest du auch weiterhin nur von der GTX1080 und wie toll sie doch ist....
 
Zuletzt bearbeitet:
sialickiz schrieb:
PS: Das machen die wenigsten ! UV und so. ;)
Bestimmt mehr, als Ende 2019 F.E.A.R mit HBAO+ bits auf einer GTX1080 zu spielen ;)

sialickiz schrieb:
Das solche experimente wie UV/OC zudem immer mit einem gewissen Risiko verbunden sind ist dir wahrscheinlich auch entgangen, hmm ?
Dass du bei AMD schon etwas länger sogar einen Auto-UV Button direkt im Treiber hast ist dir wohl auch entgangen^^

Trotzdem bleibt die Frage - du sagst selbst wir schreiben bald 2020 - warum redest du dann heute noch unter jedem neuen GPU Thread ĂĽber die Effizienz der immer gleichen alten Karte?
 
Taxxor schrieb:
ĂĽber die Effizienz der alten Karte?

Das kann ich dir sagen. Ich finde es einfach unheimlich schwach das AMD nach "fast" zwei jähriger Verspätung eine GPU released die 121 Watt mehr aus der Steckdose zieht.

Wenn die GPU jetzt im schnitt um ca. 30% schneller wäre, dann könnte man es noch nachvollziehen aber so ?
Soll ich das vielleicht loben ?

Screenshot_2019-12-19 Grafikkarten von AMD und Nvidia im Test Sonstige Messungen und Fazit(1).png

Screenshot_2019-12-19 Grafikkarten von AMD und Nvidia im Test Sonstige Messungen und Fazit(2).png

https://www.computerbase.de/2019-12...20/3/#abschnitt_messung_der_leistungsaufnahme

Navi macht es zum GlĂĽck deutlich besser, so toll ist die effizenz fĂĽr eine neue Arch incl. 7nm aber leider auch nicht. Das selbe gilt auch fĂĽr die Performance.
Es sind aber allgemein betrachtet recht gute karten, verglichen mit Vega(GCN)

Good Night ;)
 
sialickiz schrieb:
Das kann ich dir sagen. Ich finde es einfach unheimlich schwach das AMD nach "fast" zwei jähriger Verspätung eine GPU released die 140Watt mehr aus der Steckdose zieht.
Ich könnte auch hergehen und unter jedem GPU Thread schreiben wie viel doch die alte GTX480 gezogen hat, mach ich aber nicht weil es Schnee von gestern ist.
(Ăśbrigens sind es 121W ;) )
sialickiz schrieb:
Wenn die GPU jetzt im schnitt um ca. 30% schneller wäre, dann könnte man es noch nachvollziehen aber so ?
Soll ich das vielleicht loben ?
Nein du sollst einfach nur aufhören, das Thema, welches schon vor 2 Jahren bis zum Erbrechen durchgekaut wurde und bei dem sich sowieso alle einig sind, unter jeden neuen Thread, der irgendwie mit GPUs zu tun hat, wieder hochzuholen.
 
Das Vega mit UVen net langsamer wird ist doch bekannt.(dito RX5700)
Man braucht sich nur den eff.Takt in den Reviews anschauen.(ne 56@1269 = haha)
Insofern sind oft die Reviews von CB für Vega rel. ungünstig vgl. mit TuringFE, die ne höhere TDP als A-Chip mitbringt.

Im Prinzip kann man sowohl Strom sparen als auch noch höher takten, wenn die TDP net mehr limitiert.
Und ganz nebenbei wird man kĂĽhler und braucht bei den guten Vega-Customs wie Pulse+Nitro nix umbauen.
 

Anhänge

  • Vega-eff.Takt-Launchreview.PNG
    Vega-eff.Takt-Launchreview.PNG
    77,6 KB · Aufrufe: 336
  • RX5700-eff.Takt.PNG
    RX5700-eff.Takt.PNG
    315 KB · Aufrufe: 328
Zuletzt bearbeitet:
GerryB schrieb:
Im Prinzip kann man sowohl Strom sparen als auch noch höher takten, wenn die TDP net mehr limitiert.
Das gilt aber auch seit längerem nicht mehr wirklich, da die Vegas mittlerweile selbt auf Ausbalanciert selbsständig ihre Spannung absenken, sodass ich heute Stock auch durchaus sehr viel eher 1350-1400MHz sehe, wo ich zu Release eher 1250-1300 gesehen habe.
Wenn ich jetzt UV betreibe, senke ich erstmal den Verbrauch, dadurch taktet die Karte aber direkt höher, wodurch der Verbrauch wieder ansteigt und ich wieder im TDP Limit lande, dafür mit etwas mehr Leistung.
Mehr Leistung bei gleichzeitig weniger Verbrauch als Stock habe ich mit meiner Vega nie geschafft.
 
Ok,
net jeder Chip+HBM ist gleich gut. Vermutlich kommst Du net ansatzweise an den Kollegen mit seiner Pulse
(bei PCGH) ran. sup4k=6500Pkt
AMD Radeon RX Vega 64 und RX Vega 56 Overclocking/Undervolting-Thread - Seite 592
(unter 981mV ist der Verbrauch net höher als Stock)

mal z.Vgl. Vega-Launch: man erkennt schon ein paar Unterschiede, 5358@Stock war net so prall

edit: Würdest Du jetzt@UV mit dem selben Fps-Limit wie vor 2Jahren@Stock spielen wäre der Unterschied
deutlich zu merken. (Frametimes+Temp)
Es besteht mit der 56 net mehr die Gefahr von Dipps am TDP-Limit.

edit2: Mal noch der Wert, wo bereits Gleichstand mit Stock erreicht wird. Es reichen 931mV ohne HBM-OCen.(x)
Das lässt sich auch mit der billigsten 56-Blower machen.(mit weniger W+leiser+kühler)
AMD Radeon RX Vega 64 und RX Vega 56 Overclocking/Undervolting-Thread - Seite 589
(x) vermutlich sogar 925mV, weil der Kollege mit 931mV bereits schneller war
 

Anhänge

  • sup4k@launch.PNG
    sup4k@launch.PNG
    83 KB · Aufrufe: 318
Zuletzt bearbeitet:
GerryB schrieb:
Mal noch der Wert, wo bereits Gleichstand mit Stock erreicht wird. Es reichen 931mV ohne HBM-OCen.
Das lässt sich auch mit der billigsten 56-Blower machen.(mit weniger W+leiser+kühler)
Haha^^ bei mir ist bei 1000mV schluss, darunter muss ich anfangen den max Takt zu senken. Ich bin momentan bei 970mV und 1562MHz, was in realen 1500MHz resultiert.

Übrigens macht es auch einen Unterschied, ob man im Treiber auf ausbalanciert stellt oder ob man auf Benutzerfediniert stellt ohne was zu ändern.
Bei letzterem werden die mV Granzen fĂĽr die P-States strikt so gesetzt, bei Ausbalanciert werden sie Automatisch angepasst.
Betreibe ich die Karte auf Ausbalanciert, habe ich unter Last ca 1000mV, nicht viel mehr als ich mit meine mUV Setting hinbekomme.
 
DarkerThanBlack schrieb:
Nur mit dem Unterschied, dass es damals die RTX2060 nur in 6GB gab.

Damals wie heute gibt es die RTX2060 mit 6GB und wer nur in Full-HD spielen will, ist damit weiterhin passabel bedient.

DarkerThanBlack schrieb:
Bei der RX5500 kann man frei wählen ob 4 oder 8GB.

Du konntest damals zwischen RTX2060 oder RTX2070 wählen, nun hast du die Wahl zwischen RTX2060 und RTX2060S. Niemand wurde dazu gezwungen sich eine RTX2060 zu kaufen und die RTX2070 gab es schon wesentlich früher auf dem Markt.

DarkerThanBlack schrieb:
Wer sich noch eine RTX2060 nonSuper kauft ist selber schuld, genauso wie jemand welcher sich eine 4GB RX5500 kauft.

Klar! Weil alle nur AAA Titel mit höchsten Grafiksettings und mindestens 1440p spielen und Geld gar keine Rolle bei der Kaufentscheidung spielt.

INNO3D GeForce RTX 2060 Twin X2 - €299
INNO3D GeForce RTX 2060 SUPER Twin X2 OC - €389

Sapphire Pulse Radeon RX 5500 XT 4G - €179
Sapphire Pulse Radeon RX 5500 XT 8G - €209

Nach deiner Argumentation ist doch auch jeder selbst schuld der sich überhaupt eine RX5500XT zulegt, wo es doch auch eine RX5700XT gibt. VRAM ist eben doch nicht alles, frag mal die Leute die sich "damals" eine RX480 zugelegt hatten, wie viel Profit sie bisher aus dem zusätzlichen VRAM schlagen konnten. Knapp 3,5 Jahre sind seit dieser Zeit vergangen, die RX480 taucht bei den Benchmarks nicht mehr auf und der RX480 "refresh" konnte sich bis heute nicht von der GTX1060 absetzen, aber was wurde damals über viel zu wenig VRAM diskutiert und AMD über den Klee gelobt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CrustiCroc, captain kirk und Laphonso
Taxxor schrieb:
bei mir ist bei 1000mV schluss, darunter muss ich anfangen den max Takt zu senken. Ich bin momentan bei 970mV und 1562MHz, was in realen 1500MHz resultiert.

Du musst halt alle Posts lesen. Stock56 kann bis auf 1269 im eff.Takt fallen.
Deswegen reicht ein UVen fĂĽr ca. stabil 1400 bereits aus, um den selben Score zu schaffen.
Alles ĂĽber 1500 ist meist nur Energieverschwendung.
Natürlich hängt der eff.Takt = Boost auch vom Game und der Auflösung ab.
Das kann leicht mal 30-40MHz Unterschied bedeuten.

Du kannst ja mal Dein komplettes Setting posten. Mal schauen obs ähnlich optimiert ist.
Hast Du eigentlich eine Morpheus-Vega-Edition oder nur den alten M2?
Da gabs meist Probleme mit dem Hotspot und den VRM-Temps.
Besonders komisch sind dann noch die Strixx. Da gibts manchmal Ăśberraschungen beim
Finden von stabilen Settings.
Ich kann Dir auch genau sagen, warum ich dem Kollegen mit den 931mV glaube, das Er den
Stock-Score schafft, weil ich auch mal ähnliche Spannungen benutzt habe im MemoryTweakerThread.
News - AMD Memory Tweak: Speicher-Timings auf AMD Radeon in Windows anpassen| Seite 7 | ComputerBase Forum
 
Zuletzt bearbeitet:
ZurĂĽck
Oben