Hallo,
habe vor ein paar Tagen eine Vega 56 Strixx durch die XFX 5700 XT Thicc II Ultra ersetzt. War auch erst etwas skeptisch bzgl. der Temperaturen etc. (da gab es ja z.B. von HW Unboxed und GN ziemlich kritische Videos), muss aber sagen, dass ich die Entscheidung bei dem Preis (Black-Friday, 350€) nicht bereue.
Tatsächlich lief die Karte mit dem Performance-Bios ziemlich warm (Hot Spot um die 100°), aber es scheint sich schon um das neue Bios zu handeln (es gab nicht den Bug mit den zu spät anlaufenden Lüftern). Ob ich auch schon eine Revision mit dem verbesserten Kupfer-Kühler erwischt habe, lässt sich meines Wissens nach nicht nachvollziehen. Oder weiß zufällig jemand, wie ich das feststelle?
Selbst wenn ich noch eine alte Revision erwischt haben sollte, wäre das für mich kein Argument, die Karte zum Austausch einzuschicken, denn: mit ein bißchen Arbeit im Wattman kriegt man die Karte auch so schnell und kühl. Computerbase (
https://www.computerbase.de/2019-10/radeon-rx-5700-xt-geforce-rtx-2070-super-pcie-4.0-oc-uv/) und andere haben das Potential des Undervolting ja schon beschrieben, in meinem Fall gibt es ebenfalls niedrigere Temperaturen und etwas höhere Leistungen.
Die Karte läuft jetzt mit 2050 bei 1066 mV, was real in einem Takt von 1960 bis 2020 resultiert. Bei RDR2 klebt die Karte fast punktgenau auf 2000 Mhz. PL habe ich nicht geändert, dafür die Lüfter ein wenig hochgedreht. Die Karte ist nun aus dem Gehäuse (Fractal Define R6) hörbar, im Vergleich zur Vega 56 empfinde ich es aber auch ohne Kopfhörer als nicht störend, selbst bei eher ruhigen Passagen in RDR2. Die Leistung ist gegenüber dem Referenzmodell schon ein Stück weit höher, ich erreiche im Firestrike Standard etwas über 27900 Graphics Score, in Timespy sind es gute 9700 Graphics Score. Die Temperatur pendelt sich etwa bei 73° GPU-Core u. 85 am Hotspot ein, Speicher und VRMs auch bei etwa 70.
Das einzige was mich irritiert: In allen von mir gefundenen Berichten ist entweder keine Rede vom OC des VRam oder es wird gar gezeigt, dass es kontraproduktiv ist. Bei Vega war das Anheben des Speichertaktes noch der Schlüssel zu starker Mehrleistung und ich hätte vermutet, dass auch bei Navi eine Erhöhung der Speicherbandbreite helfen könnte, den hohen GPU-Takt besser "auf die Straße" zu bringen. Tatsächlich hat ein versuchsweises Anheben von 875 auf 900 Mhz aber ebenfalls eher eine minimale Verschlechterung gebracht - obwohl ich kein Artifacting o.ä. feststellen konnte. Hat jemand hierfür eine Erklärung bzw. dahingehend vielleicht noch weitere Erkenntnisse?
Edit: Nach einer Runde BFV nochmal ein Update zu den Temperaturen. Habe im Spiel auf 120 FPS gecappt, wodurch die GPU meist eher so bei 95% Auslastung liegt. Der Takt geht natürlich auch etwas runter eher so 1870-1950 mit Ausreißern nach oben, aber die Temps sind damit bei 69° Core u. 78° Hotspot, Speicher bei 72° u. VRM bei 65°. Die oben angebebenen Werte sind somit schon eher "worst case" (zugegebenermaßen im Winter).