Test 7900 XTX OC vs. RTX 4080 OC: RDNA 3 und Ada Lovelace mit maximalen Taktraten im Duell

AMD ist wieder auf dem besten Weg, nachhaltig ihre gute Arbeit zu verspielen. Nvidia ist ein starker Konkurrent, aber langsam wirds lächerlich.
Ergänzung ()

Ferax schrieb:
Mich würde hier echt mal interessieren ob AMD sich selber schwer tut den Treiber zu konstruieren oder ob es ein ewiges hinterher rennen unpassender Engines oder Spiele Entwicklungen ist.
Kann ja kaum der Grund sein, wenn alle aktuellen Konsolen mit AMD-Chips laufen.
 
  • Gefällt mir
Reaktionen: CrustiCroc
Dai6oro schrieb:
Interessant wäre ja noch UV + OC um den Verbrauch etwas einzufangen. Ich glaube hardwareluxx hat dies gemacht ebenfalls mit der Nitro:

https://www.hardwareluxx.de/index.p...x-von-asus-und-sapphire-im-test.html?start=13
Joa, aber wenn dann müsste man alle Configs maximal undervolten, d.h. bis zur Stabilitätsgrenze gehen. Wenn die 500W-Variante mehr bzw. weniger Reserven hatte, ist das mit der 350W-Variante nicht so ganz vergleichbar. Ist aber schwierig zu testen, weil der Takt der Karte so stark schwankt. Wenn man z.B. 3300Mhz und 1100mV einstellt, dann läuft das z.B. bei 350W stabil, aber bei 430W nicht mehr, weil die Karte weiter oben auf der Spannungskurve läuft und diese dort instabiler ist.
PCSpezialist schrieb:
klärt mich bitte auf: Ich dachte die XTX stand in den letzten Tagen in der Kritik, sich bei maximalem Takt selbst zu überlasten. Und zum Selbstschutz hat se sich dann deutlich runtergetaktet. war das nicht in etwa so?
Ganz anderes Thema: Es gibt viele Karten mit defekten Kühlern. Das hat nichts mit Taktraten und Verbräuchen zu tun.
Metaxa1987 schrieb:
Interessant dazu wäre jetzt der benötigte Verbrauch einer 4090 um auf das Leistungsniveau der "kotzenden" 4080/7900XTX zu kommen.
Eigentlich nicht, denn die 4090 hat einen viel größeren Chip. Ein großen Chip zu untertakten und zu undervolten wird immer viel effizienter sein als einen kleineren Chip mit der gleichen Architektur zu nehmen und hochzuprügeln. Die 4090 wird dann auch viel effizienter als eine 4070 sein, obwohl die eigentlich gleich effizient sein müssten.
 
  • Gefällt mir
Reaktionen: person unknown
@Wolfgang
Wie habt ihr das vram OC ermittelt ?
Nur in spielen ?

Ist’s denn nicht so das der Speicher Fehlerkorrektur hat und man die MHz hoch schrauben kann aber dennoch mehr Fehler in der Berechnung hat ?
 
Gaspedal schrieb:
Du weiß aber schon dass sich Watt aus Spannung und Stromstärke ergibt? Sobald Du an der Spannung was änderst, ändert sich auch das Watt.
Der übliche schlaue Hinweis, danke ;-).

Wir stellen bei der GPU die Wattzahl ein (oft einfach durch Begrenzung) und die Spannung, zumindest 99% von uns. Die Stromstärke kann ich zumindest nicht direkt beeinflussen mit meinem Handwerkszeug.

"Das Watt" ändert sich für die meisten Spieler eben auch nicht, sinkt im besten Fall gar, das ist ja in der Regel das Ziel. Spannung senken, bis bei gegebener Wattzahl (z.B. 355W bei der 7900xt) die höchstmögliche Frequenz und damit Spieleleistung rauskommt.

Im Test bleibt der Parameter Spannung unberührt und es gibt einfach nur mehr "Produkt" - also Watt -, da die Karte auf Basis der ihr einprogrammierten Werte für das schlechteste eine Prozent der Chips Spannung und Stromstärke sinnlos auf das thermische und / oder Watt-maximum anhebt.
Ich denke, auch die Physiker oder Elektrotechniker, die sich gerne genauer ausdrücken wollen, können zustimmen, dass das nicht sinnvoll ist um - "maximale Taktraten" wie es in der Überschrift heisst - auf einem individuellen Chip zu erreichen
 
Puh, das ist natürlich jenseits von gut und böse..

Aber müsste sich nicht aufrund solcher Analysen (Danke @Wolfgang ) auch relativ leicht heraus finden lassen, welcher part für den hohen Zusatzverbrauch verantwortlich ist?

Da könnte dann AMD bei einem refresh ansetzen. Schöner wäre natürlich, wenn es via Treiber möglich wäre ;)
 
Slainer schrieb:
habe meine 1080ti gegen eine RX 6600 XT aus Effizienzgründen ausgetauscht.
UV ~100W mit mehr (SAM!) Leistung als einer 1080ti für 1440p

Ich drücke Däumchen, dass man das mit einer RX 7600/ RX 7700 auch so handhaben könnte.

Die 6600XT wäre leider nur nen Sidegrade, aber ich kann verstehen das man aus Effizenzgründen wechselt. Die einzige Karte die mich aktuell reizt wäre eine 3060 12GB oder die 6700(XT). Alles andere ist für mich nix. Grundsätzlich wäre die 4080 16GB ne klasse GPU aber nur für max 800 Euro neu. Und davon sind wir Welten entfernt.

Also bleibt die 1080 im System. Und wenn ne andere GPU kommt wandert die 1080 ins System meiner Frau und ihre 970 kommt in den Server...

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: OldboyX und Slainer
Ich frag mich nur wie viele Reserven noch der Stromzähler hat *lach diese neuen Karten kamen zum ungünstigsten Zeitpunkt raus Inflation Energiekrise usw. Vorallem für Otto Normal User hier der eh nix übertaktet alles unintressant hier. vllt spannend zu lesen aber mehr auch nicht.
 
C.J. schrieb:
Eigentlich nicht, denn die 4090 hat einen viel größeren Chip. Ein großen Chip zu untertakten und zu undervolten wird immer viel effizienter sein als einen kleineren Chip mit der gleichen Architektur zu nehmen und hochzuprügeln.
Absolut. Dazu gibt es in der letzten Ausgabe PCGH lange Testreihen. Auf dem Niveau der 4080 (auch diese wurde undervoltet und übertaktet) ist die 4090 mit riiiesigem Abstand die effizienteste Karte und braucht für mehr als dieselbe Leistung gerne mal ein Drittel weniger Watt.
 
Ich habe bei meiner 4090 das PT gesenkt und einfach OC betrieben mit +220Mhz. Juckt die Karte nicht, die ist nun einfach schneller ohne mehr zu verbrauchen. Ich war noch nie ein Fan von OC bei Erhöhung der Spannung oder des PT. (Außer natürlich bei XMP Speicher).
 
  • Gefällt mir
Reaktionen: Trent, Odessit, DerRico und 2 andere
Wolfgang schrieb:
Kann es vielleicht sein, dass das bei dir schlicht daher ist, da der GPU-Takt quasi eh unverändert bleibt. Das passiert meiner Erfahrung bei Navi 31 schnell, eben da die GPU für noch mehr Takt wer weiß wie viel Watt benötigen würde, was dann das Power Limit sprengen würde (weil der da eh schon im Limit hängt). Bei dem Referenzdesign ist das zum Beispiel ganz extrem.
Okay ich hab mich doof ausgedrückt und vielleicht war die Aussage so auch nicht korrekt :)

Mit erhöhtem GPU Takt meinte ich schon erhöhtes Powerlimit und dadurch dann auch unmittelbar höheren Takt auf der GPU. Wobei die Taktsteigerung hier ja auch wieder von der Güte des Chips abhängt, da die Curve für Takt und Spannung individuell beim Boot generiert wird. Mein Chip hat eine ASIC von 39,X% und ist dadurch vielleicht auch nochmal weniger taktfreudig als RDNA 3 ja eh schon ist.

Ich habe gerade die Messwerte nicht in Kopf aber der Leistungsunterschied zwischen +15% und -10% Powerlimit (ausgehend von 390 Watt PPT auf der XFX Merc) liegt bei mir gefühlt vielleicht irgendwo bei 6-7% und kann ziemlich gut durch 2700 MHz auf dem VRAM bei Fast Timings kompensiert werden.

Mein Eindruck ist jedenfalls, dass RDNA 3 trotz der enormen Bandbreite und recht niedrigen GPU Taktraten definitiv (auch) bandbreitenlimitiert ist und ein schnellerer RDNA 3 Chip vermutlich GDDR6x oder (wahrscheinlicher) doppelten Infinity Cache bräuchte.

Letztlich stellt das dein treffendes Fazit auch gar nicht in Frage, sondern zeigt eher wie man mit RDNA 3 für maximale Effizienz umgehen sollte:

Powerlimit maximal senken, VRAM bei Fast Timings maximal übertakten (auf Fehlerkorrektur achten) und Spannung für den Grafikchip so weit wie möglich senken.
So ist man mit Powerlimit auf -10% dennoch schneller unterwegs als mit Default-Settings.
 
  • Gefällt mir
Reaktionen: Oppagolf, DerRico und n3cro
Wolfgang schrieb:
Weiß eigentlich jemand, was diese "effektiven" Takte bei HWInfo sein sollen? Mir ist das zumindest nicht wirklich klar.
Naja ich vermute mal das wird das gleiche sein wie bei den CPUs auch.
Takt ist das was die Karte bei Last anliegen haben wird.

Effektiver Takt ist, was dann rechnerisch innerhalb einer bestimmten Periode(z.B. 1s) anlag, wenn man von einer 100% Auslastung ausgeht.
Da werden dann Anteile abgezogen, in denen z.B. die Shader auf 0% Auslastung runtergegangen sind, weil der Takt z.B. nicht richtig stabil ist, oder auch einfach z.B. nur mit 80% gelaufen sind, weil man im CPU Limit war.

Ein Takt von 3Ghz bei einer GPU Auslastung von 80% wären dann ein effektiver Takt von 2,4GHz.

So kann man bei den CPUs Clock Stretching identifizieren. Wenn die Auslastung bei 100% liegt und der effektive Takt trotzdem vom normalen Takt abweicht, stimmt was nicht, denn das bedeutet, dass sie zwischendurch immer mal wieder im ms-Bereich runtergetaktet hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pjack, rumpeLson und Wolfgang
@Taxxor Effektiv meint ja, dass Leerlaufzyklen rausgenommen werden, genauso wie bei CPUs, aber die Frage ist, warum gibt es mehrere davon? Shader Clock sollte doch nur eine Domain sein?!
 
Tigra456 schrieb:
@Wolfgang
Wie habt ihr das vram OC ermittelt ?
Nur in spielen ?

Ist’s denn nicht so das der Speicher Fehlerkorrektur hat und man die MHz hoch schrauben kann aber dennoch mehr Fehler in der Berechnung hat ?
Ja, das haben wir in Spielen gemacht.
Und ja, bei einem zu hohen Takt kann es passieren, dass die Grafikkarte stabil bleibt, durch die Fehlerkorrektur aber die Performance sinkt. Darum achte ich beim Mem-OC auch immer auf die FPS.
Demon_666 schrieb:
Puh, das ist natürlich jenseits von gut und böse..

Aber müsste sich nicht aufrund solcher Analysen (Danke @Wolfgang ) auch relativ leicht heraus finden lassen, welcher part für den hohen Zusatzverbrauch verantwortlich ist?

Da könnte dann AMD bei einem refresh ansetzen. Schöner wäre natürlich, wenn es via Treiber möglich wäre ;)
Ich wüsste nicht wie. Die Effizienz ist ja auch schon ein Problem in Compute-Lasten, wo also manche Bauteile wie TMUs und ROPS nicht belastet werden. Die zwei Komponenten kann man denke ich ausschließen. Aber der Rest...kann halt immer noch vieles sein.
 
  • Gefällt mir
Reaktionen: Demon_666 und rumpeLson
Zer0Strat schrieb:
aber die Frage ist, warum gibt es mehrere davon? Shader Clock sollte doch nur eine Domain sein?!
Gibt es mehrere? Seh ich in deinem Screenshot jetzt nur den effektiven Shader und den effektiven Frontend Takt.
 
Wolfgang schrieb:
Ja, das haben wir in Spielen gemacht.
Und ja, bei einem zu hohen Takt kann es passieren, dass die Grafikkarte stabil bleibt, durch die Fehlerkorrektur aber die Performance sinkt. Darum achte ich beim Mem-OC auch immer auf die FPS.
Und das reicht aus als Test ? Keine Ahnung ? Will mich da mit der 4070TI auch mal rantasten und bin mir nicht sicher ob man das noch mit 3D Mark Tests und co verifizieren muss das es nicht zu Fehlerkorrekur-Verlusten kommt ?
 
Ich finde die RX 7000 Serie ist jetzt keine Vollkatastrophe. AMD wird da sicher mit Treibern und Feintuning noch ein gutes Produkt daraus machen. Bisher sind AMD-Karten immer sehr gut gealtert. Aber ich werde diese Generation wahrscheinlich noch ein einmal überspringen wenn meine nicht kaputt geht.
 
  • Gefällt mir
Reaktionen: daknoll, HierGibtsNichts und rumpeLson
Interessanter Test. Einerseits schon beeindruckend was RDNA 3 an Takt (in synthetischen Benches) schaffen kann.
Aber andererseits wieviel Watt man da schon wieder reinballern muss...
Die letzten 5% Leistung bei modernen Karten rauszuquetschen ist dann doch eher was für´s Ego, beim spielen merkt man die minimale Leistungssteigerung eh nicht. Meine bescheidene Meinung dazu. :)

MFG Piet
 
DerRico schrieb:
RDNA3 ist 50% effizienter als die NV-Spitze der letzten Generation und 20% im Vergleich zum eigenen Vorgänger. Im Vergleich zum riesigen Sprung den NV mit der 4080 und 4090 gemacht hat ist das enttäuschend, ja. Aber es ist eben nicht per se "schlecht"
Genau das ist der Punkt den manche hier nicht beachten.
Dieses dramatische " RDNA3 ist so ineffizient, Verbraucht viel zu viel Strom".

Im Vergleich zu NV sieht es sicher nicht ganz so gut aus, ja. Aber eben auch nur im Vergleich.
Da dann aber von grottig oder ähnlichen zu sprechen ist einfach nicht korrekt.

Bei der 3090 hat sich doch auch kaum einer aufgeregt wegen dem Verbrauch und wurde trotzdem gut vk.

Jetzt ist die 7900XTX schneller bei ungefähr gleichen Verbrauch und plötzlich ist das Total ineffizient.

Ist halt nur nicht so geworden wie erhofft und NV hat halt die Messlatte höher gelegt als gedacht.
 
  • Gefällt mir
Reaktionen: daknoll, Perdakles, Sun-Berg und eine weitere Person
Zurück
Oben