Test 7900 XTX OC vs. RTX 4080 OC: RDNA 3 und Ada Lovelace mit maximalen Taktraten im Duell

PCSpezialist schrieb:
Und zum Selbstschutz hat se sich dann deutlich runtergetaktet. war das nicht in etwa so?
Meinst du die Vapor-Chamber problematik? Davon sind ja nicht alle betroffen.
Und das hat ja nichts mit dem takt direkt zu tun sondern mit der Temperatur.
 
  • Gefällt mir
Reaktionen: BatCatDog
Nitschi66 schrieb:
Naja wenn du den Takt bis zur kotzgrenze ziehen willst kannst du ja auch nicht mehr undervolten. Da brauchst du die spannung

Einen sweetspot herauszufindenn hatte @Wolfgang ja nicht vor.

Eben nicht- 1.07v@3.3g sollten eigentlich auf jeder XTX gehen!
 
piccolo85 schrieb:
Persönlich fände ich den Test "Wie weit kann ich undervolten ohne Leistung zu verlieren" die viel spannendere Disziplin. Verga64 hat mich dazu erzogen meine Grafikkarten so zu betreiben, aber daran hat sich auch mit einer 4090 nichts geändert. Meine kann ich mit maximal 350W statt 450W bei gleichem Takt und Leistung betreiben.
Ich glaube das ist eine andere Frage. Ich fand den Test ganz interessant, um die Architektur näher zu beleuchten. Wie ich in meinem gerade abgeschickten Beispiel schrieb, laufen die RDNA3-Karten im totalen Gegensatz zu RDNA1+2 schon ab Werk mit geringer Spannung und der hohe Verbrauch ist eine Eigenschaft der Architektur. Ich halte es für unwahrscheinlich, dass RDNA3 durch UV so viel rausholt wie RDNA2 oder Ada.

Für mich ist das ehrlich gesagt kein gutes Zeichen. Es gab zur Präsentation Gerüchte um einen Design-Bug, der höhere Taktraten bei den Karten verhindert. Da wurde aber eher spekuliert, dass irgendwo ein kritischer Pfad im Design übersehen würde, der hohe Taktraten einfach komplett killt. Spätestens jetzt weiß man, dass das überhaupt nicht der Fall ist. Taktmäßig geht RDNA3 ab wie Schmitz' Katze, aber offensichtlich hat es zu viele Transistoren oder irgendwelche krassen Leckströme o.ä. die einfach den Verbrauch eskalieren lassen - bei jedem Takt. Man darf nicht vergessen, dass N31 mehr als doppelt so viele Transitoren hat wie N21 bei gerade mal 20% mehr CUs und sogar etwas weniger IF$ (die 128MB haben bei N21 schon bestimmt 1/4 der Gesamttransistoren ausgemacht!). Entweder lässt sich das noch fixen bei späteren Chipsm z.B. N32 für die 7800er Serie bzw. einem N31-Refresh. Oder das Design ist einfach ein Fail, so wie Vega und wir müssen 2 Jahre warten bis AMD bei der Effizienz wieder Land sieht. Ada ist out of the box schon effizienter und das obwohl die Chips taktmäßig schon am Anschlag laufen (die 4080 erreicht ihr PPT in Spielen nicht mal!). Mit UV ziehen die imho völlig davon.
 
  • Gefällt mir
Reaktionen: Perdakles und piccolo85
TheUngrateful schrieb:
Dieses vermutlich "nicht gewünschte Verhalten" von RDNA3 wird sich dann wahrscheinlich durch die komplette Serie ziehen, oder?
Es soll sich um ein behebbares Problem der Chiplets-GPUs handeln. Die kleineren und mobilen Versionen sind Monolithen und takten normal - also 3Ghz+
 
  • Gefällt mir
Reaktionen: medsommer, Cruentatus und TheUngrateful
Chesterfield schrieb:
hinzu kommt das effizientere speichermanagment was die 24GB iwie relativeren lässt von AMD
Ändert nichts an der nachteiligen und beabsichtigten "Unterausstattung" an Vram bei den kleineren Nvidia Karten. Das gleicht auch ein besseres Speichermanagement nicht vollkommen aus.
 
  • Gefällt mir
Reaktionen: Epistolarius, Pjack, AssembIer und eine weitere Person
Also was da bei AMD auch immer schief lief ist echt krass.
Die Effizienz bei RDNA3 ist OotB schon schlecht, aber OC sprengt das echt ins lächerliche.
 
duskstalker schrieb:
wieviel performance liefert die xtx denn in Blender? passt das zum takt oder ist das eine Art clock stretching Effekt?
HWiNFO hat sogar den effektiven Shader Takt.

1673957396146.png
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Holzinternet schrieb:
Meine GTX1080 rennt mit UV bei gut 160 Watt unter Volldampf...

habe meine 1080ti gegen eine RX 6600 XT aus Effizienzgründen ausgetauscht.
UV ~100W mit mehr (SAM!) Leistung als einer 1080ti für 1440p

Ich drücke Däumchen, dass man das mit einer RX 7600/ RX 7700 auch so handhaben könnte.
 
  • Gefällt mir
Reaktionen: MiroPoch und Holzinternet
silentdragon95 schrieb:
Es zeigt sich weiter das Bild: RX 7000 ist auf dem Papier enorm vielversprechend, performt in der Praxis aber viel zu schlecht - und den Grund scheint noch nicht einmal AMD zu 100% zu kennen.
Der Grund ist das Chipletdesign und das sich noch einiges via Treiber verbessern lässt hat der CB Test vom 22.12.2 gezeigt. Nicht umsonst haben die RX7000 eigene Treiber. AMD war schlicht etwas zu früh dran mit dem Release und es fehlen Optimierungen, das kann man ihnen vorwerfen.
 
  • Gefällt mir
Reaktionen: MiroPoch und Slainer
gedi schrieb:
Eben nicht- 1.07v@3.3g sollten eigentlich auf jeder XTX gehen!
Im Test wurden 3,5Ghz erreicht und du redest jetzt von 3,3ghz... wie gesagt, das sind einfach zwei verschiedene Themen! 3,5Ghz ist die absolute grenze dieser Karte gewesen. Gehst du DANN noch mit der Spannung runter wirds schwierig diese Taktrate wieder zu erreichen - über Sinn und Unsinn wird hier ja nicht gesprochen.
 
  • Gefällt mir
Reaktionen: Pro_Bro
Beides tolle Karten (im Schnitt 50% mehr FPS, als meine 3080). Allerdings muss der Aufrüstdruck zu den Preisen erst noch deutlich steigen. Ich hoffe, Intel ist noch mit im Spiel und will kräftig aufholen.

Mal gespannt: Dieses Jahr kommen einige schicke Spiele für PS5 und OneX heraus, die nicht mehr auf der letzten Generation laufen müssen. Dadurch werden die Mindestanforderungen der PC-Versionen auch weiter steigen.
 
Dai6oro schrieb:
Interessant wäre ja noch UV + OC um den Verbrauch etwas einzufangen. Ich glaube hardwareluxx hat dies gemacht ebenfalls mit der Nitro
Haste Recht. So lernen wir nur, dass stumpfes Regler ziehen irgendwann nichts mehr bringt. Interessant irgendwie, aber welcher Tuner will das wissen? Lerneffekt und Aussagekraft 0.

Maximale Leistung erreicht man bei GPU und CPU schon seit vielen Generationen durch Optimieren von Spannung und nicht nur mehr Watt. Das weiss auch eigentlich jeder, der zu Hause tunt.

Schwache Leistung leider und hilft der Diskussion um die 7900er nicht weiter - schade.
 
  • Gefällt mir
Reaktionen: public_agent und Oppagolf
Schade für AMD. Die 6900 XTXH hat gute Dienste geleistet aber so ist es eben eine 4090 geworden.

Wer den Spott hat muss...naja klar was jetzt kommt: testet AMD nicht nur die Qualität des Kühldesigns beim Kunden sondern das ganze Design des Chips? Ich habe wirklich NULL Ahnung von Chipdesign aber so wie es hier beschrieben ist ("in der Simulation etwas schief gelaufen") kann doch nicht wirklich sein. Es gibt doch sehr frühe Prototypen etc. und selbst wenn es dann schon recht spät ist, nimmt man sich RDNA2 und optimiert das weiter. So kam doch auch Intel zur 98. Generation in 14nm.

Ich verstehe es einfach nicht :D
 
Danke @Wolfgang für den Test.

Ganz spannend wäre noch die Takterhöhungen für GPU und VRAM einmal getrennt zu benchen.

Meine 7900 XTX reagiert auf höheren Speichertakt samt Fast Timings viel mehr (und natürlich effizienter..) als auf mehr GPU Takt. Ich denke daher auch, dass hier ein Großteil der gemessenen Mehrleistung von rund 10% auf die Kappe des VRAM geht.

Die größte Baustelle von RDNA3 ist aktuell sowieso die Auslastung der dual issue Einheiten. Selbst wenn sich AMD Stock 300 MHz mehr Chiptakt erhofft hat, dürfte die schlechte Auslastung viel mehr Leistung kosten. Hier habe ich aber die Hoffnung auf kleinere Leistungssteigerungen mit künftigen Treibern noch nicht ganz aufgegeben.
 
  • Gefällt mir
Reaktionen: public_agent und HierGibtsNichts
DerRico schrieb:
maximale Leistung erreicht man bei GPU und CPU schon seit vielen Generationen durch Optimieren von Spannung und nicht nur mehr Watt. Das weiss auch eigentlich jeder, der zu Hause tunt.
Du weiß aber schon dass sich Watt aus Spannung und Stromstärke ergibt? Sobald Du an der Spannung was änderst, ändert sich auch das Watt. Mehr Spannung = mehr Watt, bei gleichbleibende Stromstärke.
 
Zuletzt bearbeitet:
Zer0Strat schrieb:
HWiNFO hat sogar den effektiven Shader Takt.
Weiß eigentlich jemand, was diese "effektiven" Takte bei HWInfo sein sollen? Mir ist das zumindest nicht wirklich klar.
 
rumpeLson schrieb:
Danke @Wolfgang für den Test.

Ganz spannend wäre noch die Takterhöhungen für GPU und VRAM einmal getrennt zu benchen.

Meine 7900 XTX reagiert auf höheren Speichertakt samt Fast Timings viel mehr (und natürlich effizienter..) als auf mehr GPU Takt. Ich denke daher auch, dass hier ein Großteil der gemessenen Mehrleistung von rund 10% auf die Kappe des VRAM geht.
Kann es vielleicht sein, dass das bei dir schlicht daher ist, da der GPU-Takt quasi eh unverändert bleibt. Das passiert meiner Erfahrung bei Navi 31 schnell, eben da die GPU für noch mehr Takt wer weiß wie viel Watt benötigen würde, was dann das Power Limit sprengen würde (weil der da eh schon im Limit hängt). Bei dem Referenzdesign ist das zum Beispiel ganz extrem.
 
  • Gefällt mir
Reaktionen: Capt. Gummibaum
Können wir mal über Rohleistung und Realleistung sprechen? AMD dürfte mit 3Ghz deutlich vorne liegen.

Wieso kommt das nicht auf der Straße an?
Ja das Thema mit Nvidia optimiert ist sicherlich ein Punkt, das würde ich aber unsachlich nicht weiter ausbreiten.

In einem anderen Artikel gab es ja Einblicke über den Compiler und Co von AMD und eine erfahrene Person hat im Forum aucb über 32 und 64 Waves gesprochen?

Mich würde hier echt mal interessieren ob AMD sich selber schwer tut den Treiber zu konstruieren oder ob es ein ewiges hinterher rennen unpassender Engines oder Spiele Entwicklungen ist.
Bei letzterem kann man ggf. Nvidia die Mitschuld geben, aber auch dann interessiert es mich ob es explizite Gründe für die Entwickler gibt oder ob es Bequemlichkeit ist ( einfachere Adressierung bei Nvidia zb).
 
CrustiCroc schrieb:
Die Effizienz bei RDNA3 ist OotB schon schlecht, aber OC sprengt das echt ins lächerliche.
Das stimmt ja so ganz nicht und dieser "Test" bestärkt natürlich solche Aussagen, weil er einfach nicht klug angelegt ist.

Behauptet wird in der Überschrift fälschlicherweise "maximale Taktraten im Duell". Die würde man aber bei RDNA3 mit OC UND UV erreichen. Hier wird einfach Strom gegeben, bis die Karte zumacht. Das sagt ziemlich wenig aus, weil hier einfach die Eigenschaften der GPU ignoriert werden (vgl. verlinkte Tests von HWL oder Techpowerup mit UV und besseren Ergebnissen).

RDNA3 ist 50% effizienter als die NV-Spitze der letzten Generation und 20% im Vergleich zum eigenen Vorgänger. Im Vergleich zum riesigen Sprung den NV mit der 4080 und 4090 gemacht hat ist das enttäuschend, ja. Aber es ist eben nicht per se "schlecht", sonst müssten ja alle ihre 3090er/tis verbrennen, die bei Strom geben ohne UV noch viiiiiel mehr verbrennen ohne mehr Leistung zu bringen. Macht aber eben niemand - also weder die 90ti einfach hirnlos auf 500+ Watt drehen ohne ausgeklügelte Spannungskurve, noch deswegen die Karte verbrennen :-)

Und "lächerlich" wird es nur, wenn man hirnlos Strom gibt bis zum Maximum.

Ist wie beim Turbomotor einfach die Einspritzmenge zu erhöhen, statt andere Parameter wie Ladedruck, und Kühlung anzupassen. Wird dann auch ein bisschen stärker der Motor aber um den Preis kranken Verbrauchs. Kann man machen, macht aber niemand, der vorher nachdenkt ;-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: public_agent, danyundsahne, Perdakles und eine weitere Person
Zurück
Oben