Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test7900 XTX OC vs. RTX 4080 OC: RDNA 3 und Ada Lovelace mit maximalen Taktraten im Duell
Meinst du die Vapor-Chamber problematik? Davon sind ja nicht alle betroffen.
Und das hat ja nichts mit dem takt direkt zu tun sondern mit der Temperatur.
Persönlich fände ich den Test "Wie weit kann ich undervolten ohne Leistung zu verlieren" die viel spannendere Disziplin. Verga64 hat mich dazu erzogen meine Grafikkarten so zu betreiben, aber daran hat sich auch mit einer 4090 nichts geändert. Meine kann ich mit maximal 350W statt 450W bei gleichem Takt und Leistung betreiben.
Ich glaube das ist eine andere Frage. Ich fand den Test ganz interessant, um die Architektur näher zu beleuchten. Wie ich in meinem gerade abgeschickten Beispiel schrieb, laufen die RDNA3-Karten im totalen Gegensatz zu RDNA1+2 schon ab Werk mit geringer Spannung und der hohe Verbrauch ist eine Eigenschaft der Architektur. Ich halte es für unwahrscheinlich, dass RDNA3 durch UV so viel rausholt wie RDNA2 oder Ada.
Für mich ist das ehrlich gesagt kein gutes Zeichen. Es gab zur Präsentation Gerüchte um einen Design-Bug, der höhere Taktraten bei den Karten verhindert. Da wurde aber eher spekuliert, dass irgendwo ein kritischer Pfad im Design übersehen würde, der hohe Taktraten einfach komplett killt. Spätestens jetzt weiß man, dass das überhaupt nicht der Fall ist. Taktmäßig geht RDNA3 ab wie Schmitz' Katze, aber offensichtlich hat es zu viele Transistoren oder irgendwelche krassen Leckströme o.ä. die einfach den Verbrauch eskalieren lassen - bei jedem Takt. Man darf nicht vergessen, dass N31 mehr als doppelt so viele Transitoren hat wie N21 bei gerade mal 20% mehr CUs und sogar etwas weniger IF$ (die 128MB haben bei N21 schon bestimmt 1/4 der Gesamttransistoren ausgemacht!). Entweder lässt sich das noch fixen bei späteren Chipsm z.B. N32 für die 7800er Serie bzw. einem N31-Refresh. Oder das Design ist einfach ein Fail, so wie Vega und wir müssen 2 Jahre warten bis AMD bei der Effizienz wieder Land sieht. Ada ist out of the box schon effizienter und das obwohl die Chips taktmäßig schon am Anschlag laufen (die 4080 erreicht ihr PPT in Spielen nicht mal!). Mit UV ziehen die imho völlig davon.
Ändert nichts an der nachteiligen und beabsichtigten "Unterausstattung" an Vram bei den kleineren Nvidia Karten. Das gleicht auch ein besseres Speichermanagement nicht vollkommen aus.
Es zeigt sich weiter das Bild: RX 7000 ist auf dem Papier enorm vielversprechend, performt in der Praxis aber viel zu schlecht - und den Grund scheint noch nicht einmal AMD zu 100% zu kennen.
Der Grund ist das Chipletdesign und das sich noch einiges via Treiber verbessern lässt hat der CB Test vom 22.12.2 gezeigt. Nicht umsonst haben die RX7000 eigene Treiber. AMD war schlicht etwas zu früh dran mit dem Release und es fehlen Optimierungen, das kann man ihnen vorwerfen.
Im Test wurden 3,5Ghz erreicht und du redest jetzt von 3,3ghz... wie gesagt, das sind einfach zwei verschiedene Themen! 3,5Ghz ist die absolute grenze dieser Karte gewesen. Gehst du DANN noch mit der Spannung runter wirds schwierig diese Taktrate wieder zu erreichen - über Sinn und Unsinn wird hier ja nicht gesprochen.
Beides tolle Karten (im Schnitt 50% mehr FPS, als meine 3080). Allerdings muss der Aufrüstdruck zu den Preisen erst noch deutlich steigen. Ich hoffe, Intel ist noch mit im Spiel und will kräftig aufholen.
Mal gespannt: Dieses Jahr kommen einige schicke Spiele für PS5 und OneX heraus, die nicht mehr auf der letzten Generation laufen müssen. Dadurch werden die Mindestanforderungen der PC-Versionen auch weiter steigen.
Haste Recht. So lernen wir nur, dass stumpfes Regler ziehen irgendwann nichts mehr bringt. Interessant irgendwie, aber welcher Tuner will das wissen? Lerneffekt und Aussagekraft 0.
Maximale Leistung erreicht man bei GPU und CPU schon seit vielen Generationen durch Optimieren von Spannung und nicht nur mehr Watt. Das weiss auch eigentlich jeder, der zu Hause tunt.
Schwache Leistung leider und hilft der Diskussion um die 7900er nicht weiter - schade.
Schade für AMD. Die 6900 XTXH hat gute Dienste geleistet aber so ist es eben eine 4090 geworden.
Wer den Spott hat muss...naja klar was jetzt kommt: testet AMD nicht nur die Qualität des Kühldesigns beim Kunden sondern das ganze Design des Chips? Ich habe wirklich NULL Ahnung von Chipdesign aber so wie es hier beschrieben ist ("in der Simulation etwas schief gelaufen") kann doch nicht wirklich sein. Es gibt doch sehr frühe Prototypen etc. und selbst wenn es dann schon recht spät ist, nimmt man sich RDNA2 und optimiert das weiter. So kam doch auch Intel zur 98. Generation in 14nm.
Ganz spannend wäre noch die Takterhöhungen für GPU und VRAM einmal getrennt zu benchen.
Meine 7900 XTX reagiert auf höheren Speichertakt samt Fast Timings viel mehr (und natürlich effizienter..) als auf mehr GPU Takt. Ich denke daher auch, dass hier ein Großteil der gemessenen Mehrleistung von rund 10% auf die Kappe des VRAM geht.
Die größte Baustelle von RDNA3 ist aktuell sowieso die Auslastung der dual issue Einheiten. Selbst wenn sich AMD Stock 300 MHz mehr Chiptakt erhofft hat, dürfte die schlechte Auslastung viel mehr Leistung kosten. Hier habe ich aber die Hoffnung auf kleinere Leistungssteigerungen mit künftigen Treibern noch nicht ganz aufgegeben.
maximale Leistung erreicht man bei GPU und CPU schon seit vielen Generationen durch Optimieren von Spannung und nicht nur mehr Watt. Das weiss auch eigentlich jeder, der zu Hause tunt.
Du weiß aber schon dass sich Watt aus Spannung und Stromstärke ergibt? Sobald Du an der Spannung was änderst, ändert sich auch das Watt. Mehr Spannung = mehr Watt, bei gleichbleibende Stromstärke.
Ganz spannend wäre noch die Takterhöhungen für GPU und VRAM einmal getrennt zu benchen.
Meine 7900 XTX reagiert auf höheren Speichertakt samt Fast Timings viel mehr (und natürlich effizienter..) als auf mehr GPU Takt. Ich denke daher auch, dass hier ein Großteil der gemessenen Mehrleistung von rund 10% auf die Kappe des VRAM geht.
Kann es vielleicht sein, dass das bei dir schlicht daher ist, da der GPU-Takt quasi eh unverändert bleibt. Das passiert meiner Erfahrung bei Navi 31 schnell, eben da die GPU für noch mehr Takt wer weiß wie viel Watt benötigen würde, was dann das Power Limit sprengen würde (weil der da eh schon im Limit hängt). Bei dem Referenzdesign ist das zum Beispiel ganz extrem.
Können wir mal über Rohleistung und Realleistung sprechen? AMD dürfte mit 3Ghz deutlich vorne liegen.
Wieso kommt das nicht auf der Straße an?
Ja das Thema mit Nvidia optimiert ist sicherlich ein Punkt, das würde ich aber unsachlich nicht weiter ausbreiten.
In einem anderen Artikel gab es ja Einblicke über den Compiler und Co von AMD und eine erfahrene Person hat im Forum aucb über 32 und 64 Waves gesprochen?
Mich würde hier echt mal interessieren ob AMD sich selber schwer tut den Treiber zu konstruieren oder ob es ein ewiges hinterher rennen unpassender Engines oder Spiele Entwicklungen ist.
Bei letzterem kann man ggf. Nvidia die Mitschuld geben, aber auch dann interessiert es mich ob es explizite Gründe für die Entwickler gibt oder ob es Bequemlichkeit ist ( einfachere Adressierung bei Nvidia zb).
Das stimmt ja so ganz nicht und dieser "Test" bestärkt natürlich solche Aussagen, weil er einfach nicht klug angelegt ist.
Behauptet wird in der Überschrift fälschlicherweise "maximale Taktraten im Duell". Die würde man aber bei RDNA3 mit OC UND UV erreichen. Hier wird einfach Strom gegeben, bis die Karte zumacht. Das sagt ziemlich wenig aus, weil hier einfach die Eigenschaften der GPU ignoriert werden (vgl. verlinkte Tests von HWL oder Techpowerup mit UV und besseren Ergebnissen).
RDNA3 ist 50% effizienter als die NV-Spitze der letzten Generation und 20% im Vergleich zum eigenen Vorgänger. Im Vergleich zum riesigen Sprung den NV mit der 4080 und 4090 gemacht hat ist das enttäuschend, ja. Aber es ist eben nicht per se "schlecht", sonst müssten ja alle ihre 3090er/tis verbrennen, die bei Strom geben ohne UV noch viiiiiel mehr verbrennen ohne mehr Leistung zu bringen. Macht aber eben niemand - also weder die 90ti einfach hirnlos auf 500+ Watt drehen ohne ausgeklügelte Spannungskurve, noch deswegen die Karte verbrennen :-)
Und "lächerlich" wird es nur, wenn man hirnlos Strom gibt bis zum Maximum.
Ist wie beim Turbomotor einfach die Einspritzmenge zu erhöhen, statt andere Parameter wie Ladedruck, und Kühlung anzupassen. Wird dann auch ein bisschen stärker der Motor aber um den Preis kranken Verbrauchs. Kann man machen, macht aber niemand, der vorher nachdenkt ;-)