News OC auf 3,4 GHz: Radeon RX 7900 XTX jagt mit 700 Watt die RTX 4090

Immer wieder erstaunlich was für grandiose Arbeit TSMC abliefert.
 
  • Gefällt mir
Reaktionen: Recharging
Un das alles ohne 12+4Pin Anschluss
 
Ich vermute einmal AMD hat nur mit AD103 gerechnet, nicht jedoch mit AD102.

Gegen AD103 hätte man zumindest eine 550W Rakete gezündet wo man die 4080 in Rasterizing deutlich geschlagen hätte und in RT zumindest aufschließen hätte können.

Gegen Full AD102 hätte man aber sowieso keine Chance gehabt also war es die richtige Entscheidung sich gleich an der 4080 zu orientieren.
Man darf bei der ganzen Sache nicht vergessen: Extreme TDP Werte machen sich nicht nur auf der Stromrechnung bemerkbar sondern auch durch erhöhte Kosten für Kühler, VRMs etc. und man schafft sich eine Menge Inkompatibilitäten mit Gehäusen und Netzteilen.

Man kann sich jetzt die Frage stellen warum Navi31 so eine Wattschleuder geworden ist. Ich würde ausschließen, dass das einfach so "passiert" ist. AMD hat gezielt darauf optimiert möglichst wenige 5nm Kapazitäten zu belegen und das mit der Verlustleistung ist ja nur bei Navi31 ein Problem.

Interessant ist, dass Navi33 trotz 6nm Fertigung von der TDP Skalierung auf einer Ebene mit AD106 ist. Also entweder liegt das Problem am Custom 5nm Prozess oder es ist in der Tat ein Chipletproblem. 5TB/s Bandbreite zwischen GCD und MCDs von Die zu Die zu schaffen ist sicher nicht ganz gratis.
 
  • Gefällt mir
Reaktionen: Sensei21 und Rockstar85
Supie schrieb:
Ich denke es war nicht die Intention des Testes, aber irgendwie ist es schon Quintessenz....
naja, ab nem gewissen Takt/Spannungsverhältnis wird nunmal alles ineffizient ;)
Das ist hier ja auch kein realistisches OC. Unten rum wo die 7000er Karten jetzt platziert sind, sind die ja nicht schlecht von der Effizienz her. Nvidia ist da klar besser, aber nicht in dem Ausmaß, wie man es in der Vergangenheit teilweise hatte, dass ein Hersteller hoffnungslos unterlegen war.
Ergänzung ()

Oldtimer schrieb:
Was für ein Blödsinn!
Solch hohe Leistungsaufnahme bei DEN Strompreisen, die zurzeit genommen werden...
Bin ich im falschen Film oder so?
anscheinend bist du das. Weil: Was hat dein Kommentar mit einem extrem OC-Test zu tun?
 
  • Gefällt mir
Reaktionen: Obvision, Rock Lee und steve127
RayZen schrieb:
Es sind die besten Karten. Fine Wine.
Aber erst zwei Generationen später und dann hat man eh schon neue Karten im Rechner. Bei Nvidia bekommt man von Anfang an wofür man bezahlt hat.
 
GERmaximus schrieb:
Zum Glück ist die so nicht gekommen, sonst hätte ich mich zwischen einer 4090 und xtx7900 schwer getan.
Warum? Die 4090 ist und bleibt die durch und durch bessere Karte. Nur wegen dem Preis? Meh.
 
  • Gefällt mir
Reaktionen: Shinigami1
Daran kann man sehen das rdna3 ein Fehler in den mcd hat
Daher nehme ich an das Amd rdna3 refreshen wird
 
Mit dem Auffinden der OC-Unstimmigkeiten im 7900XT(X) Test auf CB und der gleichzeitigen Abstinenz von Navi 32 und 33 Karten seit fast einem halben Jahr, fällt es mir schwer zu glauben, dass AMD einfach nur Nvidias Arroganz im Umgang mit der Mittelklasse kopiert. Man hätte hier wunderbar neue Kunden fast ohne Konkurrenz gewinnen können. Ich gehe auch stark davon aus, dass AMD im Hintergrund beschäftigt war die Architektur zu verbessern.
Möglicherweise ist es aber auch nur Wunschdenken.
 
  • Gefällt mir
Reaktionen: Rockstar85 und M11E
Irre was das an Strom in wärme umgewandelt wird. Zum vergleich, mein Heitzlüfter hat 1000 Watt . Man muss sich das mal auf der Zunge zergehen lassen.
 
  • Gefällt mir
Reaktionen: Klever
syfsyn schrieb:
Daran kann man sehen das rdna3 ein Fehler in den mcd hat
Daher nehme ich an das Amd rdna3 refreshen wird
welcher Fehler? Denke nicht, dass man das "fixen" kann, wenn die Architektur schlicht falsch entwickelt wurde
 
  • Gefällt mir
Reaktionen: cbmik
HyperSnap schrieb:
Also pustet man dann 700W da rein und erhält die Leistung die eine 4090 mit 350W schon erzielt?^^
Erinnert mich irgendwie an Raja, 2 RX 480 im Crossfire sind so schnell wie eine GTX 1080 :daumen:
 
  • Gefällt mir
Reaktionen: Klever
wenn der letzte absatz so stimmen sollte, hat man bei amd wohl eher die konkurrenz als die wünsche der kunden im blick...also eher leistung um jeden preis als mehr effiziens...den strom und die übergroßen kühl-lösungen können ja die kunden zahlen...
 
Der Fehler liegt am interposer dieser verursacht eine abnormale energiebedarf (widerstand)
Was direkt in wärme umgeht und in abnormalen Verbräuchen führt was den Takt auf etwa 2,4-2,7ghz limitiert
darum kommt auch kein n32 heraus bis das gefixt wird. Daher nehme ich ja an das man die ganze serie neu auflegen wird aber nicht zur computex
es wird definitiv nur die rx7600/xt geben
 
  • Gefällt mir
Reaktionen: MasterAK, Logian und Shadow86
HyperSnap schrieb:
Also pustet man dann 700W da rein und erhält die Leistung die eine 4090 mit 350W schon erzielt?^^
Eher 4090 @ 320 W und auch nur im Raster. Bei Raytracing sieht die XTX auch mit diesem abartigen Stromverbrauch nach wie vor keine Sonne.
 
  • Gefällt mir
Reaktionen: Klever und Shinigami1
Nix wird hier gefixt werden, die nächste Runde ist ein neuer Start und AMD hat gezeigt was sie können (hallo Intel), nur diese Runde war es halt nichts.
 
syfsyn schrieb:
Der Fehler liegt am interposer dieser verursacht eine abnormale energiebedarf (widerstand)
Was direkt in wärme umgeht und in abnormalen Verbräuchen führt was den Takt auf etwa 2,4-2,7ghz limitiert
Hast du dafür irgendwelche Belege oder wie kommst du zu dieser Annahme?
 
Berserkervmax schrieb:
Ein RTX4090 ist trotzdem schnelkler wenn extrem übertaktet

Also was ist jetzt so besonders?
Das ist doch nicht der Punkt von dem Experiment. Sondern dass die Architektur deutlich mehr Takt verträgt als der Default vermuten lässt. Auch war es nur ein Chiller und keine Stickstoffkühlung. Der "Trick" lag im Aufheben des Verbrauchslimit, sodass man die Grenzen des Chips mal richtig austesten kann. Für 24/7 ist das nie gedacht gewesen oder um irgendwelchen 4090-Besitzern was zu beweisen.
syfsyn schrieb:
Der Fehler liegt am interposer dieser verursacht eine abnormale energiebedarf (widerstand)
Was direkt in wärme umgeht und in abnormalen Verbräuchen führt was den Takt auf etwa 2,4-2,7ghz limitiert
Das bezweifle ich sehr stark. In Compute-Anwendungen haben schon zum Launch einige Leute berichtet, dass die Karte dort bis 3,5Ghz boosten kann und das mit <400W. Nach der Logik, dass das am Interposer liegt, würde dieser dann in Spielen 300W verbrauchen und dass ohne direkt gekühlt zu werden. Viel wahrscheinlicher ist, dass Spiele eine deutlich stärkere Last erzeugen, denn auch zwischen den Spielen gibt es starke Unterschiede. So ähnlich wie Prime95 eine CPU viel stärker grillt als Cinebench, auch wenn beides 100% Auslastung anzeigt.

Ich persönlich habe schon zum Release gesagt, dass mit den GPUs etwas nicht stimmt. Der N31-Chip hatte bei den in Spielen üblichen 2,5Ghz eine extrem niedrige Spannung anliegen (~900mV), wo AMD zuvor bei N10 und N21 den Chip immer eher im oberen Bereich der V/F-Kurve betrieben hat, d.h. so um die 1100mV. Zudem ist der Overclocking-Headroom nahezu gigantisch. Warum sollte AMD eine solche GPU entwickeln? Sie hätten die gleiche Leistung doch auch hinbekommen, wenn sie bei 80 CUs geblieben wären und stattdessen den Takt ausgereizt hätten. Genauso sind auch die 384bit mit 20Gbps-Speicher disproportional viel im Verhältnis zur tatsächlichen Mehrleistung von N31 gegenüber N21 (mit nur 256bit und 16Gbps-Speicher). Es deutet alles darauf hin, dass N31 deutlich mehr Leistung hätte erreichen sollen, aber irgendwas ist bei der Entwicklung schief gelaufen und die CUs saufen wie ein Loch. Das macht RDNA3 nicht zu einer Fehlentwicklung, wohl aber zu einer schlechten Implementierung. Zumindest weckt es Hoffnungen, dass der Sprung zu RDNA4 wieder umso größer wird, sofern dort alles nach Plan läuft.
 
  • Gefällt mir
Reaktionen: Sensei21, Rockstar85, Volvo480 und 7 andere
Zurück
Oben