Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News OC auf 3,4 GHz: Radeon RX 7900 XTX jagt mit 700 Watt die RTX 4090
- Ersteller Vitche
- Erstellt am
- Zur News: OC auf 3,4 GHz: Radeon RX 7900 XTX jagt mit 700 Watt die RTX 4090
Innocience
Lieutenant
- Registriert
- Okt. 2020
- Beiträge
- 626
Immer wieder erstaunlich was für grandiose Arbeit TSMC abliefert.
CloudConnected
Commodore
- Registriert
- Mai 2005
- Beiträge
- 4.491
Un das alles ohne 12+4Pin Anschluss
Ich vermute einmal AMD hat nur mit AD103 gerechnet, nicht jedoch mit AD102.
Gegen AD103 hätte man zumindest eine 550W Rakete gezündet wo man die 4080 in Rasterizing deutlich geschlagen hätte und in RT zumindest aufschließen hätte können.
Gegen Full AD102 hätte man aber sowieso keine Chance gehabt also war es die richtige Entscheidung sich gleich an der 4080 zu orientieren.
Man darf bei der ganzen Sache nicht vergessen: Extreme TDP Werte machen sich nicht nur auf der Stromrechnung bemerkbar sondern auch durch erhöhte Kosten für Kühler, VRMs etc. und man schafft sich eine Menge Inkompatibilitäten mit Gehäusen und Netzteilen.
Man kann sich jetzt die Frage stellen warum Navi31 so eine Wattschleuder geworden ist. Ich würde ausschließen, dass das einfach so "passiert" ist. AMD hat gezielt darauf optimiert möglichst wenige 5nm Kapazitäten zu belegen und das mit der Verlustleistung ist ja nur bei Navi31 ein Problem.
Interessant ist, dass Navi33 trotz 6nm Fertigung von der TDP Skalierung auf einer Ebene mit AD106 ist. Also entweder liegt das Problem am Custom 5nm Prozess oder es ist in der Tat ein Chipletproblem. 5TB/s Bandbreite zwischen GCD und MCDs von Die zu Die zu schaffen ist sicher nicht ganz gratis.
Gegen AD103 hätte man zumindest eine 550W Rakete gezündet wo man die 4080 in Rasterizing deutlich geschlagen hätte und in RT zumindest aufschließen hätte können.
Gegen Full AD102 hätte man aber sowieso keine Chance gehabt also war es die richtige Entscheidung sich gleich an der 4080 zu orientieren.
Man darf bei der ganzen Sache nicht vergessen: Extreme TDP Werte machen sich nicht nur auf der Stromrechnung bemerkbar sondern auch durch erhöhte Kosten für Kühler, VRMs etc. und man schafft sich eine Menge Inkompatibilitäten mit Gehäusen und Netzteilen.
Man kann sich jetzt die Frage stellen warum Navi31 so eine Wattschleuder geworden ist. Ich würde ausschließen, dass das einfach so "passiert" ist. AMD hat gezielt darauf optimiert möglichst wenige 5nm Kapazitäten zu belegen und das mit der Verlustleistung ist ja nur bei Navi31 ein Problem.
Interessant ist, dass Navi33 trotz 6nm Fertigung von der TDP Skalierung auf einer Ebene mit AD106 ist. Also entweder liegt das Problem am Custom 5nm Prozess oder es ist in der Tat ein Chipletproblem. 5TB/s Bandbreite zwischen GCD und MCDs von Die zu Die zu schaffen ist sicher nicht ganz gratis.
rg88
Fleet Admiral
- Registriert
- Feb. 2015
- Beiträge
- 35.148
naja, ab nem gewissen Takt/Spannungsverhältnis wird nunmal alles ineffizientSupie schrieb:Ich denke es war nicht die Intention des Testes, aber irgendwie ist es schon Quintessenz....
Das ist hier ja auch kein realistisches OC. Unten rum wo die 7000er Karten jetzt platziert sind, sind die ja nicht schlecht von der Effizienz her. Nvidia ist da klar besser, aber nicht in dem Ausmaß, wie man es in der Vergangenheit teilweise hatte, dass ein Hersteller hoffnungslos unterlegen war.
Ergänzung ()
anscheinend bist du das. Weil: Was hat dein Kommentar mit einem extrem OC-Test zu tun?Oldtimer schrieb:Was für ein Blödsinn!
Solch hohe Leistungsaufnahme bei DEN Strompreisen, die zurzeit genommen werden...
Bin ich im falschen Film oder so?
- Registriert
- Aug. 2012
- Beiträge
- 3.824
Aber erst zwei Generationen später und dann hat man eh schon neue Karten im Rechner. Bei Nvidia bekommt man von Anfang an wofür man bezahlt hat.RayZen schrieb:Es sind die besten Karten. Fine Wine.
Capthowdy
Lt. Commander
- Registriert
- Okt. 2007
- Beiträge
- 1.965
Warum? Die 4090 ist und bleibt die durch und durch bessere Karte. Nur wegen dem Preis? Meh.GERmaximus schrieb:Zum Glück ist die so nicht gekommen, sonst hätte ich mich zwischen einer 4090 und xtx7900 schwer getan.
Mit dem Auffinden der OC-Unstimmigkeiten im 7900XT(X) Test auf CB und der gleichzeitigen Abstinenz von Navi 32 und 33 Karten seit fast einem halben Jahr, fällt es mir schwer zu glauben, dass AMD einfach nur Nvidias Arroganz im Umgang mit der Mittelklasse kopiert. Man hätte hier wunderbar neue Kunden fast ohne Konkurrenz gewinnen können. Ich gehe auch stark davon aus, dass AMD im Hintergrund beschäftigt war die Architektur zu verbessern.
Möglicherweise ist es aber auch nur Wunschdenken.
Möglicherweise ist es aber auch nur Wunschdenken.
rg88
Fleet Admiral
- Registriert
- Feb. 2015
- Beiträge
- 35.148
welcher Fehler? Denke nicht, dass man das "fixen" kann, wenn die Architektur schlicht falsch entwickelt wurdesyfsyn schrieb:Daran kann man sehen das rdna3 ein Fehler in den mcd hat
Daher nehme ich an das Amd rdna3 refreshen wird
Mordhorst3k
Lieutenant
- Registriert
- Juni 2008
- Beiträge
- 627
Erinnert mich irgendwie an Raja, 2 RX 480 im Crossfire sind so schnell wie eine GTX 1080HyperSnap schrieb:Also pustet man dann 700W da rein und erhält die Leistung die eine 4090 mit 350W schon erzielt?^^
Rulf
Ensign
- Registriert
- Feb. 2006
- Beiträge
- 211
wenn der letzte absatz so stimmen sollte, hat man bei amd wohl eher die konkurrenz als die wünsche der kunden im blick...also eher leistung um jeden preis als mehr effiziens...den strom und die übergroßen kühl-lösungen können ja die kunden zahlen...
syfsyn
Admiral
- Registriert
- Nov. 2010
- Beiträge
- 8.216
Der Fehler liegt am interposer dieser verursacht eine abnormale energiebedarf (widerstand)
Was direkt in wärme umgeht und in abnormalen Verbräuchen führt was den Takt auf etwa 2,4-2,7ghz limitiert
darum kommt auch kein n32 heraus bis das gefixt wird. Daher nehme ich ja an das man die ganze serie neu auflegen wird aber nicht zur computex
es wird definitiv nur die rx7600/xt geben
Was direkt in wärme umgeht und in abnormalen Verbräuchen führt was den Takt auf etwa 2,4-2,7ghz limitiert
darum kommt auch kein n32 heraus bis das gefixt wird. Daher nehme ich ja an das man die ganze serie neu auflegen wird aber nicht zur computex
es wird definitiv nur die rx7600/xt geben
Capthowdy
Lt. Commander
- Registriert
- Okt. 2007
- Beiträge
- 1.965
Eher 4090 @ 320 W und auch nur im Raster. Bei Raytracing sieht die XTX auch mit diesem abartigen Stromverbrauch nach wie vor keine Sonne.HyperSnap schrieb:Also pustet man dann 700W da rein und erhält die Leistung die eine 4090 mit 350W schon erzielt?^^
meisterkatzen
Lt. Junior Grade
- Registriert
- Juni 2022
- Beiträge
- 298
Nix wird hier gefixt werden, die nächste Runde ist ein neuer Start und AMD hat gezeigt was sie können (hallo Intel), nur diese Runde war es halt nichts.
rg88
Fleet Admiral
- Registriert
- Feb. 2015
- Beiträge
- 35.148
Hast du dafür irgendwelche Belege oder wie kommst du zu dieser Annahme?syfsyn schrieb:Der Fehler liegt am interposer dieser verursacht eine abnormale energiebedarf (widerstand)
Was direkt in wärme umgeht und in abnormalen Verbräuchen führt was den Takt auf etwa 2,4-2,7ghz limitiert
Also im Moment sind es noch 400-500 Euro Unterschied zwischen der 7900XTX und der RTX 4090Capthowdy schrieb:Nur wegen dem Preis? Meh.
Das ist doch nicht der Punkt von dem Experiment. Sondern dass die Architektur deutlich mehr Takt verträgt als der Default vermuten lässt. Auch war es nur ein Chiller und keine Stickstoffkühlung. Der "Trick" lag im Aufheben des Verbrauchslimit, sodass man die Grenzen des Chips mal richtig austesten kann. Für 24/7 ist das nie gedacht gewesen oder um irgendwelchen 4090-Besitzern was zu beweisen.Berserkervmax schrieb:Ein RTX4090 ist trotzdem schnelkler wenn extrem übertaktet
Also was ist jetzt so besonders?
Das bezweifle ich sehr stark. In Compute-Anwendungen haben schon zum Launch einige Leute berichtet, dass die Karte dort bis 3,5Ghz boosten kann und das mit <400W. Nach der Logik, dass das am Interposer liegt, würde dieser dann in Spielen 300W verbrauchen und dass ohne direkt gekühlt zu werden. Viel wahrscheinlicher ist, dass Spiele eine deutlich stärkere Last erzeugen, denn auch zwischen den Spielen gibt es starke Unterschiede. So ähnlich wie Prime95 eine CPU viel stärker grillt als Cinebench, auch wenn beides 100% Auslastung anzeigt.syfsyn schrieb:Der Fehler liegt am interposer dieser verursacht eine abnormale energiebedarf (widerstand)
Was direkt in wärme umgeht und in abnormalen Verbräuchen führt was den Takt auf etwa 2,4-2,7ghz limitiert
Ich persönlich habe schon zum Release gesagt, dass mit den GPUs etwas nicht stimmt. Der N31-Chip hatte bei den in Spielen üblichen 2,5Ghz eine extrem niedrige Spannung anliegen (~900mV), wo AMD zuvor bei N10 und N21 den Chip immer eher im oberen Bereich der V/F-Kurve betrieben hat, d.h. so um die 1100mV. Zudem ist der Overclocking-Headroom nahezu gigantisch. Warum sollte AMD eine solche GPU entwickeln? Sie hätten die gleiche Leistung doch auch hinbekommen, wenn sie bei 80 CUs geblieben wären und stattdessen den Takt ausgereizt hätten. Genauso sind auch die 384bit mit 20Gbps-Speicher disproportional viel im Verhältnis zur tatsächlichen Mehrleistung von N31 gegenüber N21 (mit nur 256bit und 16Gbps-Speicher). Es deutet alles darauf hin, dass N31 deutlich mehr Leistung hätte erreichen sollen, aber irgendwas ist bei der Entwicklung schief gelaufen und die CUs saufen wie ein Loch. Das macht RDNA3 nicht zu einer Fehlentwicklung, wohl aber zu einer schlechten Implementierung. Zumindest weckt es Hoffnungen, dass der Sprung zu RDNA4 wieder umso größer wird, sofern dort alles nach Plan läuft.
Ähnliche Themen
- Antworten
- 295
- Aufrufe
- 25.806
- Antworten
- 644
- Aufrufe
- 89.109
- Antworten
- 3.747
- Aufrufe
- 346.436
- Antworten
- 1.958
- Aufrufe
- 220.036
R
- Antworten
- 67
- Aufrufe
- 12.573