News OC auf 3,4 GHz: Radeon RX 7900 XTX jagt mit 700 Watt die RTX 4090

Majestro1337 schrieb:
wird immer sein ein konkurrenzfähiges Produkt abzuliefern

Das Produkt, von dem wir hier reden, sollte für nahezu den doppelten Preis über den Ladentisch gehen, als man es damals geplant hat.

Es gab viele Faktoren, die unschön waren. Alles kann man dem Problembär aus Moskau aber auch nicht in die Schuhe schieben und die Idioten mit ihren Cryptos, hätten auch noch 1-2 Jahre durchhalten können, mit ihrem Hype.

Shit happens.

Auf jeden Fall ist die 7900 XTX so weit weg von Konkurrenzfähig zur 4090, dass es allen weh tut. Außer Nvidia Fanboys. Die feiern dass.

mfg
 
GERmaximus schrieb:
Zum Glück ist die so nicht gekommen, sonst hätte ich mich zwischen einer 4090 und xtx7900 schwer getan.


Warum? Warum Das produkt kaufen, das bei gleicher Leistung Hunderte mehr Watt zieht?
 
Wenn ich sehe was meine RX5700XT mit 185W schon an Abwärme hinten aus dem Gehäuse blasen lässt sind 200-250W für eine GPU das maximum, dass ich mir vorstellen kann einzubauen.
Rein technisch lesen sich die 3400MHZ aber für ne GPU schon geil, wenn man den Verbrauch nicht betrachtet.
Bin mal gespannt was an den Gerüchten für Battlemage dran ist mit doppelten Cores, denn dort ist ja auch der Verbrauch aktuell das grösste Problem.
 
LGTT1 schrieb:
Vielleicht, hätte AMD doch den N4 Prozess von TSMC nehmen sollen zumindest für die Topmodelle. Irgendwie scheint die finanzielle Einsparung nicht die technischen Nachteile auszugleichen. NVIDIA hat halt einen vermutlich relativ Energiehungrigen 8nm Prozess gegen einen 4nm Prozess und gleichzeitig neuer Architektur getauscht.
Erstens ist N4 nur ein leicht getunter N5, der nichts gegen die imho offensichtlichen Implementierungsfehler von RDNA3 ausrichten kann. Diese müssten im Design gefixt werden. Zweitens ist soweit ich weiß gar nicht klar, ob Nvidias "4N"-Prozess überhaupt wirklich 4nm ist oder nur ein umbenannter 5nm-Prozess.
theGucky schrieb:
Aber AMD liegt trotzdem in RT hinten. :D
Meine 4090 bei unter 300W macht mehr Punkte in Port Royale oder Speedway.
Aber bei Timespy müsste meine 4090 schon Stock sein um die selben Punkte zu bekommen...
Wie du selbst schreibst, ist das eine reine Machbarkeitsstudie und kein Versuch den N31 effizient zu bekommen oder irgendeine Leistungskrone zu bekommen. Ich verstehe nicht, warum viele Poster das annehmen. Wenn ein der8auer o.ä. ein Video posten, wo sie die neueste Intel-CPU mit Stickstoff auf x Ghz übertaktet haben, schreibt ja auch keiner "Was für ein Quatsch, viel zu ineffizienz im Alltagsbetrieb, in Spiel xy immer noch langsamer als der Ryzen XYZ 3D, etc.". Dass die 4090 in RT immer noch schneller ist, ist völlig logisch, denn wie soll man einen Vorsprung von 60% aufholen, wenn man nur den GPU-Takt erhöht und "nur" um 40%?
 
  • Gefällt mir
Reaktionen: SDJ
TeHaR schrieb:
...verstehe ich nicht warum AMD die 7900 XTX mit 350W auf dem Markt gebracht hat. 450W wären ja auch möglich gewesen. Dann hätte man sich auch strategisch besser zwischen 4090 und 4080 platziert.

Das haette wenig gebracht, da nViida jeder Zeit eine massgeschneiderte RTX 4080Ti heraus bringen haette koennen, die die RTX 7900XTX in Sachen Effizienz (fuer vergleichbare Leistung) trotzdem haette alt aussehen lassen ;).

Diese "Dreiviertelgeneration" (RDNA3) mutet irgendwie an wie ein Zwischending zwischen der RDNA1 Halbgeneration (maximal bis RX 5700XT) und der Vollgeneration RDNA2 (auf Augenhoehe mit den nVidia Ampere Karten, alle Leistungsklassen besetzend).

Es bleibt abzuwarten wie RDNA4 gelingen wird und ob dann wieder eine Vollgeneration zu erwarten sein wird, denn es muss sich ja auch fuer AMD/RTG am Ende rechnen.


Mein Fazit bleibt das gleiche, dass die jetzigen Generationen (von AMD/RTG und nVidia) nicht wirklich lohnend sind (fuer einen Einstieg), ergo warten auf RDNA 4 und RTX 5000er Grafikkarten voraussichtlich irgendwann im Spaetherbst bis Winter 2024 (fuer die ersten Enthusiasten-/Luxusklassekarten).
 
[wege]mini schrieb:
Die Teile wären mit halber Stromaufnahme super geil. Leider hat das nicht geklappt und wo die Probleme liegen, hat man ganz sicher mittlerweile bei AMD evaluiert.

RDNA4 könnte extrem gut werden, wenn die Effizienz verbessert wird. Das ist in meinen Augen auch AMDs beste Chance, weil softwareseitig weitere Baustellen warten. Ich mag die RDNA2 Karten inzwischen sehr gerne, bin es aber leid, dauernd im Treiber fummeln zu müssen, damit alles so funzt wie es soll.
Da bleibt dann eigentlich nur übrig, Nvidia im Bereich Stromaufnahme zu schlagen und den Karten ein realistisches UV/OC-Potenzial zu geben. Denn solche Experimente wie dieses hier sind auch für Enthusiasten schwer nachzuvollziehen.
 
  • Gefällt mir
Reaktionen: [wege]mini
Zeigt zumindest Ansatzpunkte wie es bei RDNA4 besser laufen kann. Man hat sich auf Chiplets gewagt und ist erstmal gehörig hingefallen. Mal sehen wie es hier weiter geht.

Technisch gesehen muss nvidia im High end auch früher oder später weg von den Riesen Monolithen, bin gespannt wie die mit den längeren wegen umgehen.
 
  • Gefällt mir
Reaktionen: [wege]mini
GERmaximus schrieb:
Zum Glück ist die so nicht gekommen, sonst hätte ich mich zwischen einer 4090 und xtx7900 schwer getan.

Aber ernsthaft, das schreit nach einem amd refresh. Es war ja mal die Rede von einem hardware bug im Bezug auf den Takt.
Da nützt der Refresh auch nix, das kann nur eine neue angepasste Architektur ändern. Mal ehrlich wenn AMD glaubt die Leute bauen sich GPU's mit 600 Watt in den Rechner, dann fehlt bei den echt was. Da braucht man im Sommer gleich noch ne Klimaanlage die die Hitze wieder raus bringt.
Bei mir unterm Dach sind 250 Watt das Maximum. Zur Zeit läuft noch eine gtx 1070 mit 150 Watt, das finde ich schon immer warm unterm Tisch.
 
theGucky schrieb:
Und was den Preis angeht, wie kommst du auf die Hälfte? Der Startpreis einer 1080 war 599$ ohne Steuer. Hier hat z.b. die 100$ teurere 1080 Founders in Europa ~789€ gekostet. Dazu kommt noch >10% Inflation zu heute.
Damit wäre die 4070TiFE bei dem selben Preis wie damals die 1080FE!!!

UVPs sind idR nicht relevant weil der Marktpreis immer ein anderer ist. Eine Ausnahme gab es gerade bei GPUs zu Zeiten als der Scalper-Wahnsinn um sich griff...
Die 1080 gab es in brauchbaren Versionen (sprich, guter Kühlung) für um die 500€. Die nVidia-eigenen Karten waren damals nicht relevant weil die Kühler unterdimensioniert waren. Aber als Quelle für unter Wasser passende PCBs waren sie sehr gut geeignet.

Was ich als midrange definiere sind Karten, die im Augenblick sehr gute Leistungen für das Geld bieten, aber aufgrund der benötigten Einschnitte um den Preis zu erreichen und der Marktpositionierung schon beim Kauf die Limitationen erkennbar sind wegen denen man in 1-2 Jahren die Regler eben nicht mehr so weit aufschieben kann.
Und da hast Du Recht, da habe ich einen Fehler gemacht: anders als die 4070Ti war die 1080 nämlich nicht derart beschnitten, die 1080 hat abgesehen von RTX auch viele Jahre nach ihrem launch noch wunderbar funktioniert, wobei die 12GB Speicher samt SI der 4070Ti bei den derzeit beworbenen Funktionen - RT in WQHD - schon jetzt Grenzen aufzeigen. Aber das muss ich nicht ausführen, darüber gibt es zur Genüge Fachartikel.

Die 4070Ti hat ziemlich exakt den Stromverbrauch, Speicherbandbreite und Speicher eines GP102 - der wurde allerdings noch in 16nm gefertigt. Ist jetzt auch schon sieben Jahre her...
Die 471 mm² sind nun auch ziemlich genau das Vierfache der 121mm² eines AD104.
Wenn man ein Cluster deaktiviert beim GP102, hat man eine 1080Ti. Die hatte einen release-Preis von 699$.
Der AD104 hat eine UVP von 799$.
Das hat nichts mit Inflation zu tun.

Du hast beim AD104 natürlich Pi mal Daumen die doppelte Leistung. Aber, Architektur hin und her... der AD104 fährt auch die doppelte Taktrate.
Natürlich ist die Fertigung in einem modernen Prozess teurer. Aber die verwendete wafer-Fläche eben auch nur ein Viertel. Darüber hinaus ermöglicht der um Welten modernere Prozess höhere Taktraten - anders als es sein sollte aber auch mit mehr Stromverbrauch.
Abgesehen von RTX und Tensor, liegt die Weiterentwicklung seitens nVidia primär auf der Softwareseite.
In Hardware ist Ada was die klassische GPU anbelangt, eine Enttäuschung. Weil einfach der Prozess siegt - nicht die Architektur.
nVidia verkauft das anders, nVidia verkauft nämlich mittlerweile Software wie DLSS.

Rein vom Chip her ist der AD104 eher vergleichbar mit einer GTX 1060. Die 1080 mit einer 4080. Und da haben wir dann die doppelten Preise...
 
[wege]mini schrieb:
Auf jeden Fall ist die 7900 XTX so weit weg von Konkurrenzfähig zur 4090, dass es allen weh tut. Außer Nvidia Fanboys. Die feiern dass.

mfg

Also wäre nicht der Teillastverbrauch und ne hätte ich noch ne Karte aus der RTX 2000 / RDNA1 gen hätte ich die schon gekauft. Die anderen Nachteile treffen mich nicht besonders hart. Aber vielleicht bin ich auch ne Ausnahme. Hoffen wir einfach dass die nächste Generation besser wird und leben bis dahin mit dem was wir haben. Mehr Zeit zum Spielen wenn ich keine Karte tweaken muss :P
 
  • Gefällt mir
Reaktionen: [wege]mini
Majestro1337 schrieb:
Was mir aber am sauersten aufstößt ist die Leistungsaufnahme bei Teillast
so verschieden sind die Empfindungen.
Was mir am sauersten aufstößt ist die Preisentwicklung die immer weiter steigt und das ist egal ob "rotes" oder "grünes" Lager 🙂
 
  • Gefällt mir
Reaktionen: McLovin14
TenDance schrieb:
Nein, 600W für Highend seh ich nicht als Problem an.

600 Watt sehe ich als deutliches Problem an, wenn Nvidia auch 4k + Raytracing + Ultra Details + 100Frames+ mit 250 Watt ablieferen kann.

Abgesehen kommen bezahlen wir dann den gesparten Preis über die Stromrechnung in Raten und brauchen im Sommer eine Klimaanlage.
 
  • Gefällt mir
Reaktionen: cookie_dent
Jagt 4090.....Realität: nur noch 9% Marktanteil :daumen:
 
  • Gefällt mir
Reaktionen: Botcruscher
Ayo34 schrieb:
600 Watt sehe ich als deutliches Problem an, wenn Nvidia auch 4k + Raytracing + Ultra Details + 100Frames+ mit 250 Watt ablieferen kann.
Ich eben auch, die heutigen Zeiten stehen eben auf Effizienz und Energiesparen.
Ich kaufe mir keinen Wärmepumtentrockner, Effizienzklasse B Kühlschrank und wechsle komlett auf LED Lämpchen (usw.) um anschließend den eingesparten Stom wieder mit meinem PC zu verblasen.
Ayo34 schrieb:
Abgesehen kommen bezahlen wir dann den gesparten Preis über die Stromrechnung in Raten und brauchen im Sommer eine Klimaanlage.
Das kommt noch dazu, ne 600 Watt Zusatzheizung in meiner DG Wohnung kann ich im Sommer nicht gebrauchen. 250-300 Watt sind schon Kotzgrenze. Ist ja nicht so das nur die Grafikkarte Wärme erzeugt.

Ich hoffe inständig das AMD das Effizienzproblem mit den nächsten Generationen in den Griff bekommt.
 
Chilisidian schrieb:
Naja die 4090 ist auch bei 300W schon spitze. Ein bisschen UV macht die Karte doch erst richtig interessant. 250W im Schnitt bei 90% Leistung.

Und nem kühler der auf 650W spezifiziert ist xP.
 
Also ich bin soweit zurfrieden mit meiner 7900XTX. Alternative wäre die 4080 gewesen aber nein Danke. Klar verballert die viel Strom beim zocken aber das hat meine 3090 vorher auch. so what.
 
GERmaximus schrieb:
Es sind 600-700€ Unterschied zwischen der 7900xtx und der 4090.
da kann man sehr lange für zocken und mehr verbrauchen.
Um die 700W wegzukühlen geht ja mehr für die Kühlung drauf als für die Karte
 
Coeckchen schrieb:
Und nem kühler der auf 650W spezifiziert ist xP.
Was ich perfekt finde.
Niedrige Temperaturen, niedrige Lüfterdrehzahlen, kein Umbau auf Morpheus, Wasser o.ä. - ich hatte noch nie so eine kühle und leise Grafikkarte, einfach nur Herrlich :)
 
  • Gefällt mir
Reaktionen: Coeckchen
Ayo34 schrieb:
600 Watt sehe ich als deutliches Problem an, wenn Nvidia auch 4k + Raytracing + Ultra Details + 100Frames+ mit 250 Watt ablieferen kann.

Abgesehen kommen bezahlen wir dann den gesparten Preis über die Stromrechnung in Raten und brauchen im Sommer eine Klimaanlage.
Lasst doch mal die Kirche im Dorf.
Eine 4090 ist mit 450W spezifiziert.
Ja, lass das mit UV bei 400W sein, dann sind 600W natürlich 50% mehr.

Aber Stromkosten? 200W bedeutet, Du hast alle fünf Stunden eine kWh mehr verbraucht.
Du zockst 5h/Tag? 7 Tage die Woche? 52 Wochen im Jahr?
Sagen wir mal die kWh kostet ~40 Cent, was mehr ist als die meisten Menschen in Deutschland zahlen sollten.
Dann sind das pro Tag 40Cent Stromkosten.
In einem Jahr 146€.
Die 4090 kostet 650€ mehr.
Sprich, Du kannst 4 Jahre zocken und bist immer noch günstiger.
Aber ganz ehrlich, wer das Geld für eine 4090 hat und jeden Tag fünf Stunden zockt, kauft sich doch in zwei Jahren eh eine neue Karte.

Über Umwelt müssen wir nicht reden, umweltschonender wäre es, keine neue Karte zu kaufen...

P.S.:
Welche Karte soll das sein? Die 4070Ti?
https://www.computerbase.de/artikel...chmarks_mit_und_ohne_raytracing_in_3840__2160

Die 4070Ti ist bei derzeitigen und älteren Spielen sehr effizient, aber wie bei den meisten akkumulierten benchmarks beeinflussen einzelne Titel diese zuweilen stark. Die 4070Ti ist vor allem bei älteren Spielen stark.
Sie kann aber auch deutlich einbrechen bei neueren Spielen/stärkerer Last. Und das ist eben in UHD der Fall.
Nvidia auch 4k + Raytracing + Ultra Details + 100Frames+ mit 250 Watt
 
700 Watt mit für die GPU erscheinen mir noch immer surreal.
Wenn ich bedenke, dass man vor einigen Jahren noch leistungsstarke Gamingrechner mit 450 Watt Netzteil bauen konnte und Netzteile mit 1.000 Watt und mehr waren nur etwas für Übertaktungen von Multi-GPU-Systemen.
 
Zurück
Oben