News OC auf 3,4 GHz: Radeon RX 7900 XTX jagt mit 700 Watt die RTX 4090

[wege]mini schrieb:
Kein Wunderwerk aber nicht so ein Desaster wie die ganz großen Babys.

Jetzt lass Mal die Kirche im Dorf. Ein Desaster sind die Karten ja nun wirklich nicht.

Was mir aber am sauersten aufstößt ist die Leistungsaufnahme bei Teillast - die hat mich vom Kauf abgehalten und ich warte auf die nächste Gen...
 
TeHaR schrieb:
Wenn das alles so stimmt und die Karten so gut skalieren, verstehe ich nicht warum AMD die 7900 XTX mit 350W auf dem Markt gebracht hat. 450W wären ja auch möglich gewesen. Dann hätte man sich auch strategisch besser zwischen 4090 und 4080 platziert.
das verstehe ich auch nicht. vielleicht wollten sie keine karte die gleich viel verbraucht, dabei wäre die geringere effizienz wohl stärker ins auge gestochen
 
700 Watt. Bin mir nicht sicher ob das rote Licht von den LEDs kommt oder vom glühenden PCB...
 
Majestro1337 schrieb:
Ein Desaster sind die Karten ja nun wirklich nicht.

Wenn ich die gebaut hätte, hätte ich mit diesem Wort kein Problem, da nichts von dem was man wollte, auch nur ansatzweise funktioniert hat.

Das, was man gerade verkauft, war die Entwicklungskosten nicht wert und man versucht wenigstens keine Verluste zu machen.

Es ist zwar kein GAU, ein Desaster aber schon.

Mehrmals, darf so etwas nicht passieren. Der Ruf von AMD hat lange gebraucht, um wieder halbwegs passabel zu sein. Da muss man liefern.

2 oder gar 3 solche Generationen in Folge und wir sind wieder im Jahr 2012.

mfg
 
  • Gefällt mir
Reaktionen: Sensei21 und JJJT
Chilisidian schrieb:
Ein bisschen UV macht die Karte doch erst richtig interessant.
Für dich vielleicht, für mich ist es eher die Leistung :) 50W hin oder her bzw. 2 Cent die Stunde für die paar Stunden die Woche, die man zu Zocken kommt, sind bei einem PC im Wert von je nachdem >3.000€ völlig irrelevant.
 
@[wege]mini
Stimmt, die zehn Grad habe ich vergessen. Somit ist das ja eigentlich nicht mehr relevant. Um wieviel schneller ist die gegenüber Standard denn überhaupt damit geworden? Denn eigentlich hätte man somit auch auf eine Gaskühlung setzen können und wäre schneller als die 4090 🙄
 
AGB-Leser schrieb:
Um wieviel schneller ist die gegenüber Standard denn überhaupt damit geworden?

Die Dinger skalieren exorbitant gut.

Wenn man also von 2700 Mhz kommt und da 25% am Takt drauf packt, kommen fast 20% in FPS raus. Das der Verbrauch dann aber plötzlich 50-80% nach oben geht, macht das Ganze unerträglich.

Wer mit dauerhaften 3000 Mhz unterwegs ist, holt bei 3400 Mhz dann so ca. 10 % raus.

Die Teile wären mit halber Stromaufnahme super geil. Leider hat das nicht geklappt und wo die Probleme liegen, hat man ganz sicher mittlerweile bei AMD evaluiert.

Auch Technik kann einen verarschen. Dann muss man beim nächsten mal besser sein. :heilig:

mfg
 
  • Gefällt mir
Reaktionen: tömu
Capthowdy schrieb:
Da geht es um 700 W XTX vs. 4090 und da sehe ich wirklich keinen guten Grund die XTX zu nehmen, außer die dann vielleicht 200-300 € Preisunterschied.
Es sind 600-700€ Unterschied zwischen der 7900xtx und der 4090.
da kann man sehr lange für zocken und mehr verbrauchen. Und wenn man keine bis kaum rt Titel zockt, ist es schon eine Überlegung wert. Wenn man dann noch eine pv Anlage mit rund 70% Überschuss hat, spielt es überhaupt keine Rolle mehr ;)
Ergänzung ()

Capthowdy schrieb:
Warum? Die 4090 ist und bleibt die durch und durch bessere Karte. Nur wegen dem Preis? Meh.
Naja, 1000€ zu 1650€ sind 650€
Dafür bekomme ich noch einen 7800x 3d samt Einstiegs Bord.

Ja nur wegen dem Preis. Das was die 4090 besser ist, kostet die nun mal auch mehr. Ob die aber 650€ besser ist, wage ich stark zu bezweifeln. Und das sage ich als 4090 Besitzer.
Ergänzung ()

Capthowdy schrieb:
Warum? Die 4090 ist und bleibt die durch und durch bessere Karte. Nur wegen dem Preis? Meh.
Naja, 1000€ zu 1650€ sind 650€
Dafür bekomme ich noch einen 7800x 3d samt Einstiegs Bord.

Ja nur wegen dem Preis. Das was die 4090 besser ist, kostet die nun mal auch mehr. Ob die aber 650€ besser ist, wage ich stark zu bezweifeln. Und das sage ich als 4090 Besitzer.
 
MalWiederIch schrieb:
Für dich vielleicht, für mich ist es eher die Leistung :) 50W hin oder her bzw. 2 Cent die Stunde für die paar Stunden die Woche, die man zu Zocken kommt, sind bei einem PC im Wert von je nachdem >3.000€ völlig irrelevant.

Sag ja nicht, dass ich das mache. Mache ich auch nicht. Aber die Möglichkeit gibt es und die Effizienz ist ja nicht von der Hand zu weisen.
 
Majestro1337 schrieb:
Ein Desaster sind die Karten ja nun wirklich nicht.
Naja
Majestro1337 schrieb:
Was mir aber am sauersten aufstößt ist die Leistungsaufnahme bei Teillast - die hat mich vom Kauf abgehalten und ich warte auf die nächste Gen...
Die und die zu hohe Energieaufnahme im Idle haben mich ebenfalls vom Kauf abgehalten.
Ich vermute mal das es noch viele gibt die ähnlich denken und ihre ursprüngliche Kaufentscheidung Richtung Team grün geändert haben.

Ich nenne das ein betriebswirtschaftliches Desaster.
 
  • Gefällt mir
Reaktionen: MalWiederIch und JJJT
700W für Highend-GPU-Leistung abwegig? Vielleicht.
Das war aber nur für diesen extreme-bench angesagt.
600W sind doch viel realistischer erreichbar. Wenn die Karte dann 15% hinter der 4090 liegt aber nur 2/3 kostet, ist das absolut überlegenswert.

Und wer meint, 600W für Highend ist zu viel... kann ja jeder selber entscheiden. Jene welche sich ein Titan-SLI gebaut haben (was eben zu Kepler Highend war) können da nur schmunzeln.

Nein, 600W für Highend seh ich nicht als Problem an.

1000€ und 300W für midrange wie es nVidia derzeit "anbietet", DAS ist ein Problem...
eine 1080 hat die Hälfte gekostet und auch fast die Hälfte verbraucht... ja, die ganzen customs zogen mehr als 200W, aber hey, da liegen die aktuellen midrange-Karten von nVidia auch 50% drüber.
 
Wirklich interessante Informationen in den Kommentaren was aber Letztendlich die Karte einbremst bleibt weiter leider nur Spekulation hoffentlich kann man das Problem umgehen.
 
TeHaR schrieb:
Wenn das alles so stimmt und die Karten so gut skalieren, verstehe ich nicht warum AMD die 7900 XTX mit 350W auf dem Markt gebracht hat. 450W wären ja auch möglich gewesen. Dann hätte man sich auch strategisch besser zwischen 4090 und 4080 platziert.
Weil die Karte dann teurer und der reale Verbrauch höher wäre im Vergleich zur 4090.
Abgesehen davon wird hier seit Jahren unter jeder Intel-News wegen des Verbrauchs rumgeheult und auch schon bei Turing und Ampere wurde sehr viel gejammert.
 
Zuletzt bearbeitet:
Hier hat AMD also anscheinend auf die falsche Fertigung gesetzt, hinterher ist man wohl immer schlauer.
Eigentlich war ATi ja auch immer die Firma, die zuerst auf dem kleineren Node war, meistens mit ersten Budget-Chips als Pipe Cleaner. Schauen wir mal, was bei RDNA4 so kommt, Potenzial hat die Architektur ja anscheinend. Hoffe nur, da kommen langsam dedizierte RT Einheiten rein, Cyberpunk mit Pathtracing ist wirklich ein neues Level und steigert für mich die Immersion extrem.
 
Vielleicht, hätte AMD doch den N4 Prozess von TSMC nehmen sollen zumindest für die Topmodelle. Irgendwie scheint die finanzielle Einsparung nicht die technischen Nachteile auszugleichen. NVIDIA hat halt einen vermutlich relativ Energiehungrigen 8nm Prozess gegen einen 4nm Prozess und gleichzeitig neuer Architektur getauscht. Vermutlich sehen wir so einen starken Performance/Watt Gewinn leider die nächsten Generationen so schnell nicht mehr. Während AMD von TSMCs ja schon guten 7nm Prozess kam für die kleinen Modelle "nur" auf 6nm gewechselt ist und bei den großen einen Mix aus 5 und / 6 fährt. ALso "gegner" unterschätzt und sich selbst überschätzt ganz schlechte Kombination.
 
Aber AMD liegt trotzdem in RT hinten. :D
Meine 4090 bei unter 300W macht mehr Punkte in Port Royale oder Speedway.
Aber bei Timespy müsste meine 4090 schon Stock sein um die selben Punkte zu bekommen...

Ich finde OC als Machbarkeitsstudie ganz OK, aber im Alltag zählt einfach was anderes. Da sollte man die GPUs eher drosseln/undervolten/powerlimiten. 300W oder 350W sehe ich als Maximum was man als GPU Zuhause haben sollte, nein eigentlich ist selbst das zu viel, 200-250W sollte das Maximum sein. Da liegen leider beide weit darüber.

TenDance schrieb:
1000€ und 300W für midrange wie es nVidia derzeit "anbietet", DAS ist ein Problem...
Das Problem ist eher, was du als Midrange ansiehst...
Ich könnte auch einfach so behaupten (Sarkasmus): "Och die 4090 schafft CP2077 native nicht mal 60FPS in 4k, die ist nur ne lowend Karte... Für über 1500€ ne lowend Karte, Nvidia Karten sind kacke..."
TenDance schrieb:
eine 1080 hat die Hälfte gekostet und auch fast die Hälfte verbraucht
Wenn du jetzt eine 1080 mit einer was vergleichst? 4070Ti? Man kann aktuell bei jeder RTX4000 das PL um 20% drosseln ohne Leistungsverlust, da ist die 4070Ti z.b. auch bei 200W und sie hat zudem fast das 3-Fache an Leistung der 1080.

Und was den Preis angeht, wie kommst du auf die Hälfte? Der Startpreis einer 1080 war 599$ ohne Steuer. Hier hat z.b. die 100$ teurere 1080 Founders in Europa ~789€ gekostet. Dazu kommt noch >10% Inflation zu heute.
Damit wäre die 4070TiFE bei dem selben Preis wie damals die 1080FE!!!
 
[wege]mini schrieb:
Wenn ich die gebaut hätte, hätte ich mit diesem Wort kein Problem, da nichts von dem was man wollte, auch nur ansatzweise funktioniert hat.

Ich denke das Ziel wird immer sein ein konkurrenzfähiges Produkt abzuliefern. Das haben sie ja durchaus, auch wenn es der Konkurrenz unterlegen ist. Akzeptable Leistungsdifferenzen kann man über den Preis regeln und Nvidia macht es AMD ja gerade Recht einfach, trotzdem noch Geld verdienen zu können obwohl sie über den Preis kommen müssen. Außer man hat wie Nvidia eine starke Marke und ne schöne Buzzword-Wolke, dann kauft die Fanbase auch unterliegende Produkte verlässlich zu hohen Preisen.
Warum Firmen immer wieder den technischen Ansatz schmaler Chip + zu hoher Takt wählen (vermutlich weil sie einfach greedy sind) ist mir allerdings nicht klar. Es ist immer absehbar, dass bei gegebener Fertigung die Leistungsaufnahme explodiert - Beispiele wie Pentium IV oder Bulldozer gibt's da einige.
Ich hoffe daher auch, dass RDNA4 einen anderen Ansatz verfolgt.

cookie_dent schrieb:
Ich vermute mal das es noch viele gibt die ähnlich denken und ihre ursprüngliche Kaufentscheidung Richtung Team grün geändert haben.

Ich nenne das ein betriebswirtschaftliches Desaster.

Da RDNA2 stark war kann ich die Generation gerne überspringen. Lediglich die 4090 würde ne adäquate Leistungssteigerung bedeuten, aber so viel will ich nicht ausgeben. Und aus Wettbewerbsgründen möchte ich lieber AMD kaufen, aber wenn sie 2-3 Gens nicht liefern (wie bei Bulldozer) muss dann eben doch die Konkurrenz her (damals wars Haswell ;) ).
Also alle nicht-Monopol-Fans: Daumen drücken
 
GERmaximus schrieb:
Aber ernsthaft, das schreit nach einem amd refresh.
Das wuerde sich finanziell fuer AMD/RTG ueberhaupt nicht lohnen, da die Felle (bei den Enthusiasten und Early Adoptern) schon lange vergeben sind (an nVidia) und eine RTX 4090 ebenso nach oben gedroschen werden koennte in einer RTX 4090Ti Auflage, die vielleicht noch gegen Ende der Ada Lovelace Generation aufschlagen koennte.

Vielleicht bekommt AMD/RTG die Effizienz und das Chiplet-Design insgesamt besser auf die Reihe bei RDNA4 Grafikkarten, der Schritt weg vom monolitschen Design war m.E. der richtige, aber nicht alles funktioniert sofort immer auf Anhieb, insbesondere, wenn der erste Ansatz gewagt innovativ und komplettes Neuland (bei dGPUs) ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SDJ
Zurück
Oben