Test Radeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen

Unti schrieb:
Der bessere TSMC Prozess regelt einfach bei NV.... und das viel zu gut...
Nvidia wie AMD nutzen TSMC N5.
Beide nutzen einen für sie angepassten Fertigungsprozess.
Nvidia gibt dem Ganzen mit "4N" schlicht einen Fancy Namen, das war es aber auch schon.
Nvidias Architektur ist schlicht sehr effizient, gerade wenn man diese mit Ampere vergleicht.
 
Es geht in die richtige Richtung, aber der Imageschaden durch den schlechten Launch bleibt erstmal. Preise und Performance (teilweise) sind immer noch meh.

Phobsen schrieb:
Nvidia gibt dem Ganzen mit "4N" schlicht einen Fancy Namen, das war es aber auch schon.
So fancy ist das gar nicht. Der 4N ist im einstelligen Prozentbereich besser als der standard 5nm.
 
Phobsen schrieb:
Nvidia wie AMD nutzen TSMC N5.
Beide nutzen einen für sie angepassten Fertigungsprozess.
Nvidia gibt dem Ganzen mit "4N" schlicht einen Fancy Namen, das war es aber auch schon.
Nvidias Architektur ist schlicht sehr effizient, gerade wenn man diese mit Ampere vergleicht.

Ich bin mir ziemlich sicher das 4N ein optimierter N5 ist, kann etwas höher Takten und verbraucht etwas weniger bei gleichem Takt.
 
  • Gefällt mir
Reaktionen: Lamaan
Gerade bei "Performance pro Watt mit 144-FPS-Limit" haben sie nochmals deutlich Boden gut gemacht. Das zeigt, dass die Karte eindeutig im falschen Leistungsspektrum betrieben wird. Wie schon die 4090, die Unnötig Strom schlugt, für nur ein paar Frames mehr. Auch die RX7900 hätte sicherlich einen weit bessere "Perofrmance pro Watt" in 4K, wenn man auf ein paar Frames verzichtet hätte. Leider bleibt nicht selten immer der Eindruck vom ersten Test hängen.

Aber es zeigt mal wieder, dass runde Treiber keine Selbstverständlichkeit sind, welche so nebenher beim Entwickeln des Chips gehen.
 
RyzaTune schrieb:
Wenn einer der größten Grafikkartenhersteller nicht genug Steam Spiele hat für die Qualitätsprüfung :D (joke)
Ja, trotzdem wirst du je nach Workflow Games auswählen und dich auf die Daten beschränken, einfach weil du vllt was debuggen musst, oder optimieren. Die Auswahl steht dann stellvertretend für ähnliche Software und skalliert im besten Fall. Dann gehst auf die Masse und machst Finetuning. Aber gut vllt bin ich da zu naiv ;)
 
  • Gefällt mir
Reaktionen: Rockstar85
Ich habe 2x WUXGA60Hz und 1x WQHD120hz. Wäre echt interessiert wie die Karte da so reagiert, ich nehme mal an auch mit den 100W.
 
drago-museweni schrieb:
Der Relase war eindeutig zu früh, wegen Weihnachten.
Sehe ich auch so. AMD stand unter Zugzwang, weil Nvidia schon released hatte.
Hätte Nvidia im Januar released, dann wäre AMD etwas besser bei rum gekommen - jedenfalls was die Treiber angeht.
 
  • Gefällt mir
Reaktionen: drago-museweni
Dass die RX 7900 XTX auch mit dem neuen Treiber in 4K eine schlechtere Performance/Watt als die 6900 XT aufweist, ist echt ziemlich bescheiden.
Bei AMD gibt es also sowohl bei FPS/€ als auch FPS/W Stagnation (NVIDIA bietet zumindest mehr FPS/Watt). Das ist mehr als ernüchternd und bestätigt weiterhin den Eindruck, dass, so absurd es klingt, die RTX 4090 weiterhin die beste Next-Gen-Karte ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pankrat und Backfisch
Taxxor schrieb:
@Wolfgang Ein bisschen unglücklich, dass man erst jetzt erfährt, dass der 2. Treiber den Verbrauch teils deutlich verbessert hat, nachdem man vorher schon eine News gebracht hat, nach der der dritte Treiber nichts am Verbrauch verbessert.
In den Kommentaren dort war entsprechend ohne die Info aus diesem Artikel natürlich die Stimmung sehr negativ, weil man davon ausgegangen ist, es hätte sich seit Release gar nichts am Teillastverbrauch in Spielen getan.
Nunja, auch Grafikkarten-Redakteure haben mal Urlaub :)
In der Woche nach dem Launch hatte ich Urlaub, dann kam Weihnachten und dann Neujahr. Vorher ging es mit dem Test einfach nicht.
 
  • Gefällt mir
Reaktionen: Lamaan, Backfisch, Captain Mumpitz und 4 andere
Hat man hier schon mal von diesem Thema gehört? Anscheinend häufen sich Berichte dass AMD GPU (6800/6900 series) nach einem bestimmten Treiberupdate ausfallen sollen, quasi sterben/durchbrennen?
 
Meister1982 schrieb:
Ich bin mir ziemlich sicher das 4N ein optimierter N5 ist, kann etwas höher Takten und verbraucht etwas weniger bei gleichem Takt.
Klar ist dieser optimiert , 4 (for) N (Nvidia) halt ;)
AMD wird den auch auf ihre Bedürfnisse hin optimiert haben, nur ohne Fancy Namen.

Schön das AMD weiterhin aktiv an der Leistungsaufnahme arbeitet, das müssen sie auch !
Der Treiber wurde mit der heißen Nadel gestrickt,der Grund wird wohl das Weihnachtsgeschäft gewesen sein.
Schon dumm wenn die Sales Abteilung dem Rest in die Parade fährt.
Der Kunde steht jetzt mit einem nicht fertig optimierten Produkt da, und AMD hat einen Kratzer in ihrer über die letzten Jahre aufgebauten Reputation.
Technisch sind die Karten durchaus lecker, aber der berühmte Abzug in der B Note überschattet das ein wenig.
 
hippiemanuide schrieb:
Hat man hier schon mal von diesem Thema gehört? Anscheinend häufen sich Berichte dass AMD GPU (6800/6900 series) nach einem bestimmten Treiberupdate ausfallen sollen, quasi sterben/durchbrennen?
ist bekannt, aber mit ziemlicher Sicherheit nicht der Fall
 
Der Stromverbrauch gerade im Vergleich zu Nvidia ist leider immer noch ungenügend.
Schade.
AMD vergeigt leider jedesmal den "Ersten Eindruck".
Viele Nutzer sind da sehr konservativ und wählen Nvidia weil sie wissen es läuft einfach, ich brauch mir nicht die Hände schmutzig machen.
 
Phobsen schrieb:
Klar ist dieser optimiert , 4 (for) N (Nvidia) halt ;)

Genau deshalb ist im iPhone 14 Pro auch ein A16 Chip in 4N. ;)

Schau dir einfach mal M1 und M2 Chip an oder A15 und A16.

Bezogen auf Intel 6700k und 7700k mit 14nm und 14nm+ ;)
 
Asgartal schrieb:
Der Stromverbrauch gerade im Vergleich zu Nvidia ist leider immer noch ungenügend.
Schade.
AMD vergeigt leider jedesmal den "Ersten Eindruck".
Viele Nutzer sind da sehr konservativ und wählen Nvidia weil sie wissen es läuft einfach, ich brauch mir nicht die Hände schmutzig machen.
war denn was mit rdna2?
 
Phobsen schrieb:
Beide nutzen einen für sie angepassten Fertigungsprozess.
Nvidia gibt dem Ganzen mit "4N" schlicht einen Fancy Namen, das war es aber auch schon.
Richtig ist, dass der 4er ein aufgebohrter 5er ist. Gem. TSMC ist der Vorteil der des N4-Prozesses bei der Energieffizienz aber bei satten 22%. Das ist nicht doch schon recht erheblich. Und selbst wenn es nur die Hälfte wäre, ist die Differenz schon für einen guten Teil des Unterschieds zwischen den GPUs verantwortlich, zumal ein kleiner Teil ja auch noch in 7nm (mit Fancy Namen) gefertigt wird.
 
  • Gefällt mir
Reaktionen: Lamaan
Meister1982 schrieb:
Genau deshalb ist im iPhone 14 Pro auch ein A16 Chip in 4N. ;)
Apple fertigt im N4 Prozess, und nicht im 4N ;)
Toll wie es Nvidia fertig bringt, sowas in die Köpfe zu bekommen oder ?
 
  • Gefällt mir
Reaktionen: modena.ch und ETI1120
Zurück
Oben