Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

@Wolfgang : Ich habe eine Frage zum Artikel.
Hier steht folgendes: "AMD gibt aber ehrlich zu, dass das Chiplet-Verfahren bei CPUs zwar Kostenvorteile bringt, jedoch zugleich Leistungsnachteile. Bei gleichem Takt hat Navi 21 im Vergleich zu Navi 31 eine zwischen 5 bis 10 Prozent schlechtere Latenz beim DRAM-Zugriff."

Sollte da nicht statt CPU statt GPU stehen?
Wenn das Chipletdesign also Leistungsnachteile bringt und Navi31 der Nachfolger im Chipletdesign ist, ist der Leistungsnachteil nicht eher von 31 zu 21 dann?
Oder lese ich das nur falsch?
 
  • Gefällt mir
Reaktionen: Colindo und Mcr-King
Taxxor schrieb:
Ich meine wo bei Control z.B. mit RT sowas hier zu sehen ist

Da wäre vorher ohne RT auf jeden fall auch mehr als das hier möglich gewesen:
Das stimmt, würde aber vermutlich erfordern, dass der Entwickler hier im Prinzip zwei Spiele entwickelt. Eins auf RT Basis und eines mit nochmals neu designten Levels mit entsprechenden Technik-Tricksereien.

Ich bin sicher Leute wie der andere Poster würden natürlich gern mehr für ein Spiel ausgeben, man sieht ja wie den Leuten hier mehr Leistung auch mehr Geld wert ist wenns um Technik geht. :D
 
  • Gefällt mir
Reaktionen: Ragnarök88, Mcr-King und xexex
Dominion schrieb:
Mit ihrer Marketingstrategie, RT als Must-have hinzustellen, findet Nvidia wohl eher in der jüngeren Generation Anklang. Bei Leuten mit mehr Lebenserfahrung funktioniert das weniger gut. Die hinterfragen eher.
RT ist bei weitem nicht nur Marketing. Jeder der auch nur irgendwas von dem Ganzen versteht, sollte das wissen. RT ist ja auch keine neue Idee, ganz im Gegenteil. Das RT die Zukunft ist wusste man schon vor Jahrzehnten. Nur hat man jetzt tatsächlich erst die Leistung, um es auch vernünftig in Echtzeit umzusetzen und endlich die ganzen Raster-Krücken und -Tricks loszuwerden...
 
  • Gefällt mir
Reaktionen: hahaqp, Ragnarök88, Apacon und 5 andere
Die GeForce RTX 3090 Ti FE kostet immer noch ~1350€. Die 7900XT schlägt diese deutlich. Ist sogar, wenn der Preis wirklich bei 1050€ liegt, das um Welten bessere Produkt. Nvidia mag schnellere Karten haben, die XTX mag schneller sein aber die 7900XT schlägt die besten Karten der letzten Generation für einen Preis der hot ist.

Daher ist das Fazit mal wieder nicht objektiv gefaßt.
 
  • Gefällt mir
Reaktionen: schkai und Traumsucher
Bulletchief schrieb:
Aber die anderen Leute, die die gerne die beste Optik haben wollen müssen zwangsweise in den teuren Apfel beißen...
Die XTX liefert doch RT auf 3090 ti Level, das ist bereits sehr viel. Es wird immer so getan als könnte man rt mit amd Überhaupt nicht nutzen und das ist quark
 
  • Gefällt mir
Reaktionen: MasterAK, msv, The-Beast und 4 andere
Super Test, danke.
Ich denke, dass eine 7900 XTX meine aktuelle Karte bei Verfügbarkeit ablösen wird, im Gegensatz zur 4080 stimmt hier das Performance/ Euro Verhältnis dann doch wesentlich eher.
Ich lasse Raytracing jetzt mal ausser Acht.
 
Gerithos schrieb:
Das stimmt, aber mekn Beispiel diente nur dem Vergleich, das man high end 5 Jahre später in der mittelklasse findet.
der preis für eben diese ist halt himmelweit uninteressant ich meine die 3060 für 500€ .... für die 1060 damals hattest mit customs max 340€ hingelegt (und da hattest schon eines der bester custom designs).

wer halt untere Mittelklasse kauft ist aber in einem anderen Budget unterwegs und das wird sich denke ich nicht mehr so schnell ändern
rtx 6060 wird sicher RT auf dem Level einer 4090 liefern, alles darunter wäre ein armutszeugnis
zu welchen Preis? 5 Jahre später wird halt keiner mehr für diese Leistung 500€ zahlen wollen fertig, aber exakt das ist es was Nvidia macht siehe die Ampera Karten ....

So wird es schlicht uninteressant für die wirklich gewillte Käuferschicht und da bleibt RT halt wieder auf der Strecke.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
th3o schrieb:
Anhand solcher Aussagen merkt man halt was für eine heftige Agenda manche Leute gegen oder für einen bestimmten GPU Hersteller haben. Ist nichtmal dafür ausgelegt dass man darüber irgendwie vernünftig reden kann, es ist einfach nur mit dem Baseballschläger im Porzellanladen rumwüten.
Nope das ist eine Aussage nach Fakten denn es nunmal so das Nvidia an der Entwicklung des Spiels maßgeblich beteiligt war, auch finanziell und ebenfalls Werbepartner.
Hinzu kommt das das Spiel gerade weil es von Remedy kommt enttäuscht hat. Gamestar hat eine 79 Punkte Wertung gegeben, PCGames eine 7 von 10 mit einer Aufwertung auf 8 später nachdem sie die Performanceprobleme in den Griff bekommen haben. Zum Vergleich siehe man sich die Wertungen von Dying Light, Horizon Zero Dawn usw. an. Es ist ein durchschnittliches Spiel eher unterdurchschnittlich wenn man bedenkt das es von den Machern von Alan Wake kommt.
Ergänzung ()

DaLexy schrieb:
Deswegen ist auch ein zweiter Teil angekündigt, weil die erste Demo nicht reichte und Story ja so scheisse ist.

Sorry aber deine Aussage ist das absolute gegenteil davon, man kann das Spiel ansich ja nicht mögen aus welchen gründen auch immer - aber es als Demo zu betiteln zeigt mir das du eigentlich garkeine ahnung von dem Spiel und der Story hast.
Nope das ist eine Aussage nach Fakten denn es nunmal so das Nvidia an der Entwicklung des Spiels maßgeblich beteiligt war, auch finanziell und ebenfalls Werbepartner.
Hinzu kommt das das Spiel gerade weil es von Remedy kommt enttäuscht hat. Gamestar hat eine 79 Punkte Wertung gegeben, PCGames eine 7 von 10 mit einer Aufwertung auf 8 später nachdem sie die Performanceprobleme in den Griff bekommen haben. Zum Vergleich siehe man sich die Wertungen von Dying Light 2, Horizon Zero Dawn usw. an. Es ist ein durchschnittliches Spiel eher unterdurchschnittlich wenn man bedenkt das es von den Machern von Alan Wake kommt.
 
GOOFY71 schrieb:
im Gegensatz zur 4080 stimmt hier das Performance/ Euro Verhältnis dann doch wesentlich eher.
Bei den aktuellen Preisen der XTX macht es wirtschaftlich keinen Sinn die XTX zu kaufen, alleine vom Stromverbrauch her.
 
  • Gefällt mir
Reaktionen: Unnu
Dominion schrieb:
Mit ihrer Marketingstrategie, RT als Must-have hinzustellen, findet Nvidia wohl eher in der jüngeren Generation Anklang. Bei Leuten mit mehr Lebenserfahrung funktioniert das weniger gut. Die hinterfragen eher.
Ich glaube Du verwechselst da RT und DLSS.
DLSS bzw. FSR sind die jeweiligen Techniken der beiden Hersteller um diverse Berechnungen schneller zu bekommen.

RT ist ja schon Jahrzehnte alt und GERADE Leute mit Lebenserfahrung, also so wie ich bspw. mit läppischen 44 Jahren Gaming etc. pp. (Pong auf Grundig FTW!) finden RT superb, denn dann kann man endlich die ganzen alten Krücken loswerden, die bisher benötigt wurden um einigermaßen realistische Graphik hinzubekommen OHNE zuviel Realität da reinbacken zu müssen. ;)

Es ist ja so, dass GPUs bisher vor allem dazu da waren, die ganzen Umwege möglichst schnell umzusetzen!
Die fallen jetzt peu á peu weg.
In ein paar Generationen werden wir reine RT-Beschleuniger sehen, weil eben gerade das die einzig wahre / sinnvolle Realitätsabbildung ist.

DLSS / FSR sind Techniken um den Übergang von alten Krücken zu RT möglichst sanft zu bewältigen.

Raytracing ist gekommen um zu bleiben. Und das ist gut so.

EDITH sagt:
Ich will vor allem mal die Superfresser sehen. Also Customs mit 3 Stromsteckern und ohne das jetzt eingesetzte PowerLimit. ... da sollte ja was gehen, wenn man sich so die diversen Tests über die Publikationen hinweg anguckt. (Ja, ich weiß auch, dass das TOTAL unvernünftig ist. Und? Wer behauptet irgendeine dieser GPUs weit über 700 oder 500 EUR sei vernünftig ... passt schon.)
Ich möchte gerne wissen, was geht, wenn man die Dinger mit einem 1,2KW Block mit 500 Watt Aufnahme rennen lässt. Einen bei 250 abgerigelten Rennwagen kann jeder fahren. LOL.
 
  • Gefällt mir
Reaktionen: ThirdLife
Taxxor schrieb:
Und bei gleichem Takt gerade mal 9% schneller als RDNA2, bei RT immerhin 18-20%, bei laut Präsentation "up to 2x IPC" pro CU.
Du sagtest es bereits: Marketingfolien. AMD wird hier zudem ein Szenario gewählt haben, wo die verbesserten "Multithreading" FP32-Einheiten glänzen konnten.
Taxxor schrieb:
Bei RT reicht es auch nicht mal für die runden 50% Steigerung, während die 4090 knapp 70% auf die 3090 draufgelegt hat. Der Abstand in RT ist somit am ende sogar größer geworden, als bei RDNA2 vs Ampere.
3090 vs 6950XT = +47%
4090 vs 7900XTX = +74%

3080 vs 6900XT = +19%
4080 vs 7900XT = +47%
Die Vergleiche mit der Vorgängergeneration hinken etwas.
1. Die Namensgebung einfach 1:1 zwischen den beiden Generationen her zu nehmen, verfälscht das reale Kräfteverhältnis. Die RX 7900 XTX ist AMDs Flaggschiff + Vollausbau zu Beginn und entspricht somit der RX 6900 XT von 2020. Folglich entspricht die RX 7900 XT viel mehr der Leistungsklasse einer der RX 6800 XT.
2. Ganz offensichtlich hat AMD bei RDNA3 noch mit Treiberproblemen zu kämpfen. Nicht schön, aber immerhin handelt es sich hier um das erste Multi-Chiplet-Design bei Gaming-Grafikkarten. Bei der Ryzen 1000 Generation gab es schließlich auch gewisse Anfangsschwierigkeiten. Das heißt es steckt mit Sicherheit noch einiges an Leistungspotential in RX 7000, während es bei Ada erfahrungsgemäß bereits weitestgehend ausgeschöpft sein sollte.
3. Die RTX 4090 ist eine außerordentlich gut gewordene Grafikkarte, dass muss man sagen. Verglichen mit der UVP des Vorgängers ist der Preis diesmal immerhin angemessen. Wenn man aber jetzt die 1599$ der RTX 4090 vs die 999$ der RX 7900 XTX nimmt und meinen 2. Punkt berücksichtigt, sieht die Sache plötzlich gar nicht mehr so schlecht aus für AMD.
4. Ein Multi-Chiplet-Design (MCD) geht immer auch mit Performanceeinbußen einher im Vergleich zu einem monolithischen Aufbau, eben durch die Kommunikation zwischen den einzelnen physisch von einander getrennten Chiplets. Die Vorteile sind hier vordergründig bei der Chipausbeute pro Wafer zu finden, also zum Schluss beim Endpreis. Ob Nvidia mit den Ada-102 GPU-Dies einen großen Spielraum für die Preisgestaltung hat, wird sich zeigen. Vermutlich würden sie bei einem Preiskampf pro Einheit mit AMD wirtschaftlich den kürzeren ziehen, selbst wenn die Herstellungskosten der ersten Generation von MCD-GPUs sicherlich noch etwas teurer sein wird. Das geballte Knowhow mit den Ryzen-CPUs wird hier einiges kompensieren können.
Taxxor schrieb:
Das schimmste ist, nachdem AMD im Marketing so sehr auf den Faktor Effizienz gesetzt hat, sind beide Modelle deutlich ineffizienter als die 4080 oder die 4090.
Zur 6900XT lediglich ein Sprung von +18% Perf/W. Selbst wenn man die Black Edition nimmt, die mit 375W bereits 40W mehr ziehen darf als eine 6950XT, kommt man gerade mal auf +41%.
In 1440p wird der Perf/W Vorsprung schon fast einstellig.
Wie gesagt: RDNA3 läuft leider noch nicht rund. Wenn man sich ausgewählte Spiele anschaut, wo RX 7000 außerordentlich gut performt, und dies dann auf die Spiele bezieht, wo man bei AMD offensichtlich noch mit Treiberproblemen zu kämpfen hat, sieht die Performance gut aus. Und wer weiß: es wurde hier (bei computerbase) mit einem Intel-System getestet. Vielleicht gibt es bei einem Ryzen-7000-System und einer RX 7000 nach einen zusätzlichen Vorteil gegenüber einer RX 6000 GPU, schließlich kommen die jeweils neuste CPU- und GPU-Generation aus dem gleichen Haus und wurden möglicherweise Weise noch einmal besser aufeinander abgestimmt. Außerdem bringt ein reines AMD-System den zusätzlichen Vorteil von SAM, die deutlich beste Resizable-Bar-Lösung und AMD-exklusiv. Hier spielt AMD einen kleinen Joker gegenüber ein Intel-Nvidia-System aus, weil sie nun einmal auch ein führender CPU-Hersteller sind.
Taxxor schrieb:
Ich erinnere mich noch an das Interview mit einem AMD Vertreter, wo es sinngemäß hieß "Wir werden auch die Leistungsaufnahme erhöhen müssen, aber durch unser Effizientes Design werden wir es nicht so weit erhöhen müssen, wie unsere Konkurrenz"
Und nun? Um die Performance einer ~300W 4080 zu erreichen braucht die 7900XTX ~350W.

Mit 144FPS Limit in 1440p wird es in absoluten Zahlen noch deutlicher: ~250W für die 7900XTX gegen gerade mal ~125W für die 4080 und sogar die 6900XT verbraucht deutlich weniger.
Das wäre genau mein Nutzerszenario(das Limit sogar niedriger als 144) und daher wären die Karten, wenn ich nicht schon vorher bei Nvidia zugeschlagen hätte, spätestens hier komplett raus.
AMD hat die Effizienz (W/FPS) in Spielen gegenüber RDNA2 deutlich verbessert. Sieh dir bitte auch das Effizienz-Ranking bei Igorslab an, das sieht gut aus für AMD. Nvidia hat aber nochmal einen besseren Job gemacht. Jetzt muss man an der Stelle aber wieder sagen, dass dies nur eine Momentaufnahme ist, wegen "Fine Wine" und so. Da werden sich die Ergebnisse mit der Zeit für AMD noch weiter verbessern. Und man sollte auch nicht vergessen, dass Nvidia einen effizienteren monolithischen Aufbau hat und mit N4 noch einmal einen etwas besseren Herstellungsprozess.
Taxxor schrieb:
Das kann doch nur ein Hardware Bug oder einer Treiberproblem sein. Ich hoffe für AMD letzteres, vermute aber fast schon eher ersteres aufgrund der so schnell aufkommenden Gerüchte über einen Refresh.
Hoffentlich handelt es sich nicht um ein Hardware-Bug. Als MCD-Pionier ist die Wahrscheinlichkeit leider von Natur aus höher, dass es zu technischen Problemen kommen kann. Mal sehen, wie sich das Ganze weiter entwickelt.
Taxxor schrieb:
Selbst eine auf 300W limitierte 4090 ist noch deutlich schneller als alles, was der Top Chip von AMD bei 355W liefern kann und die 4090 ist dabei noch nicht mal der Vollausbau des AD102.
Taxxor schrieb:
Nun steht also die ca gleiche Raster Performance, 20-25% weniger RT Performance, 50-60W mehr Verbrauch unter Vollast, nahezu doppelter Verbrauch im FPS Limit und das Fehlen von DLSS2, DLSS 3 FG und Reflex gegen eine Preisersparnis von knapp 200€.
Und das auch nur, wenn man an eine Referenzkarte kommt, was nicht sehr vielen vergönnt sein dürfte, ansonsten dann 0-100€ bei einem Custom Design.
Alles bereits gesagt bis auf das Thema Zusatzfeatures. Wenn ich FSR2 mit meiner AMD-Grafikkarte nutzen kann, brauche ich kein DLSS2. Das Gegenpendant DLSS3 und Reflex werden auf jeden Fall kommen, wenn auch etwas später. Essenziell sind diese Features darüber hinaus nicht.
Nvidia hat RTX 4000 einige Monate eher veröffentlicht. Die RX 7000 muss erst einmal richtig im Markt ankommen. Die Zeit wird es richten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zenx_, Benji18 und Unnu
DayvanCowboy schrieb:
Bei den aktuellen Preisen der XTX macht es wirtschaftlich keinen Sinn die XTX zu kaufen, alleine vom Stromverbrauch her.
So schlecht stehen die Karten nun wirklich nicht da von der Effizienz her, das ist zu vernachlässigen.
 

Anhänge

  • Screenshot 2022-12-14 111303.jpg
    Screenshot 2022-12-14 111303.jpg
    58,3 KB · Aufrufe: 198
Benji18 schrieb:
Was für ne erfrischend geile Aussage xD
„ich will eine Günstige Nvidia also hat AMD zuliefern“ vielleicht Trollt AMD einfach diese Kundenschicht mit ihren schlechten Releases ;-)

Nicht gleich in Lagern denken....ich will eine Graka mit dem besten P/L/W Verhältniss (für max 800€) und da ist mir es völlig egal ob es AMD, Nvidia oder irgendwann Intel ist

AMD hat jetzt einfach nicht geliefert was sie versprachen und die 80er bei Nvidia sollten eigentlich nicht 4stellig kosten, gilt auch für die 7900XT
 
Ich weiß gar nicht was hier alle haben laut Test liegt die große AMD leicht vor der 4080 dazu kostet sie
200 Euro weniger und man bekommt noch mehr Speicher als bei Nvidia
 
  • Gefällt mir
Reaktionen: Millennial_24K, Icke-ffm, schM0ggi und eine weitere Person
  • Gefällt mir
Reaktionen: Millennial_24K
@lubi7
die Preise sind allgemein viel zu hoch für das gebotene, man machts weil mans eben kann

Es gibt halt viele die "hoffen" das AMD liefert nur damit sich Nvidia bewegen muss preislich damit diese sich dann die NV Karte günstiger kaufen können.

Gleichzeitig regt man sich aber darüber auf das AMD nicht liefert, wenn man so eine Käufermentalität sieht, denkt man sich als aussenstehender seinen Teil darüber.

 
  • Gefällt mir
Reaktionen: Icke-ffm, lubi7 und GOOFY71
Taxxor schrieb:
Und bei gleichem Takt gerade mal 9% schneller als RDNA2, bei RT immerhin 18-20%, bei laut Präsentation "up to 2x IPC" pro CU.
Du sagtest es bereits: Marketingfolien. AMD wird hier zudem ein Szenario gewählt haben, wo die verbesserten "Multithreading" FP32-Einheiten glänzen konnten.
Taxxor schrieb:
Bei RT reicht es auch nicht mal für die runden 50% Steigerung, während die 4090 knapp 70% auf die 3090 draufgelegt hat. Der Abstand in RT ist somit am ende sogar größer geworden, als bei RDNA2 vs Ampere.
3090 vs 6950XT = +47%
4090 vs 7900XTX = +74%

3080 vs 6900XT = +19%
4080 vs 7900XT = +47%
Die Vergleiche mit der Vorgängergeneration hinken etwas.
1. Die Namensgebung einfach 1:1 zwischen den beiden Generationen her zu nehmen, verfälscht das reale Kräfteverhältnis. Die RX 7900 XTX ist AMDs Flaggschiff + Vollausbau zu Beginn und entspricht somit der RX 6900 XT von 2020. Folglich entspricht die RX 7900 XT viel mehr der Leistungsklasse einer RX 6800 XT. Ich persönlich finde AMDs neue Namensgebung derzeit noch etwas irritierend, da man sich eben bereits komplett an die Vorgängergeneration gewöhnt hat.
2. Ganz offensichtlich hat AMD bei RDNA3 noch mit Treiberproblemen zu kämpfen. Nicht schön, aber immerhin handelt es sich hier um das erste Multi-Chiplet-Design bei Gaming-Grafikkarten. Bei der Ryzen 1000 Generation gab es schließlich auch gewisse Anfangsschwierigkeiten. Das heißt es steckt mit Sicherheit noch einiges an Leistungspotential in RX 7000, während es bei Ada erfahrungsgemäß bereits weitestgehend ausgeschöpft sein sollte.
3. Die RTX 4090 ist eine außerordentlich gut gewordene Grafikkarte, dass muss man sagen. Verglichen mit der UVP des Vorgängers ist der Preis diesmal immerhin angemessen. Wenn man aber jetzt die 1599$ der RTX 4090 vs die 999$ der RX 7900 XTX nimmt und meinen 2. Punkt berücksichtigt, sieht die Sache plötzlich gar nicht mehr so schlecht aus für AMD.
4. Ein Multi-Chiplet-Design (MCD) geht immer auch mit Performanceeinbußen einher im Vergleich zu einem monolithischen Aufbau, eben durch die Kommunikation zwischen den einzelnen physisch von einander getrennten Chiplets. Die Vorteile sind hier vordergründig bei der Chipausbeute pro Wafer zu finden, also zum Schluss beim Endpreis. Ob Nvidia mit den Ada-102 GPU-Dies einen großen Spielraum für die Preisgestaltung hat, wird sich zeigen. Vermutlich würden sie bei einem Preiskampf pro Einheit mit AMD wirtschaftlich den kürzeren ziehen, selbst wenn die Herstellungskosten der ersten Generation von MCD-GPUs sicherlich noch etwas teurer sein wird. Das geballte Knowhow mit den Ryzen-CPUs wird hier einiges kompensieren können.
Taxxor schrieb:
Das schimmste ist, nachdem AMD im Marketing so sehr auf den Faktor Effizienz gesetzt hat, sind beide Modelle deutlich ineffizienter als die 4080 oder die 4090.
Zur 6900XT lediglich ein Sprung von +18% Perf/W. Selbst wenn man die Black Edition nimmt, die mit 375W bereits 40W mehr ziehen darf als eine 6950XT, kommt man gerade mal auf +41%.
In 1440p wird der Perf/W Vorsprung schon fast einstellig.
Wie gesagt: RDNA3 läuft leider noch nicht rund. Wenn man sich ausgewählte Spiele anschaut, wo RX 7000 außerordentlich gut performt, und dies dann auf die Spiele bezieht, wo man bei AMD offensichtlich noch mit Treiberproblemen zu kämpfen hat, sieht die Performance gut aus. Und wer weiß: es wurde hier (bei computerbase) mit einem Intel-System getestet. Vielleicht gibt es bei einem Ryzen-7000-System und einer RX 7000 noch einen zusätzlichen Vorteil gegenüber einer RX 6000 GPU, schließlich kommen die jeweils neuste CPU- und GPU-Generation aus dem gleichen Haus und wurden auf Grund der zeitnahen Entwicklung vermutlich noch einmal besser aufeinander abgestimmt. Außerdem bringt ein reines AMD-System den zusätzlichen Vorteil von SAM, die deutlich beste Resizable-Bar-Lösung am Markt. Hier spielt AMD einen kleinen Joker gegenüber ein Intel-Nvidia-System aus, weil sie nun einmal auch ein führender CPU-Hersteller sind und dadurch Plattform-eigene Optimierungen vornehmen können.
Taxxor schrieb:
Ich erinnere mich noch an das Interview mit einem AMD Vertreter, wo es sinngemäß hieß "Wir werden auch die Leistungsaufnahme erhöhen müssen, aber durch unser Effizientes Design werden wir es nicht so weit erhöhen müssen, wie unsere Konkurrenz"
Und nun? Um die Performance einer ~300W 4080 zu erreichen braucht die 7900XTX ~350W.

Mit 144FPS Limit in 1440p wird es in absoluten Zahlen noch deutlicher: ~250W für die 7900XTX gegen gerade mal ~125W für die 4080 und sogar die 6900XT verbraucht deutlich weniger.
Das wäre genau mein Nutzerszenario(das Limit sogar niedriger als 144) und daher wären die Karten, wenn ich nicht schon vorher bei Nvidia zugeschlagen hätte, spätestens hier komplett raus.
AMD hat die Effizienz (W/FPS) in Spielen gegenüber RDNA2 deutlich verbessert. Sieh dir bitte auch das Effizienz-Ranking bei Igorslab an, das sieht gut aus für AMD. Nvidia hat aber nochmal einen besseren Job gemacht. Jetzt muss man an der Stelle aber wieder sagen, dass dies nur eine Momentaufnahme ist, wegen "Fine Wine" und so. Da werden sich die Ergebnisse mit der Zeit für AMD noch weiter verbessern. Und man sollte auch nicht vergessen, dass Nvidia einen effizienteren monolithischen Aufbau hat und mit N4 noch einmal einen etwas besseren Herstellungsprozess.
Taxxor schrieb:
Das kann doch nur ein Hardware Bug oder einer Treiberproblem sein. Ich hoffe für AMD letzteres, vermute aber fast schon eher ersteres aufgrund der so schnell aufkommenden Gerüchte über einen Refresh.
Hoffentlich handelt es sich nicht um ein Hardware-Bug. Als MCD-Pionier ist die Wahrscheinlichkeit leider von Natur aus höher, dass es zu technischen Problemen kommen kann. Mal sehen, wie sich das Ganze weiter entwickelt.
Taxxor schrieb:
Selbst eine auf 300W limitierte 4090 ist noch deutlich schneller als alles, was der Top Chip von AMD bei 355W liefern kann und die 4090 ist dabei noch nicht mal der Vollausbau des AD102.
Taxxor schrieb:
Nun steht also die ca gleiche Raster Performance, 20-25% weniger RT Performance, 50-60W mehr Verbrauch unter Vollast, nahezu doppelter Verbrauch im FPS Limit und das Fehlen von DLSS2, DLSS 3 FG und Reflex gegen eine Preisersparnis von knapp 200€.
Und das auch nur, wenn man an eine Referenzkarte kommt, was nicht sehr vielen vergönnt sein dürfte, ansonsten dann 0-100€ bei einem Custom Design.
Alles bereits gesagt bis auf das Thema Zusatzfeatures. Wenn ich FSR2 mit meiner AMD-Grafikkarte nutzen kann, brauche ich kein DLSS2. Das Gegenpendant DLSS3 und Reflex werden auf jeden Fall kommen, wenn auch etwas später. Essenziell sind diese Features darüber hinaus nicht.
Nvidia hat RTX 4000 einige Monate eher veröffentlicht. Die RX 7000 muss erst einmal richtig im Markt ankommen. Die Zeit wird es richten.
 
Zuletzt bearbeitet:
peacermaker schrieb:
Ich weiß gar nicht was hier alle haben
Wir haben den Blues, denn das AMD-Marketing hat eben nicht tief gestapelt und der Hypetrain war wohl etwas zu schnell. Die Erwartung war, dass minestens mal die 4080 - deutlicher - geschlagen wird.
Und was die Effizienz angeht .... autsch.
 
  • Gefällt mir
Reaktionen: lubi7
Ich wollte das nur mal kurz hierlassen, auch im Hinblick auf AMDs Variante von Frame Generation. Das war für mich der Killerfeaturemoment heute mit dem Witcher Next Gen Update. Ohne FG fühlte sich das Game hakelig und träge an, aber mit smooth und fluffig. Die Latenz ist sogar leicht besser geworden.

Ich hoffe, dass AMD Fluid Motion Frame zügig nachliefert!

1671013017222.png

Source
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ragnarök88
TigerherzLXXXVI schrieb:
AMD hat die Effizienz (W/FPS) in Spielen gegenüber RDNA2 deutlich verbessert. Sieh dir bitte auch das Effizienz-Ranking bei Igorslab an, das sieht gut aus für AMD.
Nicht wirklich, auch bei Igor kommt man nicht mal auf +30% vgl. mit den angegebenen >50
 
Zurück
Oben