Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

nebulein schrieb:
Meiner Meinung nach hat AMD hier eine große Chance verpasst. Lieber 10 - 15% weniger Performance, dafür einen besseren Performance pro Watt Wert sowie einen besseren Gesamtverbrauch hätte man erreichen können. Außerdem wäre es wichtig gewesen deutlich unter dem Nvidia Preis zu bleiben und damit meine ich 800 - 900 € vielleicht.

Ich finde die Herangehensweise einfach falsch, man muss nicht die stärkste Karte auf dem Papier haben, sondern die beste Preis/Leistung bieten.

15% weniger Performance? Dann muss man ja fast schon aufpassen, dass die 6950 nicht die schnellere Karte bleibt.

Abgesehen hat man doch diesen Weg gewählt. Man hat nicht versucht an der 4090 zu kratzen, sondern "nur" die 4080 als Gegenspieler genommen. Auch wurde immer wieder gesagt, dass man eine effiziente Karte möchte und nicht die schnellste. AMD hat also als Ziel Effizienz ausgegeben und hat es nicht so gut hinbekommen wie Nvidia. Der Weg nicht alles auf die maximale Leistung zu legen war aber richtig. Hätte mir nur 10% mehr Leistung und 10-20% weniger Stromverbrauch gewünscht. Dann hätte man einen Gegenspieler zur 4080 gehabt.

So wird es brutal über den Preis gehen müssen und 200$ Abstand wird wohl nicht reichen in dem Segment. Mal schauen wie nachher der Verkauf läuft.
 
  • Gefällt mir
Reaktionen: Geringverdiener, shaboo, Javeran und eine weitere Person
Cool Master schrieb:
Innovation :) Was glaubst du wird die nächste Nvidia Karte für ein Design haben? Richtig, Chiplet ;)
Ja, aber das bringt mir als Kunde zumindest heute noch nichts. Theoretisch sollten sich die Preise dadurch reduzieren, da mehr Ausbeute erzielt werden kann. Aktuell sehe ich aber nichts von einer Preisreduktion, somit liegt der Vorteil rein auf Seiten des Herstellers.
 
  • Gefällt mir
Reaktionen: Col.Maybourne
Ich bin am Ende von den 7000er XT und XTX auch ein wenig enttäuscht. Keine schlechten Karten, nur leider falsche Benamung in meinen Augen.
Die hätten die Dinger lieber für 650-800€ als 7800XT und 7800XTX oder 7850XT auf den Markt werfen sollen.
1000-1150€ für ne 4080 Leistung (die auch 500-800€ zu teuer ist) ist schmarn.
Die Preise machen grad alles an Leistung plus und features kaputt.
GCD, Monolith, Raytracing, DLSS3, PERF/WATT Ratio, alles toll, oder manchmal auch nicht, aber im Grunde alles gute Karten mit einem Plus zur vorherigen Generation.

Aber weil beide Lager gierig geworden sind wegen Mining und das weggebrochene Geschäft jetzt irgendwie retten müssen, wollen Sie dir verkaufen das die Zukunft in 1500€ Grafikkarten steckt. Dafür bekomm ich 3 PS5 wenn ich eine kaufen könnte und die liefern mir am Ende die gleichen Games :D

Versteht mich nicht falsch, ich spiele liebend gern am Rechner, nutze sowohl nVidia als auch AMD, je nachdem. Aber genau diese GEN hat mich jetzt leider bei beiden im Regen stehen lassen. Beide sind ne Enttäuschung, vor allem beim Preis und dem gesamten Marketing. Was versucht wird uns PC Gamern hier zu verkaufen ist nichts anderes als "Gewinnmaximierung nach Mining Boom Ende". Falsche Namen, schlechte Werte, buggy Hardware, überzogene Preise. Ich hab kein bock mehr.
 
  • Gefällt mir
Reaktionen: McTheRipper, cbow, orioon und 4 andere
  • Gefällt mir
Reaktionen: Master Chief !
Hat man doch schon bei der 3090 gesehen. Ist die neue GEN zu schwach (v.A. Preis/Leistung) werden die alten wieder teurer.

Hat doch jeder, jeden Mondpreis gezahlt die letzen Jahre.....

Wird sich erst ändern wenn die Nachfrage komplett einbricht.
 
am Ende sollten wir doch froh sein das AMD überhaupt auf dem Level Karten anbietet. So schlecht kann die 7900XTX für Gamer nicht sein schlägt sie in manchen Spielen sogar eine 4090. Raytracing opfern doch die meisten eh für FPS auch im grünen Lager. Nur die 7900 XT verstehe ich nicht 100€ Unterschied, WTF, hätten sie 16GB gemacht und 899€ aber so was soll das.

da nehmen sich beide nichts, seht her wir bieten auch günstigeres Produkt was euch zum Kauf der teueren Karte bewegen soll und total sinnlos ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kuestennebel79 und danyundsahne
coral81 schrieb:
Mir kommt es so vor als ob die 2 Stromschleudern in der Hochphase des Minnigs designt worden sind.
Nach dem Motto , wenn interessiert schon der Wattverbrauch im Idle.
Weil du du dich auf Igor beziehst, er hat dazu was treffendes gesagt.
Es ist durchaus anzunehmen, dass AMD beide Karten nachträglich noch etwas höher getaktet und mit einem großzügigeren Power Limit (TBP) versehen hat als man merkte, was sich mit Ada wirklich anbahnt. Das wirkt etwas wie bei Polaris, als man der RX 480 seinerzeit im allerletzten Moment deutlich mehr Power spendierte, dabei aber nicht nur im Korsett des einzelnen 6-Pin-Steckers stecken blieb, sondern auch die Standards für den PEG sprengte und deutlich überschritt.
So oder so ähnlich wird es abgelaufen sein, AMD hat sich mit den Karten völlig verschätzt. Ob es womöglich daran lag, dass Ada laut der Gerüchteküche ursprünglich weiter bei Samsung vom Band laufen sollte und man sich alleine auf den Vorteil der TSMC Fertigung verlassen hat? Wir werden es vermutlich nie erfahren.

Die Karten von AMD sind nicht schlecht. Man hat RDNA2 genommen, die RT Leistung verbessert und die Chipfertigung durch Chiplets kostenoptimiert. Daraus hätten gute Karten in der Leistungsklasse einer 3080/3090 (Raster und RT) zu günstigen Preisen werden können.

Eines hat man dabei aber scheinbar völlig verfehlt und zwar gehörig Leistung oben drauf zu legen. Im Nachhinein hat man nun die Karten bis zur Kotzgrenze im Takt hochgeprügelt. Statt günstiger und konkurrenzfähiger Mittelklasse, versucht man nun in der Oberklasse mitzuspielen, mit ineffizienten, unausgereiften und oben drauf überteuerten Karten.

Nvidia hat man für die RTX4080/12 gescholten, die vorgestellten Karten hätten in meinen Augen bestenfalls als 7800XT/7800 auf den Markt kommen dürfen. Mit vernünftigen Taktraten, der beworbenen hohen Effizienz und zu "anständigen" Marktpreisen. So aber sind die Karten maximal für AMD ein "Gewinn", für Käufer aber eigentlich absolut uninteressant.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Czk666, ComputerJunge, DeadEternity und eine weitere Person
Bulletchief schrieb:
Für die 4090 sollte man ja eher schon 4k betreiben, da sonst Performance brach liegt...
Und selbst da kommt sie aktuell bei einigen Spielen ins CPU Limit.
 
  • Gefällt mir
Reaktionen: Laphonso
Zomb2k schrieb:
Raytracing in Ada verdient den Namen immer noch nicht, weil man immer noch nicht wirklich ohne großen Performance Verlust mit Raytracing ohne DLSS/FSR spielen kann.
Bis auf Portal RTX habe ich in den ganzen Games die letzten Wochen DLSS ausgelassen, trotzdem die Framegeneration in Spiderman schlicht hysterisch ist mit min fps von 120-130 oder sowas bei Ultra Raytracing settings und max 220+. Völlig gaga 😂 Hier muss AMD sowieso irgendwie etwas kontern....

Die 4090 schiebt so brutal fps, dass sie Raytracing momentan ohne DLSS Notwendigkeit stemmt.
 
  • Gefällt mir
Reaktionen: PHuV
Mh, sehe das auch so, technisch ist die 4080 deutlich interessanter. War bei meiner geliebten 6900XT vor zwei Jahren nicht so.
Naja, immerhin spare ich so Geld...
 
Mal grobe Anhaltspunkte... Wird in der Praxis 30-50€ höher liegen...

Powercolor XTX OC Hellhound 1439,90€
Powercolor 7900 XTX 1230,46€
Powercolor OC Red Devil 1439,90€
Asrock 7900 XTX AQ 1749,89€
Asrock 7900 XTX MBA 1207,85€
XFX RX 7900XTX MBA 1218,53€

Das ganze ohne Gewähr
 
Zuletzt bearbeitet:
Sehr schön, dann warte ich mal auf eine 7700 oder 7600 zu vernünftigen Preisen ;)
 
  • Gefällt mir
Reaktionen: danyundsahne
Cl4whammer! schrieb:
Was lernt Nvidia aus dem Ganzen? Nächste Gen die 5090 erneut zum 2x Preis verticken :freak:
:daumen:
Och bei 85% Marketshare klappt das sogar ;) Das war absehbar damals mit der Pascall TITAN.. aber hey, wir hatten ja alle keine Ahnung.
 
  • Gefällt mir
Reaktionen: danyundsahne
200€ Unterschied, aber 65W Mehrverbrauch.
Man sollte auch mal die "laufenden Kosten" mit einkalkulieren:
Durchschnittlich wird wohl 2h am Tag gezockt. Das macht im Jahr ca. 700 Stunden. Bei Strompreisen von ca. 40Ct/kWh sind das ca. 18€/Jahr.
Ich unterstelle mal, dass man eine solche Karte 3 Jahre hält, macht 54€, die man gedanklich bei der AMD Karte aufschlagen sollte.
Damit wäre die technisch bessere Karte nur noch 146€ teurer....
 
  • Gefällt mir
Reaktionen: orioon und scheru
Malustra schrieb:
Was mich am allermeisten stört ist, dass es keine Full HD Tests mehr gibt.
Die meisten Gamer haben immer noch Full HD....
Und ich bleibe auf absehbare Zeit bei meinem Full HD 144hz IPS Monitor.
Denn gerade bei so hohen Preisen lohnt sich das um noch länger noch mehr Leistung aus den Karten zu holen.
Hier hast du einen guten Test mit FHD, WQHD und 4K
Bin da bei dir. Spiele lieber in FHD und habe dadurch mehr Luft für hohe FPS und hohe Details + Reserve für die Zukunft, z.B. RT wenn es denn mal Massentauglich wird. Der Geldbeutel dankt es einem auch.
Bulletchief schrieb:
Was nachvollziehbar ist, weil diese Karten bei 1080p komplett im CPU Limit hängen und nicht besser performen als die letzten Generationen.

Oder anders:
Für weniger als 1440p sollte man unter keinen Umständen diese Karten kaufen, weil es schlichtweg verbranntes Geld ist.
Für die 4090 sollte man ja eher schon 4k betreiben, da sonst Performance brach liegt...
Das stimmt pauschal nicht ganz. Hängt letztendlich stark von den Spielen ab, ob sie bereits im CPU Limit hängen oder nicht. Auch in FHD kannst du einen Sprung von 30-50% haben. Super Sampling ist u.a. auch ein Weg verfügbare Leistung abzurufen.
 
  • Gefällt mir
Reaktionen: Malustra und Geringverdiener
Laphonso schrieb:
Bei Dutzenden Raytracing Games von "keine Unterschiede" zu sprechen, ist für mich nur noch Getrolle.
Du musst schon genau lesen. Ich sagte nennenswerte Unterschiede die den FPS Verlust rechtfertigen.
Von den Spielen du du genannt hast, hab ich jetzt tatsächlich nur Cyberpunk gespielt. Ansonsten Battlefield 5 und Warzone 1.

In Cyberpunk nehme ich lieber die FPS mit und in den anderen beiden Spielen sehe ich tatsächlich keinen großen Unterschied.

Vielleicht müsste ich mal tatsächlich auf die Details achten und mir mal Videos ansehen wo genau die Unterschiede liegen sollen dass es mir auffällt.
 
  • Gefällt mir
Reaktionen: MiroPoch
Sun-Berg schrieb:
Und es wundert mich nicht. Ich empfehle meinen Kollegen, die wenig Ahnung haben auch meistens Nvidia, weil ich einfach keinen Bock habe mir nachher anhören zu müssen, dass dieses oder jenes Feature nicht geht oder fehlt oder sie noch warten müssen etc.
Ja, aber das widerspricht sich doch selbst....Leute die keine Ahnung haben, brauchen doch keine "Spezialfeatures" oder?
Ich habe auch etwas Ahnung, bin aber mit meiner RX5700 absolut zufrieden was sie kann. Und das reicht sehr gut aus um in 1440p meist sehr flüssig zu zocken. Und wenn es nicht mehr geht, ein paar Regler runter und gut is.

Oder meinst du, wenn Leute keine Ahnung haben, wie man Regler bedient, brauchen sie grundsätzlich das Schnellste was es gibt (RTX4090), damit sie sich keine Sorgen/Gedanken machen müssen?
Das kann es ja net sein oder...
Sun-Berg schrieb:
Da hat Nvidia einfach einen Vorsprung aufgebaut den AMD irgendwie nicht aufholen kann. Mit RDNA2 dachte ich schon, RDNA3 wirds richten, weil RDNA2 vergleichsweise gut war. Zumindest auf Augenhöhe mit der 3090. Aber falsch gedacht. RDNA3 wirkt leider unfertig. Es erinnert ein wenig an den Launch von Vega damals, auch wenn es nicht das selbe ist. Jetzt warten wir wieder auf Treiberoptimierungen und wenns dann nicht passt, auf RDNA4.
Naja, Treiberoptimierungen müssen beide Hersteller liefern. Ja ein wenig enttäuscht ist man von RDNA3, aber das waren die falschen Gerüchte die gestreut wurden, Wie immer.

Bei den Benchmarks die AMD gezeigt hat, stimmt das ja auch wie die Leistung einzuordnen ist.
Bei den Aussagen "up to X%" etc, wird immer geflunkert, das ist bei NV nicht anders....da stand auch auf den Folien "up to 2x-4x"...ja, aber dass es nur mit DLSS3 (also FG) geht, stand erstmal nirgends.
Und jetzt ist die 4080 genau lahm wie es die 7900XTX ist. Wow.

Von den 2-3x Leistungszuwachs (im Raster) aus den Gerüchten, sind alle weit entfernt. Da kommt ja nicht mal der Monsterchip AD102 ran für 2000€+. Sind auch nur 70% laut CB Tests.

Die Leute erwarten immer zuviel....bei jeder Gen, jedes Jahr das selbe. Und dann ist der Shitstorm eig nicht mehr zu ertragen.

Ich finde es halt schade für die Hersteller. Schlecht sind die Karten alle nicht. Auch die AMDs nicht. Dafür sind sie ja günstiger.
Und 20-30% flotter als eine 3090ti und das für 1150€ ist nicht so verkehrt.
Und wer eben diese Leistung bei NV sucht, der zahlt halt knapp 1400€. Hat dafür dann eben mehr RT Leistung.

Hat alles Vor und Nachteile.
 
  • Gefällt mir
Reaktionen: MiroPoch, .Sentinel. und schM0ggi
scheru schrieb:
Hat doch jeder, jeden Mondpreis gezahlt die letzen Jahre.....
Ich nicht, ich mache bei dem Quatsch mit der Preisspirale nicht mit und bin bisher bei meiner RX480 geblieben. Günstig in der Anschaffung, günstig im Verbrauch und gut genug für 1440p.

Aber ja, diese um jeden Preis haben muss Mentalität hat viel kaputt gemacht.
Und nun wird hier teilweise eine neue AMD Karte kritisiert, die auf Augenhöhe mit einer NV Karte, aber nach UVP 20% günstiger ist.
Ist das dann zu teuer? Oder wäre günstiger einfach nur verschenkt?
 
Zurück
Oben