Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Wichtig ist wie sich NVIDIA und AMD in UE5 mit den neuen karten so schlagen, sollte NVIDIA auch unter UE5 deutlich besser performen dann wirds sehr dunkel für AMD.
Diese ENGINE wird in den nächsten jahren noch viel stärker dominieren als UE4 und UE4 kam auch nicht gerade selten zum einsatz !!!
Ich konnte heute keine UE5 Benchmarks finden (demos), falls ihr welche gefunden habt, postet es mal bitte.;)
 
@MaxO Wird dein 3900x noch durch den 5800X3D ersetzt? :D

Zu den neuen AMD Karten :

Bin persönlich etwas enttäuscht. Lediglich in Sachen Preis kann AMD punkten, der Rest geht leider an Nvidia.

Und das obwohl ich alle Preise mittlerweile zu hoch finde.
 
  • Gefällt mir
Reaktionen: dedex6 und CrustiCroc
@Wolfgang

AMD gibt aber ehrlich zu, dass das Chiplet-Verfahren bei CPUs zwar Kostenvorteile bringt, jedoch zugleich Leistungsnachteile. Bei gleichem Takt hat Navi 21 im Vergleich zu Navi 31 eine zwischen 5 bis 10 Prozent schlechtere Latenz beim DRAM-Zugriff.
=> das wäre doch ein Vor- anstatt Nachteil für Navi 31. Eventuell die beiden Generationszahlen vertauscht?

und:

Der bei den CPUs genutzte „Infinity Fabric“ ist für GPUs nicht geeignet,
....
Darüber hinaus steigt die Latenz zum „Infinity Fabric“ um einen vergleichbaren Wert an.


Im vorherigen Absatz wird ja geschrieben, die GPU nutze keinen Infinity Fabric sondern die "infinity Fanout Links".
Ist das jetzt hinfällig? gibt es trotzdem einen (anderen) Infinity Fabric auf der GPU?
Bei sowas bin ich mir selbst nicht sicher ob ein Typo ist oder ich einfach eine technische Gegebenheit übersehe
 
Digensag schrieb:
Fury gegen GTX1080 ist nicht fair, viel später erschienen die karte von Nvidia.
Wie lest Ihr die Benchmark? Ich sehe hier was anderes:
https://www.computerbase.de/2015-07/sapphire-radeon-r9-fury-tri-x-oc-test/4/
Digensag schrieb:
Der gegner war 980Ti aber auch auf verlorenen posten, obwohl sie früher auf dem Markt kam, bin mir aber nicht sicher ?
Radeon R9 Fury 10.7.2015, siehe Test oben.
RTX 980 TI 1.6.2015
https://www.computerbase.de/2015-06/geforce-gtx-980-ti-test-nvidia-titan/
 
Zuletzt bearbeitet:
Ragnarök88 schrieb:
Das habe ich immer wieder gesagt. AMD hat auf den Folien immer von "up to" gesprochen und meinte damit ganz exklusiv Maximalwerte, was aber irgendwie keiner hören konnte oder wollte.
Auf alle Fälle waren AMD´s Angaben damit nicht gelogen aber sehr kreativ.
genau so is es....
und wehe man hat es mal klar benannt wurde man von allen angeriffen und die 7900xtx is doch top und werde nur knapp (10%) hinter der 4090 liegen
tja jetzt wurde man von der realität wieder eingeholt das es aber dann doch so dürftig is und die 4080 nur knapp schlägt oder gleich auf ist im raster is aber trz sehr entäuschend, gerade bei rt wirds aber noch deutlich statt aufzuholen is der abstand noch größer geworden
da sieht man doch wieder rdna is doch nicht so stark wie man dachte und wie schlecht der samsung 8nm doch gewesen ist
Ergänzung ()

Geringverdiener schrieb:
AMD muss sich auf gar keinen Fall verstecken, ihre Karten sind Bombe und können mit der 4090 (ohne RTX) mithalten.
bitte was mit der 4090 XD in welcher realität bist du denn ;)
weißt schon das die 4090 außer konkurrenz ist.....

meintest eher die 4080......
die karten sind keinesfalls bombe

1. hoher verbrauch im idle
2. sehr hoher verbrauch bei 4k144hz ezc.... geht gar nicht
3. viel höherer verbrauch
4. geringere effizienz

vom rt brauchen wir nicht reden.....
rasterleistung nur auf 4080 niveau ist dann schon sehr entäuschend
also zeig mir doch mal wo die bombe sind ;) und komm jetzt nicht mit dem preis XD
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Geringverdiener
PHuV schrieb:

Ja, richtig ! 980Ti kam vor Fury raus und war deutlich schneller unterwegs, zudem viel mehr OC Potenzial.
AMD ist einfach zu schwach für die erste Liga (4090, 1080TI, 980TI) und spielte in den letzten jahren immer in der zweiten. Es vergingen jahre bis die drei Musketiere da oben überholt wurden.

4090 muss sich überhaupt keine sorgen machen, wird sehr lange auf dem Thron bleiben.;)
 
Zuletzt bearbeitet:
Man kann das hin und her diskutieren, aber in dieser Form und zu diesen Preisen ist die Radeon RX 7900 Serie einfach nur enttäuschend.

Die müssen ein ganzes Stück mit ein Preisen runter. Eine 7900 XTX für 899 Euro und eine 7900 XT für 749 Euro würden Käufer finden.

Die RTX 4080 müsste irgendwann auch auf 1.000 Euro runter und dann hätte man eine ordentliche Oberklasse mit entsprechender Auswahl.

Wirklich High-End ist aktuell nur eine Karte und das ist die RTX 4090. Da muss Nvidia aufgrund der Ausnahmestellung gar nichts machen und wird das auch nicht tun.

Die möglichen 4090 Ti und 4080 Ti werden die Situation für Nvidia noch komfortabler machen. Sehr schade und eine vertane Chance seitens AMD.

Man kann nur hoffen, dass der zweite Wurf mit MCM dann im kommenden Jahr gelingen wird.
 
  • Gefällt mir
Reaktionen: Uncreative, scheru, Gerithos und 13 andere
Andi316 schrieb:
Der Test bei Hardwareluxx liest sich ganz anders. Dort kommt die XTX (viel) besser weg, wird sogar mit der 4090 verglichen :confused_alt:
nicht objektiv scheinbar oder cherrypicking....
igorlsab hat im endeffekt die selben ergebnisse wie pcgh oder computerbase.....
die xtx mit der 4090 zu vergleichen obwohl hier welten dazwischen liegen is utopisch oder man is in einer anderen realität mit roter brille unterwegs

fakt ist die 4090 ist aktuell konkurenzlos
 
Ja die 4090 ist konkurrenzlos, auch in Sachen Preis. Den vergessen hier Einige sehr oft.
 
DriveByFM schrieb:
Ausgehend von meiner jetztigen 3090, macht nur ne 4090 Sinn, die 7900XTX wäre da nur ein Sidegrade, leider. Naja mal sehen wo die Preise hingehen, 2k wollte ich jetzt nicht unbedingt aus dem Fenster werfen.
hättest du vorher upgraden sollen als die 4090 zu release easy zu bekommen war.
so hättest noch was für 3090 bekommen und hättest für weit weniger geld aufrüsten können.
jetzt kosten die 4090 zwischen 2700 und 3000 aktuell

ich hab meine 4090 asus tuf für 2100 bekommen und für meine alte 3090 noch 1100 bekommen so gesehen war das ein super deal
 
Gutes Fazit m. E. von Daniel Owen und Hardware unboxed.

Der vielgelobte Preisvorteil: nun ja, warten wir auf die Custom-Modelle, denn das AMD-Referenzdesign scheint ja nicht so pralle zu sein (einschl. starkes Spulenrasseln, s. GamersNexus).. Wenn die XTX-Customs bei 1.200 - 1.250 € liegen sollten und es weiterhin Customs der RTX 4080 ab 1.350 € geben sollte, schrumpft der vermeintliche Preisvorteil auf gerade mal 100-150 €. Da frage ich mich doch: wie stark wiegt diese Summe bei Leuten, die bereit und fähig sind, um 2.500 € für einen PC auszugeben, wenn sie für rd. 5% Aufpreis deutlich besseres RT, (derzeit noch) überlegenes DLSS 3..0 und bessere Effizienz erhalten? Das kann der größere VRAM, der AMD m. E. nicht komplett aufwiegen.

Ich glaube, viele Testredaktionen unterschätzen die Bedeutung , die solvente Käufer in der Preisklasse ab 1.000 € diesen Features (insbes. RT) beimessen, zumal die Rasterizing-Leistung ja, sieht man sich viele Tests an, alles in allem zwischen RX 7900XTX und RTX 4080 ungefähr gleich ist (+/+ 5% mit einzelnen Ausreißern bei bestimmten Games). Wer so viel Kohle hinbälttert, erwartet, glaube ich, schlicht mehr als "nur" flüssiges gameplay @ UHD "ohne alles". Und da ist "Team grün" nun mal objektiv besser aufgestellt, egal, ob man die mag oder nicht. Wie Mr. Owen richtig feststellt, überteuert sind sie derzeit beide.

Aber ich kann mich irren, die Verkaufszahlen der nächsten Monate werden es zeigen.

LG N.
 
  • Gefällt mir
Reaktionen: CrustiCroc
Thepunisher2403 schrieb:
da sieht man doch wieder rdna is doch nicht so stark wie man dachte und wie schlecht der samsung 8nm doch gewesen ist
Diese Unwissenheit.
Samsung 8nm gehört zu den 10nm Fertigung und Nvidia, soweit ich weiß, nutze die neuste Revision, und AMD nutze N7 also ohne EUV! Da ist die Transistordichte nur etwa bezogen auf N7 nur so etwa 30% weniger. Du siehst Samsung hat auch manchmal sehr akzeptable Nodes!
Und jetzt zu RDNA2 zu RDNA3: da ist viel Fortschritt reingeflossen, aber auch in gewisser Weise auch Rückschritte und zwar verlagert die Aufgabenverteilung/Auffüllen extrem auf den Treiber.
Der Wechsel von 7nm auf 5nm gibt es sogar offizielle Zahlen von TSMC: 15% mehr Leistung! Mehr ist nicht drin! Und dann hasst du noch die N6 Speicher. RDNA2 ist eine der besten Architekturen ( wenn man RT ausklammern)
RDNA3 mache ich mir gerade sehr viel Sorgen ob sie doch nicht zuviel in die Treiber und Gamesunterstützung verschoben haben, weil viele Spiele auch immer noch bevorzugt gegen Nvidia-Karten eher getestet und auch optimiert werden.
Da wurde viel auf reine Wirtschaftlichkeit (Produktionskosten) optimiert.
 
Zuletzt bearbeitet:
Forza Horizon 5 - Guanajuato
https://www.purepc.pl/test-karty-gr...i-cena-premiera-architektury-rdna-3?page=0,11

Red Dead Redemption 2 - Eastward Bound
https://www.purepc.pl/test-karty-gr...i-cena-premiera-architektury-rdna-3?page=0,15

Cyberpunk 2077 - North Oak
https://www.purepc.pl/test-karty-gr...-i-cena-premiera-architektury-rdna-3?page=0,8

Horizon Zero Dawn - Heart of Mother
https://www.purepc.pl/test-karty-gr...i-cena-premiera-architektury-rdna-3?page=0,13

Dying Light 2 - Pilgrim's Path
https://www.purepc.pl/test-karty-gr...i-cena-premiera-architektury-rdna-3?page=0,10

Metro Exodus - Tajga
https://www.purepc.pl/test-karty-gr...i-cena-premiera-architektury-rdna-3?page=0,14

Marvel's Spider-Man: Miles Morales - Underground
https://www.purepc.pl/test-karty-gr...i-cena-premiera-architektury-rdna-3?page=0,16

PurePC testet immer die mit abstand fordernsten Szenen für die Hardware, schaut euch die Benchmarks lieber nicht an wenn ihr AMD fans seit. :o

Extrem enttäuschend, bin schockiert. Autsch ! 😩

Das einzige Spiel wo AMD sehr gut performed ist Call of Duty MW2

Call of Duty: Modern Warfare II - Wetwork
https://www.purepc.pl/test-karty-gr...-i-cena-premiera-architektury-rdna-3?page=0,7
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MeisterOek und Khalinor
Fegr8 schrieb:
ahh der große experte....
1. samsungs 8nm war vergleichbar mit tsmc in 10nm.......
man sah doch deutlich das der verbrauch viel höher war und der takt war auch sehr niedriger.....
2. amd war nur deshalb mit rdna 2 so stark weil man von tsmc weg ging (sah man doch jetzt bei gleicher fertigung etc....
3. mag sein das viel entwickelt wurde etc aber fakt ist davon kommt auf der straße nichts an und das ist nun mal das entscheidene.....
aber ja glaub mal weiter an die roten samariter etc aber naja so ist das mit den roten fanbrillen trägern wenn man die wahrheit nicht wahrhaben will ;)

ich finds nur lustig das niemand vor den tests hören wollte ;)
Fakt ist jedoch
das dies nun mal sehr entäuschend ist
rasterleistung nur auf 4080 niveau
rt kaum verbessert
schlechtere effizienz
höherer verbrauch
schlechter verbrauch im idle etc....
eklanter verbrauch bei 4k144hz
und dann sind das nun mal keine guten karten mehr eher aktzeptabel
Ergänzung ()

Geringverdiener schrieb:
immer diese amd fanboys
ja weil die leistung bei weitem nicht ausreicht um das flagschiff zu erreichen deswegen gab es auch keine vergleichswerte bei der vorstellung.... und sie schlagen die 4090 eben nicht.... erzähl nicht solche fake news....(und komm mir jetzt nicht mit fhd oder wqhd da is man im cpu limit bei der 4090)
auch hat nvidia nicht rtx einführt so heißen ihre gpus...
rt ist ein offener standard etc diese technik gibt es schon seit zig jahren nur reichte bisher die leistung nicht aus....
ahhh jetzt kommt das wieder mit den wundertreibern also bitte.....
lass es lieber.....
Ergänzung ()

Digensag schrieb:
und warum wurde dann miles morales nicht mit rt getestet wenn du schon behauptest das se immer die top fordernsten szenen nehmen....
Ergänzung ()

Exar_Kun schrieb:
immer diese wundertreiber geschichte....
wird die nicht langsam alt wie ein kalter kaffee
Ergänzung ()

Daggy820 schrieb:
seit ihr echt so in eueren welt oder wie?
diese wundertreiber geschichte gibt es nicht.....
wenn es hoch kommt vllt 2 bis 5 % aber in dieser zeit hat auch nvidia ihrer treiber etas verbessert etc..... das gleicht sich im endeffekt wieder aus....
dazu kommt die ineffizient der höhere verbrauch aber plötzlich is das ja kein thema mehr weil amd nicht mehr die effizienz krone hat....
bei ampere hat man die drauf eingeschlagen als nvidia mehr verbraucht hat komisch das es jetzt bei amd kaum zu sprache von euch kommt ;)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Geringverdiener und CrustiCroc
Thepunisher2403 schrieb:
ahh der große experte....
1. samsungs 8nm war vergleichbar mit tsmc in 10nm.......
man sah doch deutlich das der verbrauch viel höher war und der takt war auch sehr niedriger.....
2. amd war nur deshalb mit rdna 2 so stark weil man von tsmc weg ging (sah man doch jetzt bei gleicher fertigung etc....
3. mag sein das viel entwickelt wurde etc aber fakt ist davon kommt auf der straße nichts an und das ist nun mal das entscheidene.....
aber ja glaub mal weiter an die roten samariter etc aber naja so ist das mit den roten fanbrillen trägern wenn man die wahrheit nicht wahrhaben will ;)

ich finds nur lustig das niemand vor den tests hören wollte ;)
Fakt ist jedoch
das dies nun mal sehr entäuschend ist
rasterleistung nur auf 4080 niveau
rt kaum verbessert
schlechtere effizienz
höherer verbrauch
schlechter verbrauch im idle etc....
eklanter verbrauch bei 4k144hz
und dann sind das nun mal keine guten karten mehr eher aktzeptabel
Ergänzung ()


immer diese amd fanboys
ja weil die leistung bei weitem nicht ausreicht um das flagschiff zu erreichen deswegen gab es auch keine vergleichswerte bei der vorstellung.... und sie schlagen die 4090 eben nicht.... erzähl nicht solche fake news....(und komm mir jetzt nicht mit fhd oder wqhd da is man im cpu limit bei der 4090)
auch hat nvidia nicht rtx einführt so heißen ihre gpus...
rt ist ein offener standard etc diese technik gibt es schon seit zig jahren nur reichte bisher die leistung nicht aus....
ahhh jetzt kommt das wieder mit den wundertreibern also bitte.....
lass es lieber.....
Ergänzung ()


und warum wurde dann miles morales nicht mit rt getestet wenn du schon behauptest das se immer die top fordernsten szenen nehmen....
Ergänzung ()


immer diese wundertreiber geschichte....
wird die nicht langsam alt wie ein kalter kaffee

Mit RT wurden Dying Light 2 & Cyberpunk 2077 getestet.

https://www.purepc.pl/test-karty-gr...i-cena-premiera-architektury-rdna-3?page=0,18

https://www.purepc.pl/test-karty-gr...i-cena-premiera-architektury-rdna-3?page=0,19

Raytracing ist bei AMD nicht zu gebrauchen, welten ! Die Funktion lieber direkt auf "OFF" schalten.
Wie attraktiv die RTX4080 plötzlich geworden ist, unglaublich. So nicht AMD.
 
  • Gefällt mir
Reaktionen: CrustiCroc
RDNA3 also weniger effizient als Nvidia, hat sich wieder umgedreht. Nvidia-Einstiegskarten wie RTX 4050 aber sicherlich im Preisbereich (auch UVP) von minimum 350-400 Euro. Trotz womöglicher Weiterkürzung auf jetzt 4 PCIe-Lanes (die müssen ja sparen!!!1). Und auch wenn sie wie fast alle Karten für Luxus-Ray-Ban-Tracing so tauglich sein werden wie Fallout 4+5+6+7 als Fallouts.

Ergo wird die Ablösung für meine 1050ti entweder eine von mir undervoltete RX 6600, wenns mal wieder eine in einem ordentlichen Angebot gibt (für 240,- war schon mal ein Modell zu haben, da kann man immerhin drüber reden). Oder irgendwas Gebrauchtes. Geld hätte ich. Ich sehs aber nicht ein. Da wir hier von Grafikkarten reden: Ich sehs nicht ein -- im Wortsinn.

Vielleicht kommt ja doch noch irgendwann die Kyro 3 to the rescue. :daumen:
 
Clutch04 schrieb:
ist es eigentlich nicht.....
das war jetzt nur bei ampere so das hier der big chip eingesetzt wurde....

deswegen ist die 4080 auch eine 80er karte.....
dazu kommt das die 90er klasse ja auch dazu kam als titan nachfolger
 
Zuletzt bearbeitet von einem Moderator:
Thepunisher2403 schrieb:
aber ja glaub mal weiter an die roten samariter etc aber naja so ist das mit den roten fanbrillen trägern wenn man die wahrheit nicht wahrhaben will ;)
Hauptrechner und Notebook haben grüne Karte (nur mein kleines Media und Entertainment hat rot).... ich glaube an den gelben Samariter, und meine Brille ist rot-grün...ich möchte nicht auf 3D verzichten.

Hab ja gesagt das Samsung 8 ein 10nm war aber für ein 10nm waren die ziemlich gut. Und du kamst mit der Aussage Samsung ist Schlecht. Ja öfter war Samsung deutlich schlechter, aber im 10nm haben die sich gut geschlagen.

Habe nie gesagt das Rdna3 in dieser Form das grüne Lager schlagen kann. Und irgendwie vergessen die Leute vor RDNA2 gab's auch RDNA und da gabs kein Shrink und trotzdem hat man locker 55% effizienter machte. Und das wurde hier einfach verfehlt und rein auf Produktionskosten kalkuliert. Zum einen verstehe ich das man um den Chipletdesign nicht herumkommt und hier was neues ausprobiert, aber da wurde Potential verschenk und diese vielen Bugs und Powerlimits. Naja zumindest werde ich bestimmt keine Navi31/32 kaufen.
Nur auf die Navi33 bin ich gespannt, denn diese wird ja ein N5 Monolith.
 
Zuletzt bearbeitet:
Das Fazit ist Lustig günstig bei über 1000 Euro für eine Grafikkarte ? Wenn man 1000 Euro dafür übrig hat dann wird es keine Rolle spielen ob man nun noch 100 oder 300 drauflegt. ;)
 
  • Gefällt mir
Reaktionen: Hopa
Zurück
Oben