Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

MrHeisenberg schrieb:
Und als Grundlage für deine Aussage dient ein einziger Ausreißer: CoD.
Es performen nicht nur einige schlechter, sondern alle bis auf eines.

Du hast offensichtlich nicht alle Grafiken angesehen oder hast Probleme mit Zahlen. Bei Raster-Grafik sind 7900XTX und 4080 im Durchschnitt gleich auf. Wenn alles bis auf COD so schlecht performen würde könnte es gar nicht zu so einen Ergebnis kommen. Ausgenommen natürlich COD wäre eine extreme Ausnhame, was es nicht ist. Aber OK ich bin raus.
 
MrHeisenberg schrieb:
Auf zwei ganzen Spielen? Das nennt sich Cherrypicking. Gibt auch mehrere Gegenbeispiele: Tiny Tinas Wonderland, Guardians of the Galaxy oder Deathloop und alt sind die Spiele definitiv nicht.
Gerade Tiny Tinas Wonderland ist ein schönes Beispiel, wo offensichtlich im Code etwas noch nicht passt, sei es Treiber und/oder Entwickler. Same dev, same engine, same graphics wie Borderlands 3 und hier ist die 7900xtx vor der 4080.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle und Zer0Strat
es hat sich bei einigen "Usern" einfach festgebissen, dass man nur Intel oder Nvidia kauft.
Kenne ich so auf der Arbeit und im privaten Bereich.
Wenn ich sage ich kaufe privat ne AMD, dann kommt nur als Antwort "wer kauft denn ne AMD??!".
Und das betrifft GPU und CPU gleichermaßen.

mir persönlich gefällt die 7900XTX, in anderen Tests kommt die besser weg. Die Preise eskalieren trotzdem zu sehr.
RT bräuchte ich generell überhaupt nicht, da die fps damit einfach meh sind.
 
  • Gefällt mir
Reaktionen: danyundsahne, Geringverdiener, KennyPowers und 3 andere
anthony274 schrieb:
Anders ist es auch bei GPUs nicht
Doch schon, bei ryzen hatten wir Glück, dass genug Leute bewusst sich für AMD entschieden haben, obwohl es besonders in der ersten Iteration eigentlich schlechter war als Intel, aber die Leute wollten den Ansatz unterstützen und das hat sehr gut funktioniert. Bei den GPUs werden wir es diese Generation sehen ob es auch funktioniert aber bisher hat AMD im großen und ganzen zu recht die Rücklichter gesehen, rdna2 mal ausgenommen.
 
Ich denke auch das es da noch am Treiber hadert. Die Leistung ist doch arg am Schwanken.
Auch der Stromverbrauch im Idle ist ne Treiberbaustelle.
Mal schauen ob die das noch in den Griff kriegen.

Wenn die Karten ihre Leistung über mehrere Spiele konstanter abrufen können,dann sehen sie gar nicht so schlecht aus und liegen dann dort wo man sie eingeschätzt hat.
 
  • Gefällt mir
Reaktionen: rumpeLson
Bengart schrieb:
Ich glaube AMD hat in der Vergangheit versucht gleiche/bessere Leistung zu einem günstigeren Preis anzubieten. Die Leute kommen deshalb nicht von NV rüber.
Versucht haben sie es, leider nicht konsequent. Ich finde vor allem schlecht, dass die Compute-Leistung im Vergleich weiterhin so gering ist.

Es könnte daher sein, dass ich beim nächsten Update zum ersten Mal zu nVidia wechsle.
 
Vor allem haben die Leute auch die nicht ganz so gute Ryzen 1 Generation gekauft weil sie mit 6-8 Kernen auch einen großen Vorteil zu Intel mit immer noch nur 4 Kernen hatten. Gerade in Anwendungen hat sich das schon richtig gelohnt.
Jetzt bei den 7000er RX GPUs hat der Nutzer nicht wirklich einen benefit von der neuen Architektur, ganz im Gegnenteil sogar.
 
  • Gefällt mir
Reaktionen: Wintermute
ComputerJunge schrieb:
Versucht haben sie es, leider nicht konsequent. Ich finde vor allem schlecht, dass die Compute-Leistung im Vergleich weiterhin so gering ist.

Es könnte daher sein, dass ich beim nächsten Update zum ersten Mal zu nVidia wechsle.
Schön, aber darum ging es ja nicht. AMD hat sowohl im CPU als auch GPU Bereich Produkte gehabt, die besser waren als ihr NV/INTEL Pendant. Dann hätten ja alle hier direkt wechseln müssen. Das ist nunmal nicht passiert. Compute ist ja was anderes.
 
Jetzt ohne den kompletten Thread durchzulesen: Weiß jemand, was Far Cry 6 so viel anders macht, dass AMD selbst die 4090 schlägt?
Ich mein klar, AMD gesponsertes Spiel bla bla...aber selbst mit Optimierungen hab ich noch nie so einen riesigen Sprung gesehen.
 
Cleric schrieb:
Diesen Sprung von Samsung zu TSMC macht NVIDIA jetzt aber genau einmal. Während AMD seine Performancesteigerungen mit einem deutlich kleinen Schritt beim Prozesswechsel hinbekommen hat.

Deshalb meine Frage, Skepsis oder wie auch immer, ob NVIDIA diesen Schub, den sie vor allem dem Foundry-Wechsel zu verdanken haben, in der nächsten Generation wiederholen wird.


AMD hatte so einen Großen Schritt mit RDNA, weshalb Sie einen so einen großen Sprung gemacht haben. Da wir aber nicht wissen, welche Fertigung bei der nächsten Generation der jeweiligen Hersteller gewählt wird, nun teilweise durch Chiplets mehrere fertigungsstufen gemischt werden und auch bei der gleichen fertigung Parameter wie Packdichte etc. stark variieren können, ist es auch nicht sinnvoll zu philosophieren, wie groß der nächste Sprung ist. Dazu kommen auch andere Faktoren. Z.B. wie dicht am Limit möchte man die GPU Takten, geht man einen eher effizienten Weg und was liefert die Konkurrenz. Ein Beispiel dafür nennst du ja selbst. Turing. Da hatte AMD nichts in der Pipeline, was auch nur annähernd eine Chance hatte und deswegen ist Nvidia den weg gegangen, die Chips konservativer zu Takten. unlimitiert hatten Sie ja durchaus viel Spielraum und Nvidia hätte auch damals schon eine 350 Watt Karte bringen können. War eben nicht nötig. Vega hatte keine Chance und auch in 7nm (Radeon VII) war man zu weit weg.

Am Ende kommt es eh nur drauf an, wie ist der Stand zwischen den aktuellen Produkten einer Generation.

Wenn man in einer Generation langsamer / weniger effizient ist, muss man die nächste eben höher Springen, um auf Augenhöhe zu bleiben. Ob man das durch einen großen Fertigungssprung macht, eine super Architektur oder was anderem, ist völlig egal. Es zählt das Ergebnis. Nun haben beide nacheinander einen riesigen Sprung gemacht und beide nutzen eine vergleichbare Fertigung, so dass andere Faktoren zählen.
 
  • Gefällt mir
Reaktionen: coral81 und Wintermute
shaboo schrieb:
Am Ende wird auch hier wieder massenhaft zur 4070Ti gegriffen werden: weil's Nvidia ist, weil sie nicht teurer ist und weil unter WQHD auch die 12 GB VRAM die meisten nicht wirklich stören.
AMD wird vermutlich nichts übrig bleiben, als über den Preis zu gehen.
 
mesohorny schrieb:
Die 4090 ist dafür mit Kanonen auf Spatzen geschossen und fast Vollpreis für die alte Generation auszugeben, da stimmt der Verstand nicht zu.
Naja, bei der 4090 habe ich mir gedacht, die hält dann eben eine Generation länger, wodurch sich dann der Preis auch etwas relativiert. Der Stromverbrauch ist mir egal, da ich sowieso nicht den ganzen Tag zocke! Abgesehen davon, ist es echt mal eine freude, so viel Performance bei UWQHD zu haben.
 
  • Gefällt mir
Reaktionen: shaboo
Die Karte ist doch eigentlich in Ordnung, weiß nicht was die Leute so haben.
Preis ist besser als wie bei den Grünen, und auf RT kann man getrost verzichten.
Weiß zwar immer noch nicht was dieses RT gedöns sein soll, mehr Schatten ? Woow.... wers mag, es schaltet ehh fast jeder diesen Rt ab.

Hab selber nen 4090, und in den Optionen schalte ich zu 99% diesen mist ab.

Die Preise werden noch fallen, bisschen noch warten und die AMDs sind dann unter 1000€ zu haben, auch die 4080 werden noch sinken.

Im gesamten, hat die Nvidia leicht die Nase vorne diese Jahr, man kann getrost ROT oder GRÜN kaufen, macht man bei beiden nichts falsch.
 
  • Gefällt mir
Reaktionen: Geringverdiener und manfredham
Bengart schrieb:
Der Treiber reicht um auf 4080 Niveaau zu kommen. Dann kann es ja nur besser werden mit neuen Treibern. Mal schauen, ob das stimmt.
Man kann nicht rumposaunen, man sei fast auf 4090 Niveau, um dann on point auf der kleineren Karte zu landen. Wenn AMD Leute verarscht, dann darf man sich über schlechte Laune nicht wundern.
 
Lustig wie Nvidia falten und walten kann, weil Intel und AMD es einfach nicht gebacken bekommen, anständige Produkte anzubieten.

Ich fahre seit Jahren mit einer R290 resp. 1070 GTX weil ich es nicht einsehe, diese Mondpreise zu bezahlen. Auch nicht für die gebrauchten. Wird halt nur noch PS4 gezockt, idc.
 
AMD hat wohl dieses Ergebnis als Grundlage für ihre Präsentation genommen. Wer weiß vielleicht werden die ganzen neuen Spiele mit der Unreal Engine 5 auch so gut laufen auf den RDNA 3 Karten.
1DE4623C-A591-4B4E-9620-C892CFBBF9F4.jpeg
 
Zuletzt bearbeitet:
Sly123 schrieb:
Dankeschön für den Test.
Mir fällt von vorherein auf das AMD gekonnt den wieder stärkeren Euro ignoriert hat.
Leider ein kleiner Fail.
Was kann AMD für die Preisschwankungen wegen dem Euro/Dollar Kurs? Und woher will man das als aussenstehende Person wissen ob AMD den wirklich minimal erstarkten Euro nicht schon mit eingerechnet hat? Bisschen zuviel nicht wissen um das ganze einen Fail zu nennen.
 
muvmend schrieb:
für dieses Geld kriegst du eine RX6800 XT (+- 650, war auch schon unter 600) - schneller als eine 3070ti
Dann schau Dir bitte mal die aktuellen Preise an, die sind höher.
 
Bengart schrieb:
Schön, aber darum ging es ja nicht
Wie das?
Es mag ja sein, dass man in diesen Threads immer das Gefühl bekommen muss, man befindet sich hier auf GamerBase.

Deswegen ist Compute trotzdem nicht minder relevant - und bei den mittlerweile erklommenen Preisregionen finde ich es produkttechnisch als Verkaufsargument unverzichtbar.
Und das meine ich mit nicht konsequent. Meine 400€ VEGA war in Compute noch vergleichsweise richtig gut. eine 1000€ XT ist aber vergleichsweise schlecht. Und ich glaube auch, dass unter der Gesamtheit der Käufer der großen und teuren nVidia-Karten mehr Kunden auf dieses Feature achten, als es in diesen Spielebenchmark-Balken-Threads ersichtlich wird.

Bei den RyZen CPUs hat AMD m. E. aber Erfolg gehabt, die Marktanteile waren ja gestiegen. Das lag eben auch daran, dass die CPUs über mehrere Generationen überzeugend gut waren (zumindest für diejenigen wie mich, die nicht von Hochfrequenzkerne). Das ist doch ein Beweis, dass auch AMD zum Wechseln bewegen kann.

Eine Schwalbe allein aber macht halt noch keinen Sommer.
 
Taurus104 schrieb:
Was kann AMD für die Preisschwankungen wegen dem Euro/Dollar Kurs? Und woher will man das als aussenstehende Person wissen ob AMD den wirklich minimal erstarkten Euro nicht schon mit eingerechnet hat? Bisschen zuviel nicht wissen um das ganze einen Fail zu nennen.
Der Preis passt schon - 999 USD für die XTX ist immer ohne VAT / MwSt. in den USA. 999 Euro + 19% MwSt. wären dann 1188,81 EUR.

Beim jetzigen Dollarkurs sind 999 USD = 946 EUR + Steuer macht das 1125,74 EUR.

Insofern passt der Preis schon recht gut ins Bild.
 
Zurück
Oben