News Radeon RX 9070 XT: Spiele-Benchmarks und neuer Hinweis auf 3 GHz

DaysShadow schrieb:
Super, AMD hat mit ihrer neuen Reihe damit also die über 2 Jahre alte Konkurrenz eingeholt.
Ich sags immer wieder gern: baue erst mal deine eigene GPU bevor du so nen Käse verfasst. 🥳
 
  • Gefällt mir
Reaktionen: SweetOhm, Czk666, Kama434 und 3 andere
Wenn das stimmt und die Karte über 400 € kostet, wird es dem Marktanteil nicht helfen.
 
DaysShadow schrieb:
Super, AMD hat mit ihrer neuen Reihe damit also die über 2 Jahre alte Konkurrenz eingeholt. Auf jeden Fall ein Grund zum Feiern 🥳

Was für einen Mittelklassechip für voraussichtlich 500-600€ nicht schlecht ist.
Die RTX 5070 ist keinesfalls schneller und wird mit 12 GB, was klar zu wenig ist, 650€ kosten.

Eine grössere Radeon wird es diese Gen nicht geben.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, SweetOhm, Pisaro und eine weitere Person
DaysShadow schrieb:
Super, AMD hat mit ihrer neuen Reihe damit also die über 2 Jahre alte Konkurrenz eingeholt. Auf jeden Fall ein Grund zum Feiern 🥳

Andererseits, eine etwaige 9090 XTX mit +- RTX 4090 Leistung, wenn wir die Stufen einfach nur stumpf weiter gehen, für wieder um die 900-1000 Taler ist dennoch nicht verkehrt.
Mal nicht vergessen: RDNA4 wird nicht auf High-End-Leistung ausgelegt, weil zu viel Chipfläche benötigt worden wäre und das im Endeffekt teurer gewesen wäre und für weitere Probleme gesorgt hätte. Der Ansatz Multi-Chip-Modul ist in diesem Bereich offenbar einfach noch nicht ausgereift, wie die liebe 7900 XTX ja gezeigt hat (die übrigens bereits in vielen Titeln unter Rasterisierung schneller war als eine RTX 4080, insofern ist der "eingeholt"-Teil sowieso Unsinn).

Wie auch immer, soweit wir wissen, ist es nicht unbedingt so, dass man mehr Leistung nicht theoretisch könnte. Man kann nur zum jetzigen Zeitpunkt und aus der jetzigen Marktsituation heraus schlicht nicht sinnvoll konkurrieren, was deutlich mehr Faktoren als nur die reine Leistungsfähigkeit umfasst.

Davon mal abgesehen ist das "stumpfe Weitergehen der Stufen", wie du das grobe gedankliche Überschlagen der Mehrleistung im High-End hier nennst, genauso kein sinnvoller Ansatz mehr - um das zu erkennen, musst du dir nur den gewaltigen Unterschied zwischen den Chips der RTX 5090 und 5080 ansehen, der sich voraussichtlich auch in fps niederschlagen wird.
Die Überlegung an sich ist aber ohnehin müßig, denn es wird in den kommenden zwei Jahren kein High-End von AMD geben, so bedauerlich das ist. Und wer weiß schon, wie es danach aussehen wird?

Davon mal abgesehen: Blackwell wird voraussichtlich auch keine großen Sprünge machen, zumindest nicht abseits der Spitze.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, Poke und DaysShadow
Taxxor schrieb:
Die RT Performance wirkt hingegen generell merkwürdig.
Weil CB mit DLSS/FSR testet!
Bei TPU findet man die Ergebnisse ohne Upscaling und da passen auch die Werte von den 40X0 Karten besser:
 

Anhänge

  • Screenshot 2025-01-13 140414.png
    Screenshot 2025-01-13 140414.png
    1,4 MB · Aufrufe: 138
  • rt-cyberpunk-2077-3840-2160.png
    rt-cyberpunk-2077-3840-2160.png
    63,9 KB · Aufrufe: 134
  • Gefällt mir
Reaktionen: SweetOhm und edenjung
Eben, nur 50-100€ unter nVidia zu liegen wird nicht reichen, da zählen die Vorteile des nVidia Ökosystems zu schwer. Darum schreib ich ja, wenn sie 500€ schaffen, dann wird auch der Marktanteil vergrößert, darüber sehe ich schwarz.
 
  • Gefällt mir
Reaktionen: stevefrogs
kachiri schrieb:
600 Euro für Leistung, die aktuell 900 Euro kostet, ist dann ja schon ein Fortschritt.

Bei der Leistung würde ich mich über 649 Euro UVP aber auch nicht wundern - und irgendwo wundere ich mich dann aber auch über AMDs Aussage, nur Mittelklasse zu bedienen.

Ist natürlich die Frage, ob das vielleicht auch nur geschönte FSR4 Benchmarks mit Frame Generation sind :D
Ja wobei es die XTX Karten gebrauxht zu genüge für 700€ zu kaufen gibt/gab. Hab mir da selbst eine für 680€ geschossen. 600€ sind dann aber die FE Editions von amd. Die custom werden gute 50€ und mehr drüber liegen.
 
  • Gefällt mir
Reaktionen: SweetOhm
MehlstaubtheCat schrieb:
Ich gehe bei der 9070XT von etwa 4070 TI Super Leistung aus
und diese bekommt man aktuell für 850 Euro.

Somit darf und sollte eine 9070XT nicht über 600 Euro kosten!
Das wären 481 Dollar kosten, sonst wird es schwer!

Die Realität ist hart für AMD, hoffentlich versauen sie nicht den Start!

Die 5070 wird leistungsmäßig derzeit auf Höhe der 4070 TI Super verortet und soll $549 kosten. Davon muss AMD preislich in der Tat einen ordentlichen Respektabstand halten, wenn sie attraktiv sein wollen.

 

Anhänge

  • Screenshot 2025-01-13 140234.png
    Screenshot 2025-01-13 140234.png
    213,2 KB · Aufrufe: 76
Klingt doch sehr gut.

Die 9070xt soll Konkurrenz zu 5070ti (870 Euro) sein und 9070 zur 5070 (650 Euro). Ggf. etwas schwächer als die Konkurrenz Nvidia Modelle.

ABER: Wenn FSR4 taugt und die Karten bspw 500 und 600 Euro kosten, kann das was werden.
 
  • Gefällt mir
Reaktionen: SweetOhm
FR3DI schrieb:
Also @MichaG
Können wir wirklich von "besser" sprechen? Nö! mMn.
Ich bin nicht MichaG, aber ihr meckert ALLE auf ganz, ganz hohem Niveau! Ja, man kann hier von besser sprechen, denn auch eine 300 Watt 4080S ist aus diesem Blickwinkel "scheiße", nur beschwert sich da kaum einer ... hach ...

Betrachtet euch doch bitte mal, was die aktuellen Karten zu leisten im Stande sind. Es gibt halt nicht immer nur MEHR! MEHR! MEHR! ... Da viele es noch nicht mitbekommen haben: In der Siliziumentwicklung geht es kaum noch weiter runter in den Strukturbreiten und das meiste wird nur noch über den Takt und die Architektur rausgeholt ... Solche Chips brauchen Jahre bis sie "reif" und einsatzfähig sind.
 
  • Gefällt mir
Reaktionen: Tommy64, SweetOhm, Creidiki und 4 andere
Majestro1337 schrieb:
Erinnert ihr euch noch als eine mittelklassekarte 250€ gekostet hat? 😱
Wann soll das gewesen sein? Mittelklasse begann vor knapp 10 Jahren meist eher so bei 350 € (1070 aufwärts), alles darunter würde ich nicht als Mittelklasse ansehen, auch wenn dort echt gute P/L-Kracher wie die 480 gab. Bei letzterer muss man auch bedenken, dass die erst Mitte 2016 (also fast 2 Jahre nach der ähnlich leistungsstarken 970) und zu dem Zeitpunkt eher im Einsteigersegment die Allzweckwaffe wurde.

Ich trauere eigentlich viel mehr dem fast völlig zerstörten Gebrauchtmarkt hinterher. Die jahrelange Stagnation im mittleren Segment bzw. die extremen Preissprünge im Top-Segment und die frühzeitigen Produktionseinstellungen bei den Herstellern haben dazu geführt, dass fast kaum noch Schnäppchen auf dem Gebrauchtmarkt zu finden sind. Mit einer 2080ti ist man noch immer auf dem gleichen Leistungsniveau wie alles Neue unter 400 €, weshalb das "Durchreichen" einer relevanten Menge an gebrauchten Grakas entsprechen träge abläuft ...
 
  • Gefällt mir
Reaktionen: Solavidos
Holgmann75 schrieb:
Weil CB mit DLSS/FSR testet!
Bei TPU findet man die Ergebnisse ohne Upscaling und da passen auch die Werte von den 40X0 Karten besser:
Ob ich jetzt 4K mit DLSS Balanced nehme oder 1080p, macht auch keinen Unterschied und die Karten sind laut diesem Leak in 4K und 1080p gleich weit voneinander entfernt.

Einen größeren Unterschied würde es machen, wenn hier nur der Ingame Benchmark genutzt worden wäre, denn das würde tatsächlich nicht viel über die echte Performance aussagen, denn eine 7900XTX ist nun mal nicht auf dem Level einer 4070Ti Super
 
  • Gefällt mir
Reaktionen: Fallout667 und coxon
usernamehere schrieb:
Wenn das stimmt und die Karte über 400 € kostet, wird es dem Marktanteil nicht helfen.
Die wird garantiert über 400€ kosten ... das ist eine Karte die in der Lage ist 4k60 zu stemmen ...
 
  • Gefällt mir
Reaktionen: SweetOhm, MehlstaubtheCat, pinacolada und eine weitere Person
Majestro1337 schrieb:
Erinnert ihr euch noch als eine mittelklassekarte 250€ gekostet hat? 😱
Ja. Das waren noch Zeiten. Gefühlt eine Ewigkeit her.
 
Majestro1337 schrieb:
Erinnert ihr euch noch als eine mittelklassekarte 250€ gekostet hat? 😱
Versuch mal heutige 1440p Games mit deiner 250€ Mittelklassekarte zu zocken ... 😁🥳
 
Wenn sich die Leaks erfüllen, auch zur geringen 5070 Leistungssteigerung, wäre die 9070XT mit RT on par bis etwas dahinter und in Raster schneller und mehr Richtung 5070ti.

Ich könnte mir vorstellen das die 300W AIB Modelle hier noch was drauflegen.
Das MBA Design wird vermutlich keine 300W TBP haben.

Bin gespannt was wir am Ende dann bekommen werden von beiden Herstellern.
 
  • Gefällt mir
Reaktionen: SweetOhm
HighPerf. Gamer schrieb:
@Ferax

Was heisst hier für ihr Budget ? Wir reden hier nicht mehr vom selben AMD vor 10 Jahren. Die schreiben gute Zahlen. Da steckt genug Geld dahinter, das lasse ich als Ausrede nicht mehr gelten.
Geld alleine reicht ja nicht. Du brauchst ja auch die Mitarbeiter. Und dann müssen diese auch noch richtig gut in ihrem Job sein. An diesen Punkten will ja AMD letztes Jahr gearbeitet haben. Die Frage ist nur wann das erste Früchte trägt.
Und ich denke das die GPU Gaming Sparte jetzt nicht so die Priorität hat bei AMD. Denke das die bei GPU mehr auf Enterprise und AI gucken. Wo man richtig Umsatz und Gewinn fahren kann. Nicht die paar Gamer die Ihre Produkte kaufen. Selbst bei Nvidia ist der Gamer nur noch Kunde zweiter Klasse. Und die haben mehr Kunden bei Gaming GPUs als AMD.
 
  • Gefällt mir
Reaktionen: SweetOhm
PeacemakerAT schrieb:
Eben, nur 50-100€ unter nVidia zu liegen wird nicht reichen, da zählen die Vorteile des nVidia Ökosystems zu schwer. Darum schreib ich ja, wenn sie 500€ schaffen, dann wird auch der Marktanteil vergrößert, darüber sehe ich schwarz.
Die 12GB Karten von nvidia sind ein Witz und reichen nixht mal mehr auf full hd. Bei indiana jones ist das game tot und die 12gb werden gesprengt. 500€ wird die Karte niemals kosten, die verschenken die Karten nicht.
 
  • Gefällt mir
Reaktionen: SweetOhm
Man kann also sagen:

Eine 9000er Karte fällt bei Raytracing womöglich nur noch rund 10% gegenüber der direkten Konkurrenz zurück, wenn man vom Rastermodus auf Raytracing umstellt.

Das ist doch mal sehr gut!
Vor allem bei Cyberpunk waren vorher bis zu gefühlt 50% Differenz möglich.
Natürlich fehlen da noch richtige Vergleiche mit neuen Spielen udn den dann damit einherziehenden Verbesserungen passend zur HArdware und Softwarefeatures wie FSR4 und DLSS4, aber der Ansatz ist schon mal gut.
Zumindest Spiele wie Cyberpunk sollten die Karten jetzt mal endlich wirklich gut können, sonst lohnt der Kauf einfach nicht.
 
  • Gefällt mir
Reaktionen: SweetOhm und Rechter Winkel
pinacolada schrieb:
Die 12GB Karten von nvidia sind ein Witz und reichen nixht mal mehr auf full hd. Bei indiana jones ist das game tot und die 12gb werden gesprengt.
Also komisch ich hatte kein Problem auf 3840x1600, zwar ohne Pathtracing aber ansonsten alles auf Ultra.
Schon schlimm die 12GB ....
 
  • Gefällt mir
Reaktionen: Fallout667, kachiri und schkai
Zurück
Oben