News Radeon RX 9070 XT: Neue Gerüchte zur Performance und eine erste Analyse

modena.ch schrieb:
@duskstalker
Da wär ich mir nicht so sicher. Der Vorgänger, Navi 32 war ein MCM Chip, Navi 48 wird monolitisch.
Ich sag nur die 7800XT... Dusk war mal gut, scheinbar wird er alt und grantelig ^^
 
  • Gefällt mir
Reaktionen: SweetOhm
Icke-ffm schrieb:
die 5060ti in der Einsteiger Klasse FHD wird AMD wohl auch mit einer 9060-12GB schlagen können
Angesichts auch der CB-Umfrage bin ich mir unsicher, wie lange FHD eigentlich noch ein Einstiegsformat ist. Ich bin inzwischen auch bei WQHD, weil ich auf FHD nicht mehr gut arbeiten kann und weil die Skalierung nach unten auf den meisten Monitoren inzwischen kein Thema mehr ist, wenn Upsampling keine Option darstellt. Nvidia könnte durchaus Probleme bekommen, wenn sie weiterhin 8-10GB Gurken raushauen.
 
  • Gefällt mir
Reaktionen: SweetOhm, Slim.Shady, Rockstar85 und 2 andere
Momentan kann man zur eigentlichen Leistung in Spielen sowieso nicht so viel sagen. Neben den "nackten" FPS Werten selbst bei gleicher Auflösung kommt es ja auch noch darauf an, welche Effekte wie RT, und Dinge wie FSR, DLSS dabei eingesetzt werden können, und wie vergleichbar gut das Ergebnis aussieht. Mein Steam-Deck kann ja auch CP2077, allerdings nicht in 2160p mit Ultra Presets und RayTracing an 😁.
 
  • Gefällt mir
Reaktionen: Boimler
incurable schrieb:
Wir werden es erfahren wenn die Karten vorgestellt sind.

Und weil sie bis dahin so oder so nicht zu erwerben sind kann man sich die Spekulationen einfach sparen.

Lass uns doch unsere Spekulationen.

Sonst wäre es ja auich langweilig, oder?
 
Boimler schrieb:
Angesichts auch der CB-Umfrage bin ich mir unsicher, wie lange FHD eigentlich noch ein Einstiegsformat ist. Ich bin inzwischen auch bei WQHD, weil ich auf FHD nicht mehr gut arbeiten kann und weil die Skalierung nach unten auf den meisten Monitoren inzwischen kein Thema mehr ist, wenn Upsampling keine Option darstellt. Nvidia könnte durchaus Probleme bekommen, wenn sie weiterhin 8-10GB Gurken raushauen.
Auf letzteres hoffe ich auch! Schon alleine deshalb war es gut und wichtig, daß die B580 mit 12 GB VRAM rauskam. Solange Nvidia sich einigermaßen sicher sein kann, daß sie mit 8 GB VRAM in der 5060 durchkommen, werden sie das auch wieder machen. Da die B580 selbst mit den ersten Treibern zum Launch der 4060 v.a. in 1440p in einigen Spielen davonlaufen konnte, war das hoffentlich ein Schuss vor den Bug. Denn da ging der kleinen Ada einfach die Luft aus, die Kombination von weniger RAM und sehr enger Bus rächte sich. Wenn AMD schlau sein will, machen sie das ähnlich wie Intel, und bringen auch eine € 300 - 350 Karte mit 12 GB VRAM raus. Der Markt dafür ist da!
 
  • Gefällt mir
Reaktionen: SweetOhm und Boimler
Taxxor schrieb:
5% unter der 4080 wäre bei 220W solide gewesen. Wenn es jetzt 270W sind, sieht das schon gar nicht mehr so gut aus
Deswegen hatte die 4080 ne TDP von 320W, weil man die gleiche Leistung 2 Jahre später für nur noch 220W hinbekommt…genau.

Selbst mit den 270W TDP wird AMD nicht knapp unter der 4080 landen, wenn selbst NVIDIA das mit ihren effizienteren Chips nicht hinbekommt. Die 5070TI, die auf 4080 Super Niveau erwartet wird, wird wohl mit 300 oder 350W TDP kommen.
 
  • Gefällt mir
Reaktionen: Perdakles, FreedomOfSpeech und SweetOhm
modena.ch schrieb:
18Gbps Module bei der GRE und 20Gbps Module bei der 9070XT?
Die Frage ist in dem Fall auch, wie der "Uncore" bei der 7900 GRE und Co taktet. Es kann sein, dass die GRE nicht "direkt" an der Speicherbandbreite krankt, sondern an der Bandbreite zwischen MCD und GCD.
modena.ch schrieb:
Navi 32 hat RT über die Shader abgehandelt, Navi 48 bekommt dafür dedizierte Einheiten.
Wie die Strahlenverfolgung abgehandelt wird scheint sich auch zu ändern. (Int4-Int8)
Nein, diese Aussage ist weitgehend falsch. AMD nutzt seit RDNA 2 auch "RT-Kerne". AMD hat einen anderen Weg gewählt bei manchen Punkten in ihrer Implementation zu Nvidia.

Teile der BVH-Abfragen sind bei AMD in den TMUs untergebracht, weil diese ohnehin an den L1 sowie L2-Cache schnell angeschlossen sind. Dahinter dann der RT-Kern, der die Berechnungen für "Schnitt" vornimmt. Dazu kommt, das AMD sich auf eine BVH-Struktur festgelegt hat, während Nvidia hier "flexibler" ist.

AMD wird bei bei BVH nun von BVH-4 auf BVH-8 ändern und in den TMU als auch RT-Kernen die Leistung verdoppel.

Man wird aber abwarten müssen, was hier weiter kommt. Eine "Schwäche" von RT bei AMD ist, dass AMD zu "oft" Rückfragen an den Shader sendet und dieser entscheidet, ob er noch die Schnitte berechnet oder weitersuchen will. Aber auch da wird man sehen was kommt.
 
  • Gefällt mir
Reaktionen: Perdakles, Balikon, SweetOhm und eine weitere Person
Am meisten freue ich mich auf die RX 9070 XT X2.
Endlich hat AMD die Mikroruckler in den Griff bekommen und braucht auch keine Unterstützung der Entwickler mehr, weil die neue Task-Management-Unit der neuen Highend-Karten (die kleineren wie die RX 9060 etc. werden sie aus Kannibalisierungsgründen nicht bekommen) den Anwendungen einfach eine große GPU vorgaukelt und den Rest über DX12 Low-Level regelt. Dadurch halbiert sich auch nicht der Speicher im Dual-Betrieb und zwei RX 9070 XT auf einer Platine können auf 32GB VRAM zugreifen.
Man bekommt also ungefähr 85-90% der Leistung einer RTX 5090 für ca. 1300€, wenn man auf CUDA und Co. verzichten kann. Das dürfte dann auf so ziemlich alle Enthusiast-Gamer zutreffen. Die Technik ist schneller als die SLI-HB-Bridge, aber natürlich langsamer als der On-Die-Transfer.
Cleverer Schachzug von AMD um die RTX 5090 als Highend-Modell von der Zielgruppe der Gamer zu entkoppeln und in den reinen Workstation-Markt abzuschieben auf dem man sowieso nicht vertreten ist. Und Nvidia kann auch nicht einfach reagieren, weil SLI die Unterstützung der Entwickler braucht und eine ähnliche Task-Management-Unit in den Blackwell-GPUs nicht vorhanden ist.
Ab der nächsten Generation wird AMD ihre GPUs mit Sicherheit mit einer Vollmodular-Architektur designen und kann dann auch direkt auf einem Die zwei GPUs verheiraten, was die Geschwindigkeit noch einmal steigert.
Klartext: Die Preise für Highend-Gamer-Karten werden erst einmal wieder sinken, weil Nvidia seine Monopolstellung in diesem Segment nahezu verliert. Mal schauen wann AMD die Preise dann wieder erhöht.
 
Vielen Dank für die erste Analyse. Ich bin mal auf die Vorstellungen beider Lager zur CES gespannt.
 
  • Gefällt mir
Reaktionen: SweetOhm
Der Timespy-Bench lief wohl lediglich bei 2Ghz, von daher... Es war ein QS-Sample! BTW. wie ist es eigentlich um die Verfügbarkeit von RDNA3 generell bestellt? Bin da nicht auf dem Laufenden... Insbesondere bei 7900xt und xtx?
 
  • Gefällt mir
Reaktionen: Saros
Mit anderen Worten man weiß eigentlich nichts, außer das AMD nach wie vor nicht ganz oben mithalten kann.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Slim.Shady, NoNameNoHonor und Mr.House
DevPandi schrieb:
Man wird aber abwarten müssen, was hier weiter kommt. Eine "Schwäche" von RT bei AMD ist, dass AMD zu "oft" Rückfragen an den Shader sendet und dieser entscheidet, ob er noch die Schnitte berechnet oder weitersuchen will. Aber auch da wird man sehen was kommt.
Mich würde mal interessieren, inwieweit AMDs "Schwäche" eigentlich wirklich ein Hinterherlaufen hinter Nvidia ist oder einfach eine strategische Entscheidung. Es gibt ja anscheinend Gründe, warum Konsolen mehrheitlich auf AMD und nicht Nvidia setzen. Und Spiele wie TLOU zeigen ja, dass RT weiterhin eine abschaltbare Grafikoption ist und kein technischer Standard. Wenn man mal nur die Rasterleistung betrachtet, ist AMD eigentlich immer konkurrenzfähig zu NV. Wenn sie bei RDNA4 die Effizienz in den Griff bekommen, ist eine langsamere RT-Architektur für mich jedenfalls kein Kaufhindernis.
 
  • Gefällt mir
Reaktionen: Duffy Duck, JarlBallin, SweetOhm und 2 andere
Convert schrieb:
Alle so: Super, AMD holt in Raytracing auf, jetzt können Marktanteile durch AMD zurück gewonnen werden.

Nvidia so: Von wegen, wir haben was neues: AI in Games! " better integration of AI in gaming and content creation workflows."
Man kann es so sehen: Nvidia gibt den Ton an und AMD kommt immer 1-2 Gen. später.

Oder so: Nvidia ist bleeding edge aber bis genügend Spiele erschienen sind, in denen die neuen Feautures überhaupt so sinnvoll eingesetzt werden, dass es sich lohnt, das Premium zu bezahlen, hat AMD auch eine Karte/Tech am Markt mit der es auch geht.

Wie viele Spiele laufen mit Pathtracing? Ja genau.

Und ja, es ist Schade, dass AMD nur noch hinterher hinkt (Obwohl AFMF2 natürlich super ist.) und man muss schon auch dankbar sein, dass Nvidia neue Technologien pusht.
 
  • Gefällt mir
Reaktionen: Balikon, SweetOhm und Czk666
modena.ch schrieb:
Weil die grösseren Varianten Multi Chip Module geworden wären und man die verworfen hat?
Diese Gerüchte gibt es ja schon seit fast 1,5 Jahren. In der Zeit hätte man durchaus einen etwas größeren Chip auflegen können, wenn das Chiplet Design scheitert.

Der Chip ist wenn er so kommt wie hier kolportiert außerordentlich gut.
Denn wo man vorher ein 300mm2 und 200mm2 die gebraucht hat um den 294mm2 die einer RTX 4070 Ti knapp zu schlagen, braucht man jetzt nur noch ~270mm2 um an die 4080 mit 397mm2 heranzukommen.
modena.ch schrieb:
Und GDDR7 wird zuerst teuer und knapp sein. Da ist dann der Bestand nur durch NV alleine schnell mal
reserviert.
Wenn der Chip so flott wäre dann würde AMD niemals 12 und 16GB verbauen sondern definitiv 32GB.
 
  • Gefällt mir
Reaktionen: maxi_rodriges
Toprallog schrieb:
RTX 5080 für $999
RTX 5070 Ti für $799
RTX 5070 für $599
Und wovon träumst du nachts? :D

Die 5080 soll im Bereich $1750 starten. Da kannst du nichts realistisch erwarten, dass die auch nur in die Nähe von $999 kommt.

Wenn AMD eine Karte bringt, die einfach für viele Nutzer "gut genug" ist -sowohl ohne als auch mit RT- und Verbrauch und Preis stimmen, dann sind Marktanteilzugewinne machbar. Ich kann mir jedenfalls gut vorstellen mit eine 9070 zu holen, wenn die keine krassen Schwächen hat.
 
  • Gefällt mir
Reaktionen: Duffy Duck, Balikon, SweetOhm und eine weitere Person
Mit UDMA ist dieser Abstand auch Geschichte, da in dieser Architektur auch weiter reichende Dinge mit einfließen werden. Von daher Sitze ich die kommende Generation aus und warte, was AMD in next Gen. bewerkstelligt. Zu RDNA4: Wenn sich das Ding overall zwischen einer 4070s und einer ti einordnet und dafür max. 600 Teuro veranschlagt werden, dann können doch alle zufrieden sein.
 
  • Gefällt mir
Reaktionen: SweetOhm
Irgend eine Verbesserung muss doch kommen, sonst ist die Generation komplett überflüssig.

Ok: Die Bezeichnung ist von Nvidia kopiert 🤔😂
 
Bei einer Rasterleistung mit knapp 7%+ zur GRE würde auch jedwede Verbesserung beim Raytraycing aufgrund mangelnder Grundleistung völlig Sinnfrei werden. Von daher gebe ich auf alles was in diese Richtung tendiert wenig bis gar nichts. Was dann nach oben tatsächlich geht muss man abwarten und schauen wenn es soweit ist.
 
Dass sich großartig an der Ausgangssituation von RDNA4 im einen oder anderen Gerüchtefall etwas ändern würde, sehe ich nun nicht.

Es dürfte wohl mehr auf einen RDNA3 Refresh mit besser ausgeführten Features (Stichwort vordergründig RT-RT und evt. etwas bessere Effizienz) werden als eine mit neuen Leistungshöhen und anderen innovativen Features glänzende neue Grafikkarten Halb-Generation.

Wer (jetzt schon) zu viel erwartet und sich hypen lässt, dürfte umso mehr ernüchtert bis enttäuscht werden.

Erst mit RDNA5=UDNA1 dürfte es dann wohl wieder wegweisender bei Radeon Grafikkarten weiter gehen.

Interessanter/relevanter fände ich da schon evt. kommende mobile RDNA4 dGPUs für Notebooks als die bisher kolportierten Desktopvarianten (9070XT usw.).

Wenn nVidia wieder die Preise bei Grafikkarten z.T. kräftig anziehen dürfte, wird man bei AMD vermutlich wohl auch nicht davor drücken mit zu ziehen.

Wieso sollte AMD eine RX 9070XT auch viel günstiger als eine RTX 4080 "Super" anbieten, wenn diese nicht weit davon entfernt läge?

Der Nachfolger der RTX 4080 "Super" könnte dann (evt. näher an die vorherigen Preise der RTX 4080 Vanilla angelegt) ja noch einmal einen knappen halben Tausender teurer ausfallen, aber schauen wir 'mal (die
RTX 5080 kann von mir aus gerne auch (deutlich) mehr als 1500 Euro kosten).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben