Bericht Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD

Das ganze 8K Gerede ist doch komplett sinnfrei. Wichtig ist doch schonmal, dass man 4K mit über 120 FPS zum Laufen bringt. Ich bin mir nicht sicher, ob das die 7900XTX schafft. Ihr habt da mehr Erfahrung - was meint ihr hierzu? Wo ordnet ihr die Performance ein?

8K gibts ja nichtmal Monitore...
 
Gr33nHulk schrieb:
Nvidia wird die Preise wie erwartet etwas anpassen müssen und die Early-4090-Adopter haben mal wieder bewiesen wie bescheuert es ist solche Preise für minderwertige Hardware auszugeben.......
Auch für Dich: Eher friert die Hölle zu.
Wie kommst Du auf die Idee, daß sie irgendetwas ändern müssen?
Die Karten werden knapp gehalten, die Leute kaufen Sie trotzdem, egal was sie Kosten.
Ergänzung ()

dante`afk schrieb:
hast du die presentation ueberhaupt gesehen? die karte kommt nicht mal annaehernd an 4090 ran.

kratzt hoechstens an 4080
Wen juckt das, ob die 5,10 oder 15% langsamer sind?
Wen juckt RT?
Ergänzung ()

Rockstar85 schrieb:
@W4RO_DE
Shit.. ja dann isses klar.. Die Größe des 7900XT Chips kennen wir nicht, das ist korrekt.
Hä? Warum sollen wir den nicht kennen? Das ist der gleiche Chip.
 
Zuletzt bearbeitet:
Celinna schrieb:
Aber spiel mal die ganzen HDR Games mit Konsole auf nem OLED oder richtig guten QLED, das übertrumpft auch Raytracing locker.
Gerade mit HDR kommt natürlich Raytracing besonders gut. Davon ab soll Raytracing glaube ich auch gar keinen WoW Effekt haben, zumindest für mich ist es einfach nur etwas das enorm die Immersion fördert.
Und dabei meine ich primär Spiele die wirklich Pathtracing verwenden können. Das verursacht weniger wow und viel mehr sehen die Sachen einfach nur echt aus.
 
Cronos83 schrieb:
Für mich sind 64% des Preises (wenn man mal 1249€ gegen 1949€ ansetzt) bei kolportierten 85% der (Raster)Leistung (7900XTX vs 4090) nicht nur "leicht" besser.
Und mir ist die Rasterleistung wichtig, genauso wie die niedrigere TDP und der aktuelle Displayportanschluss. Aber das sind eben persönliche Vorlieben.

Mag für dich schlechter sein. Ich persönlich find die 7900XTX bisher deutlich attraktiver als die 4090.
Warum setzt Du 1949€ an, wenn die günstige Version bei 2300€ liegt?
Ergänzung ()

Sysworker schrieb:
Hat AMD bei den Karten endlich eine unter Windows 10 aktivierbare und im Photoshop & Co nutzbare 10Bit pro Farbe Farbausgabe implementiert, so wie das NVidia bei allen neueren Karten hat, oder muss man sich weiterhin eine überteuerte Radeon Pro kaufen, die technisch meistens eine Generation zurückhängt ? Falls nein, lese ich erst gar nicht weiter.. und werde ich kein Kunde.
Nö, die haben mit der Generation 12bit Farbe.
Ist natürlich viel schlechter :D
Ergänzung ()

Rockstar85 schrieb:
@Philste
Das GCD ist ja nur 310mm² groß, der ganze Chip ist 550mm²
Shit, da hab ich ja garnet drauf geachtet xD
308+6x37.5=533mm² :)
Ergänzung ()

Chilisidian schrieb:
2 Cores auf einer Karte sind doch ein alter Hut, alleine die Anbindung wird ein riesiges Problem. Ich glaube das Thema ist ein für alle mal durch.

Auch die AIB werden mit OC nicht an die 4090 OC herankommen, vllt an die FE.

Selbst 2.800Mhz sind eine kleine Enttäuschung. Das schafft ja jede 4090 mit One Click OC. Entweder AMD macht hier einen schlechten oder NV einen guten Job, darfst du dir aussuchen ;)
Who carez? Warum mach man sich darüber überhaupt Gedanken?
Es ist vollkommen Banane wieviel langsamer ist, solange sie vernünftige Leistung auf die "Straße" bekommt. Ob das nun 7%, 10% oder 15% sind, ist alles im Rahmen und es ist vollkommen schnurzpiepegal, solange P/L im Vergleich dazu gut ist.
 
Zuletzt bearbeitet:
Ihr seid einfach nur peinlich. AMD hat keinen einzigen! aussagekräftigen Benchmark gezeigt. Und ihr faselt was von" Ist nur 7% langsamer. TRUST ME!!!". Wenn dann die ersten echten Benchmarks kommen wird alles wieder schön relativiert, wie immer. AMD hat ganz bewusst den Vergleich gescheut, weil sie wussten wieviel langsamer ihre Karten im Gegensatz zur RTX 4090 sind. Dauert nicht mehr lange und du wirst sehen wie ich Recht behalten werde. Will jemand wetten? Ich gehe noch weiter. Keine einzige 7900XTX wird die 4080 schlagen können. Wird auch genau so kommen.
 
  • Gefällt mir
Reaktionen: CrustiCroc
FreshLemon schrieb:
Sollte die Frage ernst gemeint sein und du ein gutes Angebot machen kannst:
Ich habe Interesse und wohne an der Schweizer Grenze!
Bin gerade mit ner WaKü 2080s unterwegs aber dreh regelmäßig durch weil Linux + Nvidia.
Ähm, das weiß man aber als Linux-User schon, daß nvidia da sehr schrottig ist und die Treiber nicht ansatzweise den quelloffenen Treibern das Wasser reichen können :)
Da hättest Dir übergangsweise auch ne RX 6600 holen können, die kosttet verhältnismäßig recht wenig :)
Ergänzung ()

RogueSix schrieb:
Aber... aber... beim RTX 4090 Launch spielte das noch eine exorbitant große Rolle von wegen "was erlaube' schmierige Lederjacke nur PCIe 4.0 zu liefern!!!11" ... und bei Lisa ist das natürlich alles etwas gaaaaaanz anderes :D .
Nee, das habe ich mir nur bei DP 1.4 gedacht, für ne Karte die in einigen Spielen 480fps knackt :D
Ergänzung ()

ThreepQuest64 schrieb:
So lange FSR aber nicht auf die gleiche Häufigkeit der Implementierung wie DLSS kommt, muss diese Leistungsdifferenz ebenfalls betrachtet werden. Und wenn dann 1100 EUR abgerufen werden im deutschen Markt, wird es wieder schneller uninteressant.
Die sind doch schon ziemlich gleich auf.
Wenn man die Konsolen noch dazunimmt, dann vermutlich schon voraus :)

ThreepQuest64 schrieb:
Weiß nicht, ob sich da ein Upgrade für mich von einer RTX 3080 lohnen würde. Vermutung: nein.
Wenn ein vielgespieltes Spiel für Dich zu lahm ist, dann lohnt es, ansonsten nicht.

ThreepQuest64 schrieb:
Was ich mit Sicherheit weiß: Nvidia bekommt kein Geld mehr von mir und selbst die 3080 habe ich second hand erworben.
Das habe ich mir schon seit der GeForce 4 GT 4200 gedacht :D
 
Zuletzt bearbeitet:
Taxxor schrieb:
Ineffizienzer ist die Karte dabei auch noch, bei RT sowieso, aber auch beim Rastern.
Denn wenn sie 15% hinter der 4090 landet -> 4090 ist 17-18% schneller, dann kann man sich seine 4090 auf 350W setzen, verliert dadurch 3% und ist immer noch 14-15% schneller
Hast du eine 7900 oder woher weißt du jetzt schon dass ähnliches bei AMD nicht geht?
 
  • Gefällt mir
Reaktionen: av4l
Und so beginnt es...
"Entwickler dumm!" "Nvidia hat sich eingekauft!" "AMD ist aber günstiger!"
 
  • Gefällt mir
Reaktionen: CrustiCroc
Tornavida schrieb:
Glaub mal ,dass bei NV absolute Experten sitzen, die genau wissen welchen maximalen Preis sie am Markt durchsetzen können, da braucht es sicher keine Unternehmungsberatung aus dem CB Forum.
Nö. Da sitzt der Lederjackenmann und sagt, die Karte kostet $1599. Punkt.
Ergänzung ()

ThePlayer schrieb:
Wenn die 7900xtx in all deinen Punkten nur 10% hinter der 4090 stehen wird. Wird keiner außer den Leuten die unbedingt den Längsten haben müssen 1000 Euro Aufpreis für die 10% bezahlen wollen.
Wunschdenken. nvidia hat mehr Marktmacht als Intel obwohl sie wesentlich kleiner sind.
Die Leute haben auch die sauteuren 3000er gekauft. Da haben genug Leute auch mal $2000 für eine 3080 ausgegeben.
Ergänzung ()

derbe schrieb:
Wurde schon mehrfach ausgerechnet (Raster) das es sogar weniger als 10% Leistungsverlust sind, daher wähle ich konservative 10-20%. Und 1949€(FE 4090) vs 7900xtx 999$ + Steuer sind wohl ehe 35% billiger. Entschuldigte war mein Kopf rechnen wohl nicht präzise genug. Hoffe du kannst mir die 5 unterschlagen Prozente verzeihen.
Da es ne FE nur im homöopathischen Dosen gibt und verfügbare Karten erst ab ca. 2300€ verfügbar sind, kannst man mit 1949€ nicht rechnen. Bei AMD gibt es immer ein Custommodell von jedem Hersteller, daß am Preis der AMD Referenz liegt.
Ergänzung ()

Taxxor schrieb:
Und auch an sich geht sich das nicht aus:
6950XT = 80 CUS
7900XTX = 96 CUS
6950XT == 80 CUs == 5120 Shader, 1 Shader pro Core
7900XTX == 96 CUs == 12288 Shader, 2 Shader pro Core
Ergänzung ()

Oggy666 schrieb:
1200.- für eine GraKa sind kein guter Preis... egal wie man das betrachtet... 👎
Wenn 24GB zumindest $400 kosten plus gpu... woher soll der günstige Preis kommen?
Ergänzung ()

Taxxor schrieb:
Dass dadurch, dass man viel an den RT Einheiten gearbeitet hat, die RT Performance deutlich stärker ansteigt, als die Raster Performance, jetzt ist es andersrum gekommen.


Da der RT Zuwachs geringer ausgefallen ist als der Raster Zuwachs ist es hier eben deutlich weniger Leistung, wir sprechen hier von ~40-100%, die die 4090 schneller sein wird.

Im CB Rating sind es bei ~55% Steigerung immer noch +68% für die 4090 im Schnitt und für die Spiele, die RT Heavy sind(Cyberpunk, Doom, Dying Light 2, Guardians of the Galaxy) sind es +100%
Hängt die Schallplatte? Ich frage für nen Freund... :D
Ergänzung ()

Nikflin schrieb:
Ein bisschen Frage ich mich schon wie es AMD schafft auch softwareseitig immervbei Nvidia anzuschließen. Ich mein RTX und DLSS sind Erfindungen von Nvidia und AMD kann das auch? Sitzen die CEOs hin und wieder am selben Frühstückstisch oder warum kann die Konkurrenz so schnell aufschließen…
Weil bei AMD auch keine Idioten angestellt sind?
Die kochen alle nur mit Wasser. Der Ansatz bei AMD ist halt ein sympathischerer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mracpad
Eli0t schrieb:
Da es ne FE nur im homöopathischen Dosen gibt und verfügbare Karten erst ab ca. 2300€ verfügbar sind, kannst man mit 1949€ nicht rechnen. Bei AMD gibt es immer ein Custommodell von jedem Hersteller, daß am Preis der AMD Referenz liegt.
Zum Release gab es bei der RTX auch diverse Partnerkarten für 1949,- Unter anderem auch die TUF.
Inzwischen haben die Preise angezogen und man zahlt ~400 EUR mehr, wenn man nicht bei einem der wenigen Händler, die an der UVP festhalten an eine Karte kommt. Dort sind die Karten aber nach wie vor in Minuten weg, sobald etwas rein kommt.
Warum soll das denn bei der 7900 anders laufen?
Weil die Händler bei AMD die Preise jetzt plötzlich doch nicht mehr an die Nachfrage anpassen?
 
  • Gefällt mir
Reaktionen: cr0nex! und .Sentinel.
Mr_Cenk schrieb:
Ihr seid einfach nur peinlich. AMD hat keinen einzigen! aussagekräftigen Benchmark gezeigt. Und ihr faselt was von" Ist nur 7% langsamer. TRUST ME!!!". Wenn dann die ersten echten Benchmarks kommen wird alles wieder schön relativiert, wie immer. AMD hat ganz bewusst den Vergleich gescheut, weil sie wussten wieviel langsamer ihre Karten im Gegensatz zur RTX 4090 sind. Dauert nicht mehr lange und du wirst sehen wie ich Recht behalten werde. Will jemand wetten? Ich gehe noch weiter. Keine einzige 7900XTX wird die 4080 schlagen können. Wird auch genau so kommen.
Seit der Zen 1 Präsentation entsprachen alle gezeigten Benchmarks der Wahrheit und am Ende waren manche Produkte sogar noch etwas schneller. Sei doch froh das es Konkurrenz gibt, sonst gäbe es deinen 5800x3D mit Sicherheit nicht.
 
xexex schrieb:
Blöd nur, das die Realität dann doch sehr weit entfernt ist, von dem was wir auf dem Bildschirm sehen
Für mich zählt Spielspaß und kein RT.
Ergänzung ()

Malustra schrieb:
Und spätestens jetzt mit der UE5 Engine erübrigt sich RT sowieso immer mehr.
RT ist ein Hype ähnlich 3D,VR, PhysX oder DLLS usw.
Für die Tester scheint auch nichts anderes mehr zu existieren. Tests in der normalen Auflösung ohne diese Gimmicks werden immer weniger.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daknoll, Malustra, iron_monkey und eine weitere Person
DaHell63 schrieb:
Bei 20% Marktanteil ist nicht viel mit Marktmacht.
wo hat den Nvidia angefangen bevor sie gross wurden ?
 
hamju63 schrieb:
Und wenn jemand Wert auf Raytracing legt, kommt der- oder diejenige sowieso nicht an nVidia vorbei - leider
Das stimmt. Aber auf die 5 Leute kann AMD bestimmt verzichten.

Mal ehrlich. Ein Blinki-Blinki Feature wird jetzt als Strohhalm der RTX Reihe hervor gehoben.

Niemand verweilt in einem Spiel um die schönen neuen RT Pfützen zu bestaunen.
Eine Technik mit Zukunft sicherlich.
Aber ein Must-Have... Nur für die, die einen Grund suchen gegen AMD zu bashen.


Alle High End Karten sind zu teuer.
Aber bedingt durch die beginnende Finanzkrise werden die teueren Karten für die meisten eh uninteressant.


Freut mich für jeden der sich derlei Karten leisten kann/will/wird. Ich setz meine Kaufprioritäten mittlerweile anders, bzw bin gezwungen dazu

;)
 
  • Gefällt mir
Reaktionen: McTheRipper, Malustra, rhin_tin und eine weitere Person
[Radeon RX 7900 XTX] is designed to go against 4080 and we don’t have benchmarks numbers on 4080. That’s the primary reason why you didnt see any NVIDIA compares. […] $999 card is not a 4090 competitor, which costs 60% more, this is a 4080 competitor.
— Frank Azor to PCWorld
Damit sollten die Vergleiche mit der 4090 endlich aufhören. Die ist in einer komplett anderen Preisklasse.
 
  • Gefällt mir
Reaktionen: Mr_Cenk
Eidgenosse schrieb:
Das ganze 8K Gerede ist doch komplett sinnfrei. Wichtig ist doch schonmal, dass man 4K mit über 120 FPS zum Laufen bringt. Ich bin mir nicht sicher, ob das die 7900XTX schafft. Ihr habt da mehr Erfahrung - was meint ihr hierzu? Wo ordnet ihr die Performance ein?

Das 8k Gerede halte ich auch für richtig dumm (noch). Vor allem hast du mit 8k auch das Problem dass du auch locker mal einen größeren TV oder Monitor brauchst damit die Auflösung überhaupt einen Sinn ergibt. Ich sitze ca 2m von meinem 55" LG OLED entfernt und 4k ist knackscharf und das wäre es auch in 65" was ich schon riesig finde als Einrichtungsgegenstand. Wenn ich mir jetzt vorstelle dass ich einen 70+" TV holen würde nur damit 8k Sinn ergibt, ähm, das passt einfach mal null hier rein optisch gesehen. Ist ja schön dass TVs größer und besser werden. Aber wird mein Haus und Wohnzimmer auch größer? Eher nicht.

Zu deiner Performance Frage: Ich denke dass du in den meisten aktuellen Titeln von heute(!) in diesen Bereich kommen wirst in 4k Ultra Settings (ohne FSR) und mit FSR (wenn das Spiel es hat) sollten 4k@120 mit der 7900xtx locker kein Problem sein.
Anders könnte es allerdings aussehen wenn die ganzen Unreal 5 open world Spiele und so kommen. Die nächste Generation an Games könnte selbst ohne das ganze Raytracing Zeug ziemlich fordernd werden für die GPUs. Man muss bedenken: Eine 4090 lacht aktuell über jedes Spiel. Aber im Kern handelt es sich auch fast durch die Bank weg um Spiele die mit der Konsolenhardware von 2013 als Basis gemacht wurden.
Man muss mal schauen wie das Ganze aussehen wird wenn wir die letzte Konsolengeneration wirklich mal hinter uns lassen.
 
Zuletzt bearbeitet:
Inxession schrieb:
Mal ehrlich. Ein Blinki-Blinki Feature wird jetzt als Strohhalm der RTX Reihe hervor gehoben.

Niemand verweilt in einem Spiel um die schönen neuen RT Pfützen zu bestaunen.
Eine Technik mit Zukunft sicherlich.
Aber ein Must-Have... Nur für die, die einen Grund suchen gegen AMD zu bashen.
Sehe ich genau so, zumal RTX in der UE5 softwareseitig implementiert werden kann. Daher werden wir unter Umständen das selbe Erleben wie zu seiner Zeit PhysX.
 
  • Gefällt mir
Reaktionen: McTheRipper, Malustra und rhin_tin
Zurück
Oben