Bericht Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD

beckenrandschwi schrieb:
Hätte AMD etwas gleichwertiges könnte NVIDIA keine 2k€ anrufen...
Das juckt Nvidia nicht. Hat man ja auch zuletzt mit der 6900XT gegenüber der 3090 gesehen. Auch wenn zwischen den beiden 8GB VRam lagen. Aber 24GB brauch im Grunde so gut wie keiner zum zocken, ist auch eher ne Creator Karte aufgrund der VRam Bestückung. RDNA3 hätten 16GB auch immer noch vollkommen gereicht, wenn es nur rein um's gamen geht.
Ergänzung ()

Seit Tahiti ist die Speicherbestückung bei ATI/AMD Karten alles nur reine Marketing. Da sie genau wissen das die Leutz auf die Speicherbestückung achten und AMD wohl noch weniger Karten dann verkaufen würde als ohnehin schon.

Wenn jetzt einer ne 7900XT/X mit 20-24GB und für 300-500€ weniger, gegenüber einer 4080 mit 16GB, sieht. Denkt er sich halt auch, au nice mehr Speicher und sogar noch günstiger, nehm ich mal ne AMD. Aber im Grunde hätten es weiterhin, vor allem für WQHD und 4K, 16GB vollkommen ausgereicht. Bezahlen da dann im Grunde au nur den VRam Hype mit.

Einfach mal Benchmark Videos bei Youtube von den Topmodellen durchforsten und nachdem Speicherverbrauch aktueller Titel Ausschau halten. Wobei eine 3080(Ti) für 4K mit ihren 12GB hätte ich mir wohl auch nicht geholt, wenn man sie denn mehr als 4 Jahre im System behalten hätte. Nvidia halt.
 
Zuletzt bearbeitet:
Ich denke den meisten 4090 Käufern wird es egal sein, dass sie noch das alte DP 1.4 zur Verfügung haben, ich sehe da praktisch auch keinen Use-Case. 4k und 120Hz sind doch völlig ausreichend. Wer e-sportler ist und mehr Hz will, wird sowieso mit niedrigerer Auflösung spielen und sich dann so ein 1440p 300Hz Monster holen und da reicht der alte DP noch immer völlig aus von der Bandbreite.

Interessant wird das wohl erst für VR und da auch erst in 2-3 Generationen, sprich 4-6 Jahren, da würde man tatsächlich von noch höherer Auflösungen und höheren Hz am meisten profitieren, dafür müssten aber auch erstmal Headsets her die das anbieten.
 
Im Deutsch sprachigem Raum gibt es, wenn man ehrlich ist kaum jemand der besseres Insiderwissen hat als Igor Wallosek.

Dazu noch eine unfassbare Expertise von der Technik her. Quasi der GPU Professor.

Und der ist seinem eigenem Forum ( gerne mal nachlesen ) äusserst skeptisch was RDNA3 angeht.

Keine Jubelarien wie hier, einfach ein Realist der da eher obere Mittelklasse kommen sieht.
Und einen Preis der sich schon in Anbetracht dessen ( Maßstab 4090 und kommende 4080 )
da einordnet wo er sein muss.

Eben kein Preis Kampfansage von AMD.

Könnte im Dezember ziemlich lange Gesichter geben, da ist wirklich was faul.

Poor Volta (Ada) !
 
Die letzten jahre waren die AMD Folien doch immer quasi das was man auch bekommen hat. Warum sollte das jetzt großartig anders sein? Wenn die Karten im 5% berreich so performen wie von AMD gezeigt warum sollte es dann bitte lange Gesichter geben? Da kann sonst was für ein Prof am start sein wenn jemand meint etwas schlecht machen zu müssen findet er schon was.
Ein aufriss hier wegen nix.
 
CrustiCroc schrieb:
Eben kein Preis Kampfansage von AMD.

Also da kann man ziemlich sicher sein, dass eine 4080 16 GB zum aufgerufenen Preis praktisch nicht mehr kaufbar ist.

Das ist in meinen Augen dann schon ein Preiskampf.
CrustiCroc schrieb:
Könnte im Dezember ziemlich lange Gesichter geben, da ist wirklich was faul.

Poor Volta (Ada) !
Warum sollte es das?

Außer so ein paar Leutchen, denen es hier im Forum anscheinend körperliche Schmerzen bereitet, dass sich einige auf RDNA 3 freuen, scheint es keine Probleme zu geben.

AMD Benchmarks waren in den letzten 4 Jahren sehr verlässlich, oftmals sogar leicht unter dem was dann raus kam.

Wenn die Benchmarks dann so sind, wie angegeben, gibt es zu diesem Zeitpunkt zwei neue Top-Produkte zu kaufen und wer es benötigt, kann ein Regal drüber die 4090 kaufen.

Warum sollte es da also lange Gesichter geben?
 
  • Gefällt mir
Reaktionen: DF86 und Capet
aldaric schrieb:
Die 7900 XTX und 7900 XT sind mit Sicherheit sehr gute Produkte zu einem "faireren" Preispunkt. Ich bin mir sicher, dass AMD durchaus noch mehr Chiplets draufknallen könnte um damit gegen die 4090 zu konkurrieren, aber muss das wirklich sein?
Hmmm, was hilft mehr Speicher?
Korrigiert mich wenn ich falsch liege, aber aktuell hat AMD doch noch einen Graphic Complex Die der von Memory Complex DIEs umgeben ist. Mehr MCDs geben mehr Speicherdurchsatz und mehr Speicher Anbindung, das ist ja schön und gut, aber die CUs sitzen dann immer noch all in dem einen Graphic Complex Die. Klar, dann kann man größer machen, aber einen zweiten einfach dazu setzen ist dann nicht so ganz Trivial und wohl noch ne ganze weile Zukunftsmusik.
 
Sunjy Kamikaze schrieb:
Die letzten jahre waren die AMD Folien doch immer quasi das was man auch bekommen hat. Warum sollte das jetzt großartig anders sein?
Weil eben diesmal so gut wie nichts angegeben wurde, was wirklich greifbar wäre.
FPS Angaben ohne jeden Vergleich auf der einen Seite, ein "Up to 1.7x" auf der anderen, was soll das sein?
Dafür zeigt man 3 Spiele die 2x 1.5x und einmal 1.7x zeigen, es also nicht mal genaue Werte gibt (1.5x ist eine Spanne von +45% bis +54%).
Alleine für die Raster Performance, wenn ich diese Angaben nehme, die wir bekommen haben, könnten wir also irgendwas zwischen 6950XT +51% und 6950XT +61% bekommen.

Die einzige exakte Angabe zur Performance findet sich in den Endnotes, nämlich dass die XTX bei 300W 54% schneller als die 6900XT (und damit 45% schneller als die 6950XT) ist.

Das ist kein Vergleich zu vorherigen Präsentationen und offensichtlich genau so gestaltet worden, dass man sie später nach den Launch Reviews auf nichts genaues festnageln kann.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Das ist kein Vergleich zu vorherigen Präsentationen und offensichtlich genau so gestaltet worden, dass man sie später nach den Launch Reviews auf nichts genaues festnageln kann.

Das ist schade, dass man sich da an die nVidia Präsentationen angepasst hat. nVidia spielt das Spiel ja auch schon seit 2 Generationen.
 
Oneplusfan schrieb:
Es ist ja schön, dass AMD den Anschluss hat, nur wird es so gut wie für keine einzige Person da draußen ein relevantes Kriterium.
Extrem eingeschränkte und aufs eigene Umfeld bezogene Meinung. Wenn niemand neue Technik-Standards wie den DP2.1 umsetzt, wird auch kein Hersteller entsprechende Geräte liefern.
Dazu kaufen die wenigsten jede Generation eine neue GPU und da spielt so ein Anschluss schon eine größere Rolle........ich kaufe z.B. immer jede 2te Generation eines der beiden oberen Top-Modelle, eigentlich von Nvidia, hier aber garantiert nicht mehr (so wie es sich abzeichnet, natürlich erst mal alle Benchmarks abwarten).

Während AMD also den Pionier-Schritt hier geht, versorgt Nvidia seine Kunden mit altem Zeugs zu hohen Preisen......warum sollte es auch nur einen einzigen Grund geben sich hierbei für Nvidia und gegen AMD auszusprechen, total bescheuert. Monitore hängen den normalen TVs eh schon immer hinterher was das angeht.

DP 2.1 bringt einen großen und notwendigen Schritt -> A Guide to DisplayPort 2.1
Der Großteil des Hates hier kommt von Leuten die sich eine 4090 gekauft haben oder gerne würden und jetzt alles andere schlecht reden müssen (warum auch immer man sein neues Produkt nicht genießen kann.....).
Viel Geld für im Verhältnis eine kleine Gegenleistung auf den Tisch gelegt haben und sich verschließen vor Technikfortschritt (was absurd ist), welcher mehr wie angebracht gewesen wäre in diesem Fall. Ganz besonders einer 4090 hätte der DP2.1 gut gestanden, aber man versorgt seine Kunden lieber auf Sparflamme.

Genauso wie die meisten akzeptieren, daß die 4090 maximale Leistung momentan bringt, kann man doch auch ohne rießen Theater akzeptieren, daß die ein und andere altbackene Technik absolut nichts in einem High-End-Produkt mehr verloren hat, erst recht nicht wenn man Premium-Preise dafür verlangt, aber eben keine Premium-Qualität liefert.
 
  • Gefällt mir
Reaktionen: DF86, Sunjy Kamikaze und Malustra
@aldaric Und da stellt sich für mich halt die Frage warum macht man das auf einmal? Ohne Not würde man das sicher nicht tun.

Auch die Ausrede, dass man keine Nvidia Karte als Vergleich hatte, weil die 4080 der Gegner sein soll und man noch keine bekommen hatte.... dann zeigt halt die Performance im Vergleich zur 3090Ti, bei der Zen4 Präsentation hat man auch den 12900K genommen weil Raptor Lake erst einen Monat später raus kam.
 
aldaric schrieb:
AMD Benchmarks waren in den letzten 4 Jahren sehr verlässlich, oftmals sogar leicht unter dem was dann raus kam.

Wenn die Benchmarks dann so sind, wie angegeben, gibt es zu diesem Zeitpunkt zwei neue Top-Produkte zu kaufen und wer es benötigt, kann ein Regal drüber die 4090 kaufen.
Da kann ich nur zustimmen.
Die Aussagekräftigste Folie an der Präsentation war ja diese:
1667763368759.png

Mit der voraussichtliche extrapolierten Performance einer 7900XTX die in Cyberpunk auf Augenhöhe
mit der 4090 liegt, sieht die Sache doch gar nicht so schlecht für AMD aus.
Klar Cyberpunk scheint tendenziell etwas besser zu performen, als die restlichen getesteten Spiele.
Aber anhand der genannten Spezifikationen der RX4080 sehe ich einfach nicht, dass diese auch nur in die Nähe einer 7900XTX kommen könnte, selbst die XT dürfte ein harter Brocken für die 4080 werden.
1667763581223.png
 
ArrakisSand schrieb:
Mit der voraussichtliche extrapolierten Performance einer 7900XTX die in Cyberpunk auf Augenhöhe
mit der 4090 liegt, sieht die Sache doch gar nicht so schlecht für AMD aus.
Anhang anzeigen 1280356
Cyberpunk ohne RT.
Da hatte auch RDNA2 keine wirklichen Probeme gegen Ampere.

Auf der anderen Folie sehen wir für Cyberpunk mit RT in 4K +47% ggü der 6950XT inkl FSR und ~+75% ohne FSR. Damit würde man knapp 10% unter einer 3090Ti landen und die 4090 wäre ziemlich genau doppelt so schnell.
 
So, am 10.12 wird meine 6800XT abgeholt und bezahlt, dann kann ich kurzzeitig ne 1060 einbauen aber hoffe drauf an eine 7900XT/XTX zu kommen.
Weiß nur nicht ob es Clever ist gleich eine zu kaufen oder lieber bis nach Weihnachten warten und eine bei eBa* Kleinanzeigen billiger abstauben?
Könnte durchaus die ein oder andere Woche mit der 1060 Leben, was meint ihr?
 
Ein weiterer Punkt: Die Endnote zur Folie, bei der von "up to 1.8x higher raytracing performance over RDNA2"

Testing done by AMD performance labs as of 10/30/2022, on a test system with a Radeon 7900 XTX GPU, Ryzen 9 7900X CPU, 32GB DDR5, MSI X670E Ace motherboard, Win 11 Pro vs. a similarly configured test system with a Ryzen 9 5900X, a Radeon RX 6950 XT GPU, a ASRock X570 Taichi motherboard

Warum hat man für RDNA2 eine schwächere CPU benutzt? Es wird wohl keinen Einfluss haben, nachdem die 4090 in den getesteten Spielen hier bei CB ja mit einem 12900K 3x und mehr schneller ist, trotzdem die Frage nach dem Warum.
 
Zuletzt bearbeitet:
Ich finde, man könnte es nach 90 Seiten endlich mal ruhen lassen, über irgendwelche Leistungstheorien hin und her zu schwurbeln. Wartet doch einfach auf Leaks oder richtige Tests.

Umso schneller die Karten werden, desto interessanter wirds im Duell mit Nvidia.
Bei hoher Leistung der 7000er müsste Nvidia ja direkt die Preise für die 4080 anpassen (theoretisch).
 
  • Gefällt mir
Reaktionen: Verak Drezzt, Guphoff und aldaric
Gr33nHulk schrieb:
Wenn niemand neue Technik-Standards wie den DP2.1 umsetzt, wird auch kein Hersteller entsprechende Geräte liefern.

Lol, es handelt sich um einen Anschluss. Der erfüllt genau einen einzigen Zweck: Mehr Bandbreite.
Wenn der Monitor das benötigt, dann baut man das ein, wenn nicht dann nicht. Das ist nicht irgendein fancy Feature. Das benötigt keine größere Adoption, genauso wenig wie Thunderbolt 3 vs 4 oder USB 3.1 vs 3.2.

Selbst dieses Monster hier: https://www.samsung.com/de/monitors/gaming/odyssey-neo-g8-g85nb-32-inch-ls32bg850nuxen/
hat nur DP 1.4.

Was mir persönlich etwas aufstößt ist der Fokus darauf, denn der ist völlig übertrieben. Klar wäre es besser gewesen, wenn man den bei Nvidia auch verbaut hätte.

Aber jetzt hier zu tun, als wäre 4k 240 Hz (das schafft ohnehin keine Karte) nicht mehr ausreichend und würde die Monitor Hersteller einschränken ist doch Käse. Wir sind da eh in Bereichen, die mit IPS/VA nicht mehr sinnvoll umsetzbar sind. Und bis wir OLEDs in dem Bereich haben, vergehen noch mindestens
4 Jahre.

Wenn ich eine 4090 hätte, dann würde die bei mir an nem UWQHD hängen. Und selbst damit kriegt man die Karte auf unter 100 Frames gedrückt.
 
  • Gefällt mir
Reaktionen: Cyberbernd
wird eine solide, kaufbare karte, zu einem preis, der den abverkauf der 3090ti unter druck setzt, und im raster der 4080 konkurrenz macht, im RT gegen die 4080 abstinkt, dafür aber eine ganze ecke günstiger sein wird.

alles in allem eine solide karte, definitiv eine interessante option.

letztlich steht und fällt alles mit FSR 3.0 - wenn das halbwegs konkurrenzfähig ist, ist AMD im Game.

zwar nicht im 4090er segment. aber wie ich vermute, ist alles UNTER 4090 eig. sowieso nur für Raster interessant. (ohne FSR / DLSS)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ArrakisSand
Taxxor schrieb:
Cyberpunk ohne RT.
Da hatte auch RDNA2 keine wirklichen Probeme gegen Ampere.

Auf der anderen Folie sehen wir für Cyberpunk mit RT in 4K +47% ggü der 6950XT inkl FSR und ~+75% ohne FSR. Damit würde man knapp 10% unter einer 3090Ti landen und die 4090 wäre ziemlich genau doppelt so schnell.
Cyberpunk ist die Mutter aller von Nvidia gesponserten Spiele und daher eher als best case für Nvidia zu betrachten und sicherlich nicht repräsentativ und übertragbar auf alle anderen RT Spiele. Ich will gar nicht wissen wie viel manpower und gresponsertes Equipment da in die Entwicklung von seiten Nvidias da reingesteckt wurde.
Aber allem Anschein nach hat es sich ja für sie ausgezahlt.
 
ArrakisSand schrieb:
Cyberpunk ist die Mutter aller von Nvidia gesponserten Spiele und daher eher als best case für Nvidia zu betrachten und sicherlich nicht repräsentativ und übertragbar auf alle anderen RT Spiele.
Dann nimm Guardians of the Galaxy, da ist Nvidia in RT noch stärker ggü AMD als in Cyberpunk
 
CrustiCroc schrieb:
Könnte im Dezember ziemlich lange Gesichter geben, da ist wirklich was faul.
Man sollte halt bei so dürftigen Grafiken zur neuen Hardware seitens AMD wirklich aufpassen(bei der RX6900XT Ankündigung war man wesentlich mutiger), in den paar Spielen die sie gepickt haben sieht es gut aus aber es wird auch Spiele geben wo der Leistungssprung nicht 50% ist sondern weniger, 30%, 40% usw. und bei diesen Spielen wird AMD wohl auch der 4090 ordentlich hinterherhinken und sich mit der 4080 duellieren.

Eventuell kommt ja später eine 7950XT, die dann gegen eine 4090 antritt mit 3GHz GameClock, die Architektur scheint diese Frequenzen herzugeben ob die entsprechend für einen Leistungssprung sorgen ist aber nicht garantiert...
 
Zurück
Oben