News Radeon RX 7900 XT(X): AMD legt sich die RTX 4080 als ersten RDNA-3-Gegner zurecht

Ich muss sagen, ich bin auch etwas von der RT-Leistung der neuen Karten enttäuscht. Klar ist Ray Tracing noch nicht essenziell, aber bringt schon ein wenig Stimmung. Vor allem aber ist es m.M.n. die Technik der Zukunft, ich fände es also wichtig, dass nach und nach die Aufteilung der Rechenleistung mehr Richtung RT verschoben wird. So wie es in dieser Generation aussieht, scheint das Verhältnis von Raster- zu RT-Leistung ziemlich genau gleich geblieben zu sein. 😒

Außerdem mag ich das Bennenungsschema nicht. Nur weil XTX irgendwie nostalgisch besetzt ist, finde ich, muss man es nicht verwenden. Es wäre hier deutlich sauberer gewesen, 7900 und 7900 XT daraus zu machen.

Ganz cool finde ich DisplayPort 2.1, damit könnte ich meine aktuelle Konfiguration ohne Komprimierung nutzen - nur natürlich leider nicht mit dem aktuellen Monitor. Also wäre das bei reinem GPU-Upgrade nur ein theoretischer Vorteil...
 
Zuletzt bearbeitet:
PHuV schrieb:
Wo sage ich das oder warum interpretierst Du das jetzt so raus?
Zitat von Dir:
Wo es die meisten hier vermutlich das ganze Leben lang davon kaum was bemerkten.

Wenn das mal keine Relativierung eines Beschisses ist.
PHuV schrieb:
Weißt Du es etwa genau? Wenn ich das allein anhand der Forenmeldungen hier und anderswo beurteilen soll, würde ich sagen, daß es wirklich nur wenige bemerkt haben.
Wie oft wurde die Karte verkauft und wieviele User schreiben in den diversen Foren?
Abgesehen davon hat Nvidia treiberseitig einiges getan, damit der VRAM nicht über 3.5GB benutzt wurde.
Die meisten User wissen vermutlich bis heute nichts von der falschen Deklarierung der 970. Wenn es dann bei über 3.5GB VRAM-Auslastung ruckelt wird es kaum einer auf die Karte und deren verkrüpelten Speicheranbindung schieben.

Cunhell
 
  • Gefällt mir
Reaktionen: cbmik
AMD ist immer über den Preis an seine Kunden gegangen.

Außer HD7970 und Vegas.

Die Zeiten sind leider vorbei.

Einzigster Hoffnungsschimmer ist Intel, hätte nie gedacht, dass ich das sagen würde 😏
 
Laphonso schrieb:
Ja, wobei.... 500 Euro bis 800 Differenz sind schon eine irre Hausnummer in der Gesamtplanung.
Diese Differenz zwischen einer 7900XTX und einer 4090 kann eben doch noch mal bedeuten, dass man Budget spart. Oder in die die DDR5 Plattform investiert mit Board und Speicher z.B.
Jap das muss natürlich jeder für sich wissen.

Denke mir persönlich, wenn ich 1400 für ne Grafikkarte bezahlen würde, dann bezahle ich für das Top Modell auch 2000.
 
  • Gefällt mir
Reaktionen: Laphonso
Ganz schön viele Pessimisten hier unterwegs. Die neuen AMD Karten konkurrieren mit der RTX 4080 - für 200€ weniger. Und selbst wenn sie bei Raytracing schwächer sind, ist es immer noch ein gutes Angebot. Zudem steckt Raytracing immer noch in den Kinderschuhen und ist vom Massenmarkt noch weit entfernt. Und das sage ich als Besitzer einer RTX 4090.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: khadgar, jo0 und TKessel
Tja hmm, also für mich irgendwie, wenn auch so befürchtet ein absolutes No Go die Karte.

Ich benötige schon wirklich deutlich mehr Raster Leistung ggü. meiner 6900XT um irgendwie glücklich zu sein. Die 4080 packt hier in meinen Titeln gerade einmal 17-20 FPS drauf.

Damit hänge ich noch immer bei weitem nicht im 4K120 Bereich. Ich habe auch gerade die Befürchtung dass mich auch eine 7900XTX da nicht wirklich weiterbringen wird.

Bleibt wohl vermutlich doch wieder nur der Sprung ins 4090 Wasser.

Meine Hoffnung auf eine ordentliche AMD Karte ist damit von 80% auf 40% gesunken. Ich habe nur absolut keine Lust 2200€ abermals für eine GPU auf den Tresen zu legen. Wobei es diesmal endlich auch krasse Leistung dafür gibt.
 
Das werden schon seeehr nette Karten 🤓.

Bin gespannt auf die Tests und was die Partnerkarten mit wahrscheinlich etwas erhöhter Leistungsaufnahme noch rausholen.

Auch wenn ich mich eher für die später kommende „Mittelklasse“ interessiere.
 
cunhell schrieb:
Zitat von Dir:
Wo es die meisten hier vermutlich das ganze Leben lang davon kaum was bemerkten.

Wenn das mal keine Relativierung eines Beschisses ist.
Das ist Deine Interpretation, sie entspricht nicht meiner Bewertung der Sache. Aber sie wurde in meinen Augen von vielen überdramatisiert, und Deine Bezeichnung "Beschiss" trifft die Sache nicht wirklich, es wäre Beschiss gewesen, wenn die 0,5 GiB gefehlt hätten.
 
gokkel schrieb:
Ich hatte in den letzten knapp 20 Jahren immer eine AMD-Karte. Diesmal wird es aber eine Nvidia.

Warum? Zweierlei Gründe:
1. Immer noch keine ernstzunehmende Alternative zu NVENC. AV1 wird leider von den relevanten Streaming-Plattformen noch gar nicht unterstützt, wann das kommt, ist sehr ungewiss.
2. Erwartete Raytracing-Performance.

Punkt 1 ist sicher nicht für jedermann relevant, für mich leider schon.

Punkt 2 auch nicht unbedingt, aber wir reden hier immerhin über eine 1200€-Karte. Wenn ich persönlich (andere mögen das anders sehen) schon Geld in dieser Preisklasse für eine Grafikkarte in die Hand nehmen soll, dann doch, weil ich möglichst in max settings spielen möchte und da gehört RT für mich dazu. Sonst bleib ich in einer niedrigeren Preisklasse und nehme eine 6900XT oder so.
Die 7000er Serie hat gleich 2x Video Engines und kann AV1 kodieren und dekodieren gleichzeitig.

OBS ist Onboard und wird das ganze wohl dann ab Tag 1 unterstützen.
Ergänzung ()

ghecko schrieb:
Wer 50.000 für ein normales Auto ausgibt, der tut das nicht weil er Mobil sein will sondern weil es ein Prestigeobjekt ist.

Sich mit GPUs zu schmücken ist hingegen etwas jämmerlich, da sollte man sich eher auf Kosten/Nutzen konzentrieren. Aber wenn man mich fragt ist jegliche Markentreue irrational und Prestige jämmerlich. Und das sage ich den Leuten auch so, wenn sie es mir unter die Nase reiben. Auch bei Autos.
Danke und Amen !

Die Leute verstehen einfach nicht was die Firmen von ihnen wollen : GELD ! mehr nicht, egal wie Hauptsache man lutscht die Geldbörse vom Kunden richtig aus, es ist egal ob es Firma X oder Y ist, beide wollen das Eine. Man muss eben selbst genug Hirn besitzen um eben das Gescheite auszuwählen, sowas ändert sich von Modell zu Modell und kann nicht über die Firma pauschalisiert werden.
 
Zuletzt bearbeitet:
nicK-- schrieb:
Die 7000er Serie hat gleich 2x Video Engines und kann AV1 kodieren und dekodieren gleichzeitig.

OBS ist Onboard und wird das ganze wohl dann ab Tag 1 unterstützen.
OBS vielleicht ja, aber nicht Twitch nach meinem Kenntnisstand. Da scheint das aktuell noch in den Sternen zu stehen, wann das kommt. Youtube afaik auch nicht.
 
juwa schrieb:
@Northstar2710
Aktuell kostet hier eine 4090 von Zotac 2189€, könnte sie heute noch direkt im Lager abholen, aber dann killt mich meine "Regierung". LG aus Rom. ;)
Habe ich etwas anderes geschrieben?
 
Ist das dass erste mal wo wie 7900 XT Benchmarks sehen?
Rund 20% Performance Plus von der XT zur XTX.
von den 52 zu 61 TFLOPS sollten das ja 17% sein.
Ich frag mich wieso die 7900 XT nur 300W Zieht und so tief taktet... Ob das wohl eine OC Wunder karte wird?
Aber leider wird das Stock bios garantiert maximal 15% also 350W Zulassen.
Bin aber mal gespannt wie weit sich die Referenzkarten für die Reviewer übertakten lassen.
 
Hylou schrieb:
Ihr wollt mir also grade allen ernstes erzählen, dass AMD keine Benchmarks veröffentlicht, weil sämtliche Karten die weltweit existieren (!!!) auf NDA stehen?
Selbst Benches gegenüber deren eigenen Karten haben NDA?

Also sorry Leute, das könnt ihr doch nicht ernst meinen. Natürlich können sie nicht die 4080 zeigen, jedoch aber vergleiche zur RTX3000 sowie deren eigene 6000 Serie.
Zur RX6000 worden Charts gezeigt.
 
@t3chn0
War ja immer so, egal was da NV von wegen 2-4x gelabert hat.

Die Highend Graka (3090, 6900,..)wird von der neuen "fast highend" um 20-35% geschlagen. (zB 3080 vs 2080ti).

Nur war der Preis vernünftig und somit haben wir die Upgrades mitgenommen.

Eine 4080 um 800eur hätte einen anderen Effekt auf uns alle..

Aber 1500 dafür?

4090 od bei alter Highend bleiben. Mehr Möglichkeiten gibt's da eigentlich nicht.
 
@Caramelito

Das sehe ich ähnlich. Wobei ich halt für meine 6900XT auch satte 1899€ bezahlt habe. Die ich jetzt noch mit Glück für 499-599€ los werde.... das ist RICHTIG übel und sowas habe ich auch noch nie erlebt.

Bis jetzt hielt sich der Wertverlust in Grenzen. Die Sache ist jedoch, dass die 6900XT manchmal in Schlagdistanz der 3090 war.

Diesmal wird die 4090 IMMER durch die Bank deutlich stärker sein, da sie einfach ein absolut abartiges Monster ist.

Von der Leistung her passen die 2000€+ diesmal deutlich besser als noch bei der 3090. Wobei meine 3090 einfach hervorragend war. Muss man wirklich genau so auch sagen.

Ich rechne feste damit, dass die 7900XTX sofort vergriffen sein wird und wir die nicht unter den 4080 Preisen sehen werden.

Da ist wirklich die Frage, ob man sich nicht direkt den Bomber 4090 gönnen sollte. Da wird so schnell nichts neues kommen und die Karte ist wirklich die erste echte 4K120 Karte.
 
  • Gefällt mir
Reaktionen: Caramelito
t3chn0 schrieb:
Karte ist wirklich die erste echte 4K120 Karte.
Das verstehe ich nicht wirklich, warum jetzt genau diese Karte die erste echte 4K120 sein soll. Also woher diese binäre Einteilung kommt.
Beispiel: In 4K mit max Settings (d.h. auch max. RT) liegt sie in Cyberpunk bei 33 FPS (laut CB-Test). Man kann dann die Einstellungen natürlich so lange tunen, bis man 120 FPS hat. Aber an der Stelle kann man auch die Slider noch nen Tick weiter nach links machen, dann is z.B. die 7900 XTX auch ne "echte 4K120-Karte". Ich hoffe es wird klar, was ich meine. Also warum sind die Einstellungen, bei der die 4090 dann genau die 120er-Marke erreicht, die entscheidend?
 
  • Gefällt mir
Reaktionen: Hardwarious, iron_monkey und Sly123
cunhell schrieb:
Abgesehen davon hat Nvidia treiberseitig einiges getan, damit der VRAM nicht über 3.5GB benutzt wurde.
Nicht ganz richtig. Der Treiber hat gezielt nicht Bandbreitenintensive Daten in den Bereich über 3,5GB gelegt. So dass die Nutzung dieses Speichers nicht mehr tiefgreifend negativ ins Gewicht gefallen ist.
 
Zuletzt bearbeitet:
nun, die FPS/Watt ist weder bei den neuen nvidias oder Radeon Karten gegeben, sprich Effizienzverlust. bin gespannt welche Preise AMD für diese karte aufruft. RT nur mit fsr/dlss...ein Algorithmus aus den 1960er Jahren scheint für moderne Technik nicht beherrschbar zu sein ( ja und es kommt auch auf die spieleprogrammierer an, wie das implementiert ist).
 
BxBender schrieb:
Bei AMD ist nichts schief gelaufen.
Das Augenmerk lag eindeutig auf der Umstellung auf ein Chipletdesign.

Das Chiplet Design ist komplett nicht aufgegangen bei dieser Generation.

Die IF nimmt z. B. ca. 10 % der Größe beim GCD ein und ca. 10 % bei den MCD. Alles in allen wäre ein monolithischer Chip irgendwo bei 390 mm² bis 410 mm² gelandet . Auch wenn 5nm teurer ist als 6nm (bzw. 7nm+) ist es eben fraglich ob es diesmal zu einen günstigeren Gesamt Package führt. Das Packing ist nicht wahsinnig Teuer aber 50 Drähte, Stromversorgung für die MCD etc. kostet alles auch Geld. Man kann es eben nicht vergleichen mit dem MCM Vorteil bei CPU.

Somit gehe ich fest von aus, dass das Ziel eher war: 2 GCD + 8 MCD als "Top Dog". Dafür spricht sehr was am Ende nun nVidia als 4090 gebracht hat. Irgendwo in der Entwicklung hat nVidia dann die "Notbremse" gezogen weil der nVidia KGB Informationen bekommen hat. Meine Güte: die 4090 bringt bei 350 Watt ca. 3 % weniger Leistung im Gamig. Die Karte ist total Over the Top und das ganze Ding war eher gedacht um es noch mehr nach oben zu treiben.

Die Frage bei den Gaming Karten ist jetzt das folgende: Gibt es ein prinzipielles Problem die Grafiklogik auf x Chips aufzuteilen oder es hat diesmal nur nicht geklappt.

Falls es ein Prinzip Problem ist sehe ich für AMD nur folgenden Vorteil: der GCD könnte auf 3nm gehen und die MCD bleiben bei 6nm (bzw. 7 nm) in der Zukunft bzw. man braucht nicht mal neue MCD sondern kann ja die bestehenden faktisch weiterverwenden. Dazu, dass man flexibler beim Portfolio ist da man GCD und MCD eben einfach mischen kann. Aber....das ist für nVidia nicht das Kunstwerk es nachzubauen......

Zum Thema Raster Leistung:

die ADA SM und RNDA3 CU ähneln sich hier diesmal massiv -> 2 x FP32 un 1 x Int und nVidia hat paar Auslastungsprobleme behoben. Die Rasterleistung wird irgendwo bei 15 % mehr für die 7900XTX landen was auch die Mehrrechenleistung hergibt auf den Papier gegenüber der 4080.

Effizienz -> Die 4090 wäre bei 3 % Leistungsverlust absolut problemlos mit 350 Watt zu betreiben mit deutlich kleineren Kühlern und eben 2 x PCI - E Steckern. Aktuell geht bzgl. Effizienz und Effektivität kein Weg an der 4090 mit reduzierten PT vorbei.
 
  • Gefällt mir
Reaktionen: iron_monkey
Serandi schrieb:
Reizvoll wofür genau? 4K ohne Raytracing oder 1440p mit Raytracing auf leicht bis normal?
Ja, genau dafür. Schonmal überlegt, daß es Leute gibt die RT nicht auf Vollgas aufdrehen (wollen), und mal schauen was das ist und wie es aussieht. Dafür sind die neues RX7000er schon gut zu gebrauchen.

Du bist wieder einer von denen mit 4090 im Rechner, die mit ihrer Voreingenommenheit ankommen. Freu dich an deiner Grafikkarte und lass den anderen auch ihren Spaß. Du hast Leistung bis zum gehtnichtmehr, andere können und wollen sich das nicht leisten.
 
Zurück
Oben