News AMD Radeon RX 7900 XTX & 7900 XT: RDNA-3-Grafikkarten sollen Anfang Dezember erscheinen

WommU schrieb:
Mich interessieren nur Karten von 250 bis max. 400€
Offensichtlich interessieren sich Nvidia und AMD nicht (mehr) sonderlich für dich :D
 
  • Gefällt mir
Reaktionen: Bright0001, GTrash81, Strahltriebwerk und eine weitere Person
Bin auch mal gespannt was sie wieder abliefern werden. Bei RDNA2 haben sie uns ja auch überrascht mit der Leistung der High-End Modelle. Bin optimistisch das sie es wieder hinbekommen und wenn nicht, ist auch nicht schlimm wenn sie nicht an eine 4090 ran kommen. Wobei auch hier mir die bis zu 420W ziemlich sauer aufstoßen und man nicht nur Nvidia für den hohen Verbrauch kritisieren sollte.

Aber für mich eh net interessant, meine 6800XT@6950XT oc und uv, mit nicht mehr wie 250W Verbrauch im Schnitt, wird noch dicke bis 2024 und zum Release von RDNA4 ausreichen und wird dann wieder eine RX8800(XT) gekauft und annähernd an die Leistung der High-End Modelle oc'd sowie undervoltet.
 
  • Gefällt mir
Reaktionen: Unnu
Ano_Dezimal schrieb:
Wobei dieses Jahr die wenigsten hochpreisiges verschenken werden.
Sehrteure Geschenke gibt es eh selten. Aber viele Nerds werden sich selbst ein Geschenk zu Weihnachten machen.
Ich bin auch schon auf die Preise gespannt. Hoffe dass AMD da ähnlich günstig wird bei der UVP wie bei RDNA2 auch wenn ich es nicht wirklich glaube.
Kaufen könnte ich auch für deutlich über 1000 Euro. Nur mag ich es nicht einen Preis zu bezahlen wo ich weiß das ich dabei verarscht werde. Nvidia ist mit den Traumpreisen eh raus. Mal sehen was AMD macht. Ansonsten kann ich warten. Wenn wir nächstes Jahr eine Rezessionen haben werden die irgendwann die Karten massiv im Preis senken wenn keiner kauft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 50/50
@McLovin14

Right right habs mir nochmal angeschaut. Die RTX4080 mutet hier eher wie eine hypothetische RTX4070 an, 256bit Speicherinterface und nur +12% mehr shader einheiten gegenüber der RTX3080 ist schon wenig. Nvidia hat hier die Namensgebung bisschen umstrukturiert wie es scheint. Das hat mich tbh in die Irre geführt muss ich zugeben.
 
reizt mich alles irgendwie 0 ... bei dem Stromverbrauch und dem lauen Spielemarkt ist ein Update für WQHD 2024 frühestens anvisiert ..
 
  • Gefällt mir
Reaktionen: _Flattermann_
@ComputerBase:
"...eine Radeon RX 7800 XT oder RX 7800 mit 36 Compute Units und 9.171 Shadern respektive 30 Compute Units und 7.642 Shadern."

Das ist sicherlich falsch.
1.) hat AMD wenn dann 36 WGPs (=72 Compute units / CU, da 1 WGP (auch sogenannter Dual-compute unit, DCU) aus je 2 Compute units besteht.
2.) mit 36 CUs zu je128 Shadern hätte die 7800 XT nur 4.608 Shader.
3.) 9.171 Shader ist sowieso Quark, weil nicht durch 2^n teilbar
4.) Daraus ergeben sich dann bei 36 WGP =72 CU =72*128 = 9216 Shader.
5.) 30 WGP sind auch nicht 7642 sonder 30*2*128 sondern 7.680 Shader.

EDIT: Ein CU hatte bei RDNA1 & 2 je 64 Shader, wenn sich der Wert nun verdoppelt, dann sind pro CU 128 Shader verbaut.
 
  • Gefällt mir
Reaktionen: bad_sign
ThePlayer schrieb:
Wenn wir nächstes Jahr eine Rezessionen haben werden die irgendwann die Karten massiv im Preis senken wenn keiner kauft.
Dann werden die Karten eher in Wirtschaften ohne Rezession verkauft, als dass hier der Preis gesenkt wird. Deutschland ist nicht der Nabel der Welt.
 
  • Gefällt mir
Reaktionen: simosh
Auch wenn die N31 basierten Karten viel zu teuer für mich sein werden, bin ich gespannt.
Für mich persönlich kommt aber nur eine N32 basierte Lösung (<250W TBP) in Frage. Die N33 basierten Lösungen fallen für mich auch raus, da sie wohl nur mit max. 8GB kommen und dies für mich ein Rückschritt wäre.
 
Zuletzt bearbeitet:
Wenn deine Karte so alt ist, dass sie wieder ein Revival bekommt :D
 
  • Gefällt mir
Reaktionen: Schinken42, Michael vdMaas, Thyron und 10 andere
th3o schrieb:
Das impliziert dass du mit NVIDIAs Preisen kein Problem hast


th3o schrieb:
[...]die 7900XT [...]statt die 2000€ für die 4090 dann 1500 oder so.

lol

Wenn die AMoneyD Gruppe 1500 Euro akzeptiert im Top End, die vor 2 Jahren die 3090 von Ngreedia für 1500 zerrissen hat, erfreue ich mich an den kommenden Threads. :D
Dass wird eine Gedicht aus Denial und Dissonanz, case study im Computerbase Forum
 
  • Gefällt mir
Reaktionen: GTrash81, Ragnarök88, crackett und 2 andere
konkretor schrieb:
Ich bin sehr gespannt wie AMD es genau umgesetzt hat mit dem Chiplet Design und wie die Performane aussieht.
Da AMD erst mal nur das SI + InfinityCache ausgelagert hat, ist es immer noch so, als wäre es ein monolithischer Block.

Das Chiplet-Design, auch wenn es mega interessant ist, ist bei RDNA3 nicht wirklich der Knackpunkt. Der liegt im Umbau der CU oder WGP und was AMD da genau gemacht hat.

Hat AMD die CU umgebaut, könnte es kritisch werden, hat AMD die WGP umgebaut, könnte NVIDIA auf allen Feldern Probleme bekommen. Verschiedene Gerüchte deuten bereits an, dass die 7900 XTX ca. 100 % an Leistung aufschlagen wird und bei RT vermutlich sogar mehr. Das spricht stark dafür, dass AMD nicht - wie anfangs vermutet - die CU umgebaut hat, sondern die WGP.

Der Vorteil von NVIDIA liegt dann nur noch in den Tensor-Kernen und das ist nur bedingt ein Vorteil. FSR2 zeigt eine ähnliche qualitative Streuung wie DLSS 2, also ist der Unterschied DLSS 3 von NVIDIA und das klingt besser als es ist.
Vitali.Metzger schrieb:
Das die XTX Karte 24 GB bekommen soll, wäre für die Karte angemessen. Bei der Raster-Leistung erwarte ich das die auf Augenhöhe mit der 4090 ist und bei der Raytracing Leistung sollte die mindestens Ampere hinter sich lasen.
Wenn es so kommt, wie die Gerüchte andeuten und wie man nun vermuten kann, dann lässt man bei RT auch Ampere hintersich und könnte auch mit Ada konkurrieren.

Man muss an der Stelle jetzt mal die Euro-Preise mit 2000 € aufwärts ausblenden, sondern sich die US-Preise ansehen: NVIDIA hat die 4090 für 1499 $ UVP angekündigt und die US-Preise eben nicht massiv angezogen. Die Preise für die 4080 sind vermutlich nicht SO hoch, weil NVIDIA sehr genau weiß, was da bei RDNA 3 kommt, wie Igor angedeutet hat - auch wenn das durchaus EINE Möglichkeit ist - sondern weil die Lager mit Ampere-Karten noch massiv überfüllt sind und man diese nicht unter Wert verkaufen will.

HighPerf. Gamer schrieb:
Deine Einschätzung der RTX4080 , da gehe ich nicht mit. Nur 60% der Leistung einer RTX4090 bedeutet gleichstand der RTX4080 mit der 3090Ti.
Naja, gehen wir mal davon aus, dass die RTX 4080 und 4090 ungefähr den gleichen Takt schaffen, dann ist der Hauptpunkt die Shader und da legt die 4090 ca. 60 % zu. Nimmt man die 3090 als Ausgang und dann den Takt, dann könnte die 4080 ca. 20 - 30 % vor der 3090 landen, die 4090 ist je nach Auflösung und Spiel 60 - 80 %. Am Ende wird die 4080 also zwischen 60 - 70 % der Leistung der 4090 bringen, das ist nicht SO unwahrscheinlich.
Ano_Dezimal schrieb:
Liegt unteranderem daran das viele Konsolenports kommen die "unnötig" viel Vram verbrauchen. Weniger geht auch, aber was man hat hat man.
Das liegt nicht wirklich an den Konsolenports, sondern daran, dass Texturen und Polygonmodelle immer größere werden und dass auch immer komplexere Datenstrukturen im VRAM gehalten werden müssen, auch wegen RT.

Genauso will man unnötiges Warten auf Texturen und Co verringern und damit ballert man natürlich den VRAM auch mit Daten voll, die man später gebrauchen könnte.
 
  • Gefällt mir
Reaktionen: user2357, simosh, Hyourinmaru und 4 andere
Laphonso schrieb:
lol

Wenn die AMoneyD Gruppe 1500 Euro akzeptiert im Top End, die vor 2 Jahren die 3090 von Ngreedia für 1500 zerrissen hat, erfreue ich mich an den kommenden Threads. :D

Naja, dir ist schon klar dass der Euro ggü dem Dollar aktuell ganz anders dasteht als das noch 2020 der Fall war? Das habe ich natürlich in meine Aussage mit eingearbeitet.
Außerdem bin ich eh seit 20 Jahren Nvidia Kunde, das ist für mich also mehr eine theoretische Debatte hier.
 
  • Gefällt mir
Reaktionen: GTrash81, iWeaPonZ und Laphonso
McLovin14 schrieb:
Schau dir dazu doch einfach mal die Daten der jeweiligen Chips an. AD102 in der 4090 hat 128 SM und damit 16384 FP32-ALUs. Der AD103 auf der 4080 hat 76 SM und damit 9728 FP32-ALUs (übrigens: die RTX3090Ti hat 84 SM und damit 10752 FP32-ALUs). Das entspricht genau 59,375 %.
HighPerf. Gamer schrieb:
Nur 60% der Leistung einer RTX4090 bedeutet gleichstand der RTX4080 mit der 3090Ti.

Ich mein... es gibt Offizielle Benchmarks, vor allem Plague Tale sieht extrem bitter aus, wenn nvidia die Folien vor dem aktuellen RTX 3000 Treiber (+5%) erstellt hat verschiebt sich das noch weiter.

Effizienz wird sicher ganz toll, aber man muss dann auch einfach den Preis von 1500€ bedenken.

Die 4080 könnte sich locker den Titel "schlechteste xx80 aller Zeiten" schnappen, auf die Reviews bin ich gespannt.

@McLovin14
Du meinst echt AMD unterbietet nvidias Preise um ~25%, wenn sie mehr Leistung liefern? Das ist schon eine sehr mutige Prognose, aber eventuell will AMD ja endlich Marktanteile gewinnen.

Ich freue mich jedenfalls wie verrückt auf den 3. November - wenn sie ordentliche Preise und ~4090-Leistung anbieten, dann werden die Kunden sicher gerne auch bis Dezember warten.
 
  • Gefällt mir
Reaktionen: GTrash81, Illithide, MortyMcFly und 2 andere
Als eingefleischter Nvidia-Käufer der jeweiligen Topmodelle des Herstellers gönne ich Nvidia einen heftigen Schlag ins Gesicht für ihre unverschämte Preispolitik.
1700 für die 3090 damals war das letzte, das ich bereit war, mitzugehen.

Hoffentlich kann AMD von der Leistung her ausreichend überzeugen und vom Preis her die Jacke deutlich unterbieten.
 
@th3o Wir sind uns da einig, mich amüsiert eher der rote Faden der Entrüstung bei den Nvidia Preisen und dass AMD nachzieht wird dann erklärt mit Euro-Dollar Kurs und "AMD kann auch nichts verschenken" etc.
Ich finde die selektive Beurteilung anti Nvidia uind Pro AMD einfach zum Schmunzeln.

AMD ist nicht unser und Euer buddy und zeigt im CPU Sektor den Preismittelfinger seit Zen 3, als man die Krone hatte. (Bin selber 5950x Käufer btw) Und wieder mit den viel zu teuren Zen4.
Als Intel diese Preis aufrief war es Gier.

Davon abgesehen glaube ich, dass RDNA3 vor allem dann gewinnt, wenn die 6700er und 6600er Modelle einfach deutlich preislich attraktiver werden als eine 4070. In diesem (obere) "Mittelklasse" Segment spielen sich bestimmt alleine 50-60% der kommenden Marktanteile ab.
Nicht bei der 4090 und 7900/7950XT, das ist eher die Prestige Nummer bei den Enthusiasten, bei der Nvidia noch zu viel vererbten branding Vorsprung hat. Und ja, schnelleres Raytracing DLSS halt. Wen interessiert in Zukunft noch Raster im High End.
 
  • Gefällt mir
Reaktionen: Michael vdMaas, GTrash81, crackett und 3 andere
Iscaran schrieb:
EDIT: Ein CU hatte bei RDNA1 & 2 je 64 Shader, wenn sich der Wert nun verdoppelt, dann sind pro CU 128 Shader verbaut.
Iscaran schrieb:
1.) hat AMD wenn dann 36 WGPs (=72 Compute units / CU, da 1 WGP (auch sogenannter Dual-compute unit, DCU) aus je 2 Compute units besteht.
Nicht ganz richtig. Ich hab es bereits ein paar mal erläutert: Es gibt aktuell 2 Möglichkeiten, die AMD gegangen ist, um die Shader pro WGP zu verdoppeln.

1. Umbau der CU von 2 * Vec32 auf 4 * Vec32 - die ersten Gerüchte.
2. Umbau der WGP von 2 * CU auf 4 * CU. Das sind die letzten Gerüchte.

Aktuell deutet alles auf das zweite Szenario hin, weil da die wenigste Umbauarbeiten notwendig sind und das Verhältnis aus RT-Kernen und TMU zu Vec32 und Skalar-Unit am besten ist.

Im ersten Szenario müsste AMD die CU vollständig umdesignen um das passende Verhältnis von Vec, Skalar zu RT-Kernen und TMU bei zu behalten, was für RDNA3 zu viel wäre.

Die WGP lässt sich eben eher um neue CU erweitertn, als die CU wirklich umbauen.
 
  • Gefällt mir
Reaktionen: chaser767, Unnu, Iscaran und eine weitere Person
@DevPandi

Scroll mal nach oben hab schon längst den Beitrag relativiert und meine Aussage angepasst, aufgrund von Nvidias spielchen aus einer XX70 eine XX80 zu machen. Ich hab die Specs nicht im Kopf und hab mich eher vom Namen in die Irre leiten lasse. Nvidia nervt....
 
  • Gefällt mir
Reaktionen: Beg1
DAU123 schrieb:
Glaube man kann sich vom Gedanken verabschieden, nochmal Mittelklasse für unter 400€ zu bekommen.
Ja wenn man die Abzocke mitmacht dann hast du Recht.
 
  • Gefällt mir
Reaktionen: Michael vdMaas
HighPerf. Gamer schrieb:
Scroll mal nach oben hab schon längst den Beitrag relativiert und meine Aussage angepasst, aufgrund von Nvidias spielchen aus einer XX70 eine XX80 zu machen.
Ich habe meinen Beitrag nur davor schon angefangen zu schreiben. ;) Ich hab dafür auch mehr als 10 Minuten gebraucht (deiner vor 25 Minuten, meiner vor 16 Minten, ergo 9 Min. dazwischen). Ich sitz heute - dank Samstagsdienst - an einer Infotheke und darf Menschen bei ihren Fragen helfen. Ich wäre viel,lieber in meinem Büro und würde an den Workstations schrauben oder die Datenbank mal wieder reinigen, ABER NÖ, ich ADS-Asperger-Pandachen muss heute MENSCHEN ertragen. GRAUSAM!
 
  • Gefällt mir
Reaktionen: Michael vdMaas, Hyourinmaru, Illithide und 6 andere
Zurück
Oben