News AMD Radeon RX 7800 (XT): Es tut sich etwas in der RDNA-3-Gerüchteküche

NVIDIA GeForce GTX 1650 release preis 160€ akt 130€
5.85%-0.13%

NVIDIA GeForce GTX 1060 release preis 280€
4.79%-0.05%

NVIDIA GeForce RTX 3060 release preis 339€ realistisch erst 2022 400€ aktuell 280€
4.73%+0.22%

NVIDIA GeForce RTX 2060 release preis 329€ aktuell 240€
4.38%+0.07%

NVIDIA GeForce RTX 3060 Laptop GPU laptop egal
4.38%+0.03%

NVIDIA GeForce GTX 1050 Ti release preis 180€ aktuell 150€
3.70%-0.23%

NVIDIA GeForce RTX 3060 Ti release preis 399€ realistischer 600€ aktuell 330€
3.22%+0.19%

NVIDIA GeForce RTX 3070 release preis 499€ aktuell 420€
2.95%+0.10%

NVIDIA GeForce RTX 3050 release preis 280€ aktuell 220€
2.69%+0.08%

NVIDIA GeForce GTX 1660 SUPER release preis 199€ aktuell 220€
2.57%-0.04%

NVIDIA GeForce GTX 1660 Ti release preis 240€ aktuell 250€
2.12%-0.06%

nVIDIA GeForce RTX 3080 releaase preis 699€ aktuell eol 750€
1.89%+0.01%
und der beginn wo alles unter 2% fällt.
 
Rockstar85 schrieb:
Ich denke mal die 7900XTX war ausgelegt auf einen abgespeckten 4090 Chip, da AMD nicht daran glaubte, dass NV sowas macht.
Es gibt folgende Aussagen von Rick Bergmann:
Die RDNA 3-basierte Radeon RX 7900XTX GPU, die wir veröffentlicht haben, zielt auf einen Preis von $999 (ca. Yen 136.000) ab, was das "obere Ende" der Preisspanne darstellt, die von High-End-Anwendern unter den allgemeinen PC-Gaming-Enthusiasten erwartet wird. Die RX 7900XTX wurde mit Blick auf die "obere Preisgrenze" von $999 (ca. Yen 136.000) entwickelt.

Technisch gesehen ist es möglich, eine GPU mit Spezifikationen zu entwickeln, die mit denen von NVIDIA konkurrieren können. Wenn wir jedoch eine GPU mit einer TDP (Thermal Design Power) von 600 W und einem Referenzpreis von $1600 (ca. ¥219.000) auf den Markt bringen würden, würde sie vom durchschnittlichen PC-Gaming-Fan akzeptiert werden? --Wir haben darüber nachgedacht und uns entschieden, eine solche Strategie nicht zu verfolgen.
https://www.itmedia.co.jp/pcuser/articles/2303/13/news035_5.html; mit DeepL gut lesbar.

Und das ist IMO ein vernünftiges Vorgehen. Die Anzahl der Leute die für eine Gaming Grafikkarte 1600 USD ausgeben ist nicht sehr groß. Die Anzahl der Leute die bereit sind dies für eine AMD Gaming Grafikkarte auszugeben ist noch viel kleiner.

Die 4090 hat erheblich mehr Anwendungen als nur Gaming Grafikkarte.

Rockstar85 schrieb:
Nvidia hatte hier massiv Luck, dass TSMC Wafer frei hatte.
Nvidia hat dem Glück massiv nachgeholfen in dem sie vor ab bezahlt haben.

Außerdem hat Nvidia frühzeitig (2020) erkannt, dass die Samsung 5 nm Prozesse nichts taugen.
Rockstar85 schrieb:
Aber alles deutet bei Full N31 auf einem AD102 Gegner hin. Ich hätte gerne gesehen, wie RDNA3 performed hätte bei 50% Improvement pro Watt
Das ist jetzt nicht so schwer.

https://www.computerbase.de/2023-05/nvidia-geforce-amd-radeon-benchmark-test-2023/3/
Die 7900XTX liegt in der Energie Effizienz 35 % vor der 6950XT.
AMD hat gesagt die 7900XTX liegt 54 % vor der 6950XT.

1687123372309.png


1687123292932.png


Also wenn es tatsächlich 54 % wären, gäbe es kein gejammere wie ineffizient Navi 31 ist.

Da die 7900XTX ein bisschen mehr als die 6950XT verbraucht kann man ca 55 % bei den Framerates drauflegen.
1687123631431.png

1687123700476.png


Man sieht dass es mit den 54 % besserer Effizienz nicht für die 4090 bei gereicht hätte.
Aber die 7900XTX hätte sich ordentlich von der 4080 abgesetzt.

Auf die 7900XT bezogen würde es bedeuten, dass sie nur noch ein wenig hinter der 4080 zurückliegen würde.
 
syfsyn schrieb:
NVIDIA GeForce GTX 1650 release preis 160€ akt 130€
5.85%-0.13%

NVIDIA GeForce GTX 1060 release preis 280€
4.79%-0.05%

NVIDIA GeForce RTX 3060 release preis 339€ realistisch erst 2022 400€ aktuell 280€
4.73%+0.22%

NVIDIA GeForce RTX 2060 release preis 329€ aktuell 240€
4.38%+0.07%

NVIDIA GeForce RTX 3060 Laptop GPU laptop egal
4.38%+0.03%

NVIDIA GeForce GTX 1050 Ti release preis 180€ aktuell 150€
3.70%-0.23%

NVIDIA GeForce RTX 3060 Ti release preis 399€ realistischer 600€ aktuell 330€
3.22%+0.19%

NVIDIA GeForce RTX 3070 release preis 499€ aktuell 420€
2.95%+0.10%

NVIDIA GeForce RTX 3050 release preis 280€ aktuell 220€
2.69%+0.08%

NVIDIA GeForce GTX 1660 SUPER release preis 199€ aktuell 220€
2.57%-0.04%

NVIDIA GeForce GTX 1660 Ti release preis 240€ aktuell 250€
2.12%-0.06%

nVIDIA GeForce RTX 3080 releaase preis 699€ aktuell eol 750€
1.89%+0.01%
und der beginn wo alles unter 2% fällt.
Die 4000er Serie kommt sogar schon auf 1.5% knapp
RDNA3 <0.30%..

Das ist doch deutlich das die Leute nvidia kaufen, die 1650 + 1060 + 3060 +2060

haben soviel marktanteil wie amds gesammtes lineup aus allen gpus !!
 
  • Gefällt mir
Reaktionen: Apacon
schade, kein Fisch, kein Fleisch. Irgendwie geht es nur noch Geil und sau mäßig teuer oder teuer und durchwachsen... Dabei würde ich mein 2017 Setup gerne bald ablösen...
 
  • Gefällt mir
Reaktionen: ErnestoHoro
Rockstar85 schrieb:
Wenn die 7800XT am Ende bei dem von Igor ermittelten Wert raus kommt, darf diese GPU keine 600€ kosten.. eher 499USD..
600 ist trotzdem günstiger weil besser als 4070 und AMD muss halt auch verdienen

Der Preis macht halt den Unterschied und die 16 gb vram haha
 
BAR86 schrieb:
woher soll ich wissen was du denkst?
Es geht darum was du denkst. Ich wende deine Logik an. Die hinkt halt überall.
BAR86 schrieb:
eigentlich waren da so einige Chips in Entwicklung, welcher am Ende dran kommt weiß man oft erst 1 Jahr später.
Ja, dann erzähl mal. Was war denn noch so alles in der Entwicklung. In Software wird einiges simuliert. In Hardware bringt man nicht Chips die man nicht fertigt. So ein tape-out verschlingt viel Geld.
Die Frage ist aber nicht, was alles getestet wurde, sondern was letztendlich gefertigt wird. Du hast ja behauptet AMD wusste das. Jetzt sagst du, das weiß man erst weit später.

BAR86 schrieb:
Und ja, offenbar hatte man die richtige Annahme. Hätte der Compute Chip die erhofften Taktraten erreicht wäre man ja an Nvidia wesentlich näher dran
Wo ist die Begründung? Auch mit deutlich höheren Taktraten ist N31 noch weit von der Performance eines AD102 entfernt. Wenn sie also gedacht hätten Nvidias Chip wäre kleiner, dann hätten sie ihren noch kleiner gebaut? Merkwürdige Logik.

BAR86 schrieb:
und wie oft muss ichs noch erklären, dass die Transistoren zu einem großen Teil vom Cache kommen, der nunmal neu ist.
Die reine Zahl der Logik ist eine andere, dazu gibts Schätzungen im Netz, kannst sie dir ja aussuchen.
Der Cache nimmt 90 mm² ein. Bei GA102 sind es 45 mm². (Quelle sind die Die Shot annotation von locuza) Auch ohne den Cache ist das Ding extrem gewachsen.
Und es geht um das was für einen Chip investiert wird und nicht in erster Linie darum wofür. Die Wafer sind so teuer wie nie und trotzdem macht man einen riesigen Die.

BAR86 schrieb:
Es gibt da einige direkte Berichte von ATI/AMD, wie man mit falschen Gerüchten Nvidia schon früher gezwungen hat einen größeren Chip vorzubereiten.
Solche Varianten hat Nvidia immer in theoretischer Planung. Diesmal hat man sie halt miteingeplant weil AMD ein skalierbares Konzept hat,
Schon wieder. Du behauptest AMD weiß was Nvidia für einen Chip bringt bevor sie ihren eigenen finalisieren, aber umgekehrt weiß Nvidia das nicht. Schlechtere Informationsbeschaffung bei Nvidia? Du weißt sicher mehr.
BAR86 schrieb:
Ja, auch bei AMD hat man das gewusst
Du kannst sicher Quellen nennen.

BAR86 schrieb:
Hokus-Pokus-Fidipus so einfach erstellt man einen besseren Chip wenn man die Specs des Konkurrenten kennt.
Warum hat ATI/AMD diesen Zauberspruch nur die letzten 15 Jahre nur 1x angewandt (bei der Radeon 5870).
Siehe den Post von ETI1120. Natürlich hätte AMD auch einen größeren Chip bauen können. Die Frage ist nicht das können, sondern das wollen. Ökonomisch hatte das wahrscheinlich keinen Sinn für AMD gemacht.
Und ich sage nicht, dass es einfach ist einen schnelleren Chip zu bauen, sondern dass es problemlos ist einen potentiell konkurrenzfähigen Chip zu bauen. Sprich vergleichbare Anzahl Transistoren. Wenn ich von vorneherein nur 3/4 dessen verbaue, was die Konkurrenz macht, dann ist's klar, dass man die Performance nicht erreicht. Es sei denn die Konkurrenz patzt grob.

BAR86 schrieb:
wenn man verstehend lesen kann ist es nicht so herausragend. Vielleicht hast du dich einfach zu wenig mit den Daten befasst.
Auf dem Papier sind fast 3x so viel Transistoren verbaut worden.
Aber eben nicht 3x so viele Einheiten, viel geht eben auf dem Cache zurück. Aber 50% mehr Logik wären kein Problem

Und 200% mehr RT Einheiten wären auch kein Problem.
Cache fügt man halt 1x zum Konzept hinzu, dann ist es ab nun immer dabei. Wird immer Chipfläche fressen.
Dann rechne doch vor. Wenn man die Logik +50% nimmt, dann kommt man bei ansonsten gleicher Konfiguration auf wieder ~600 mm² in N3e. Werte für die skalierung von TSMC genommen. Und damit wäre der Sprung kleiner als in vorigen Jahren, denn da hatte man gesamt+50% und nicht Logik +50%. Dazu kommt, dass auch die Speicherbandbreite erhöht werden muss. Vielleicht reicht GDDR7, vielleicht braucht man auch größere Caches.

Das ist das was ich gesagt habe. Ein kleinerer Chip ist nicht möglich, wenn man einen vergleichbaren Sprung machen will.
aber du meinst ja alles besser zu wissen, nur ohne es mal durchzurechnen.

BAR86 schrieb:
Und ja, auch da schaut es aktuell richtung Monolith aus, bei den größeren Chips.
Schaut so aus reicht nicht. Du meinst ja die Konkurrenz weiß genau was gemacht wird. Also muss AMD heute schon wissen was Nvidia macht. Anscheinend doch nicht so einfach...
 
Holgmann75 schrieb:
Die Performance ist das kleinste Problem, es ist eher die Performance pro Watt die nicht so berauschend ist!
AMD hatte nie vor die 4090 herauszufordern und die 4080 hat die 7900XTX bei Rasterizing im Griff, so lang man nicht auf den Stromverbrauch schaut :freak:
Jaja, ich kann mich noch gut an all die Artikel und Kommentare erinnern wo RDNA 3 die Speerspitze von Ada,sprich die 4090, lang machen sollte. Von daher ist es Humbug zu behaupten man hatte nie vor die 4090 herauszufordern. Was wäre das auch für eine Einstellung? Man hat es einfach nicht gepackt und liegt weit hinter den Erwartungen ganz abgesehen von dem klar unterlegenem Featureset.

Wie lang ist es her, dass AMD FSR3 angekündigt hat?

Ich hoffe next Gen. bleibt es nicht bei den Gerüchten, wäre besser für den Markt, aber solang ich es nicht schwarz auf weiss sehe glaube ich der AMD GPU Sparte gar nix mehr. Gerüchte über AMD RDNA sind objektiv mittlerweile so interessant wie wenn in China ein Sack Reis umfällt.
 
  • Gefällt mir
Reaktionen: AI94, Apacon und DerFahnder
SaschaHa schrieb:
Die 4070 Ti ist für die gebotene Gamingleistung einfach zu teuer. Ich persönlich habe mir zwar trotzdem kürzlich eine gegönnt, da sie ich von der Computing-Performance und dem niedrigen Stromverbrauch (185 Watt mit 65% Powerlimit und dank 180 MHz OC kaum Performanceverlust) profitiere und sie super leise betreiben kann, aber allgemein halte ich sämtliche RTX 40XX-Karten für zu teuer aktuell.
Jo kannst aber alle games max WQHD machen für sehr lange zeit dann der niedrige Stromverbrauch RTX und DLSS 3 was willst mehr aso vram haha
 
Gibt es einen Grund, warum der Eintrag in kyrillisch geschrieben wurde?
 
Zuletzt bearbeitet:
weil die EAEU ein Wirtschaftszusammenschluss früherer Sovjetstaaten ist, der Sitz in Moskau liegt und deren Amtssprache Russisch ist
https://en.wikipedia.org/wiki/Eurasian_Economic_Union


Zur Karte: als Erstes würde ich ja AMD für 16GB VRAM danken…
Mal sehen, ob die Karte irgendwelche Vorteile gegenüber der 6900XT haben wird, so Recht kann ich mir das noch nicht vorstellen, auch nicht beim Stromverbrauch
 
Und dann darf man hier ernsthaft diskutieren, ob NVidia technologisch aktuell vorne liegt oder nicht :D
 
  • Gefällt mir
Reaktionen: bad_sign
ja sorry ich butter keine 1k€ für 7900xtx/xt rein...

für 1.6k kann man mit der 4090 nix falsch machen.

Die 4080 gibts auch für 1.1k mittlerweile, why not
 
shayenaaa schrieb:
ja sorry ich butter keine 1k€ für 7900xtx/xt rein...
Die 7900XT gibt es bereits für 799 Euro.

1,6k für eine GPU im Consumer Markt ist der Fehler egal wie performant die GPU auch seien mag. Und genau weil Leute so denke und kaufen "für 1,6k kann man mit einer 4090 nix falsch machen" sind Nvidia GPUs so überteuert. Der Kunde ist also selber schuld.

die 4080 aber sicherlich nur von Palit, KFA und Manli für 1100 Euro sonst immer noch 1200-300+.
Ergänzung ()

Apacon schrieb:
Und dann darf man hier ernsthaft diskutieren, ob NVidia technologisch aktuell vorne liegt oder nicht :D
Architektur und fertige Endprodukte sind aber nun man was Anderes. An einer 4060/Ti, 4070/TI gibt es als Endprodukt trotz Ada Lovelace ebenfalls genügend Kritikpunkte.
 
  • Gefällt mir
Reaktionen: FrankN84, Piep00, Vitec und eine weitere Person
@Taurus104

Deswegens chrieb ich auch "technologisch". AMD hat ganz andere Probleme. Die kommen technologisch einfach nicht hinterher und haben dann eben schwerwiegende technische Schwierigkeiten.

Während NVidia dann eben wirtschaftliche Entscheidungen trifft bezüglich des Designs ihrer Karten. (was man natürlicha uch kritisch sehen kann).

Aber während AMD es schlichtweg nicht besser hinbekommt, kann NVidia sich entspannt zurücklehnen und immer genau den richtigen GEgenspieler gegen AMD aus dem Hut zaubern.
 
Apacon schrieb:
Und dann darf man hier ernsthaft diskutieren, ob NVidia technologisch aktuell vorne liegt oder nicht :D
Es ist ja noch nicht mal klar, ob RDNA3 überhaupt vor 2 liegt /s
 
Die RDNA 3 Archtiektur ist bisher alles andere als ein Effizienwunder und der Leistungszuwach zu den noch kaufbaren RDNA 2 Vorgaenger-Grafikkarten ist bestenfalls duerftig, so gesehen sind - jetzt schon - die Navi 32 Karten von AMD/RTG als herbe Enttaeuschung einzustufen, denn diese kommen viel zu spaet auf den Markt (ich bin froh, nicht so lange auf eine RDNA 3 bzw. eine RX 7800XT dGPU gewartet zu haben und habe den namentlichen Vorgaenger letztes Jahr schon gekauft, der m.E. aktuell immer noch deutlich mehr lohnen duerfte).

Die minimalen bis unterdurchschnittlichen Leistungszuwaechse, egal ob bei AMD/RTG oder nVidia im Vergleich zu den Vorgaenger-dGPU-Generationen (Ausnahme ist da wirklich nur die RTX 4090), sollen also neue Gaming-dGPU-Kaeufer animieren?
Kein Wunder, dass die jetzigen dGPU-Generationen alles andere als beeindruckende Verkaufszahlen aufweisen und wer weiss, was mit RDNA 4 und RTX 5000er Grafikkarten auf einen zukommen wird, noch geringere Leistungszuwaechse bei noch ueberzogeneren Preise (zumindest zum Marktstart)?

Selten waren Gaming-Grafikkarten so unattraktiv (mit mageren, unausgereiften/schlecht implementierten und trotz allen Entwickler- und Medienhypes "nice to have" Features, generationsuebergreifend magerem Leistungszuwachs bei teilweise abstrus hoch angesetzten Preisen) wie aktuell und damit zum abhaken ... hoffentlich kann Intel ein wenig aufholen in den kommenden Jahren, auch wenn das maximal die Mittelklasse dGPUs betreffen duerfte, damit sich der Markt fuer potentielle Kunden wieder positiver gestaltet und mehr bietet.

Was ich deutlich interessanter als diese (spaetestens seit dem Marktstart der RTX 4070) langweilig anmutenden Grafikkarten dieser Generation faende, waeren Neuigkeiten von AMD/RTG zum FSR 3 Entwicklungsstand, denn das sollte - laut vorherigen Ankuendigungen - ja angeblich spaetestens bis Ende diesen Monats in irgendeiner Form kommen (und war wohl angedacht zusammen mit den Navi32 Karten offiziell vorgestellt/vermarktet/gehyped zu werden).


Das obige Video von RedGamingTech (in welchem FSR 3 erst fuer August eingeschaetzt wird) ist jetzt auch schon 3 Wochen alt und wer weiss, wie ausgereift (fuer eine Reihe von Spielen und nicht nur ein oder zwei Vorzeigetitel) FSR 3 daher kommen wird?

Angeblich wird FSR 3 - im Gegensatz zu FSR 2 - nur fuer Radeon Karten kommen (Intel und aeltere nVidia Karten bleiben wohl aussen vor), was natuerlich auch Sinn macht irgendwann diesen Zopf abzuschneiden. Ich waere auch ueberrascht, wenn FSR 3 nicht "RDNA-only" werden wird (also Polaris und RX Vega auch noch unterstuetzt werden).
 
Zuletzt bearbeitet:
andimo3 schrieb:
Mal sehen, ob die Karte irgendwelche Vorteile gegenüber der 6900XT haben wird, so Recht kann ich mir das noch nicht vorstellen, auch nicht beim Stromverbrauch
Besseres RTX?
 
Es gab auch mal ein Gerücht, dass sich Navi 32 so verzögert, weil man hier die Fertigungsbugs von Navi 31 doch endlich reduzieren will. Alleine der Stromverbrauch im Idle bei zwei Monitoren wäre hier ja schon langsam ein gefühlter Quantensprung für RDNA3, wenn Navi 32 das in den Griff bekommt.
 
  • Gefällt mir
Reaktionen: -WATC-
Zurück
Oben