News GeForce RTX 4090 ohne Gegner: AMD stellt Radeon RX 7900 XTX gegen GeForce RTX 4080

Dr.Pawel schrieb:
Ich gehe ganz schwer davon aus, beide sind weit weit oben was die Margen angeht, scheinbar haben halt die Leute doch noch sehr viel Geld!
Schau Dir mal die letzten Quartalsberichte von Nvidia und AMD an, die zeigen ziemlich eindeutig, die mussten beide Vorabveröffentlichungen tätigen weil die Ergebnisse so weit weg von den ursprünglichen Prognosen gelandet sind und die Margen haben einen Sprung vom 10m Turm ins leere Becken vollführt.
 
Gewuerzwiesel schrieb:
GTX 285 und GTX 580 war noch die etwas unrühmliche GTX 480
580 und 480 sind beide Fermi.
Ergänzung ()

Taxxor schrieb:
Warum überspringst du die GTX 480?
Weil beide Fermi sind. Genauso könntest du fragen warum keine 280 und direkt 285? Weil es jeweil die Topkarten der jeweiligen Generation waren.
Ergänzung ()

Taxxor schrieb:
Warum überspringst du die GTX 680?
Weil die 680 die Mittelklasse Kepler war. Da fing nvidia an die 104er als High-End zu verkaufen.
 
MrHeisenberg schrieb:
Für $999 schneller als eine 4080. Das klingt für mich nicht nach "Klo".
In RT schneller? Ne du das ist fürs Klo. AMD versagt anscheinend ziemlich brutal. Dieser Move von wegen 7900XTX = 4080 ist eine Selbstzerstörung. Und das mit TSMC so zu versagen….
 
ETI1120 schrieb:
Eine Fehlerdichte von 0,02 1/cm² ist sehr ambitioniert. Ian Cutress hat mit 0,07 1/cm² gerechnet, was mir von den Zahlen die ich im Web gesehen habe, realistisch erscheint
Ich weiß, vermutlich wird sich bei 4N es um 0,1 bewegen und bei N5 bei 0,07
Waren halt auch nur Beispielrechungen um zu zeigen, dass am Ende AMD einfach mehr Ships pro Wafer rauskriegt.
Mit den Zahlen von Ian Curtess würde aber die Yield des 600mm² Ada Chips auf unter 70% rutschen, was ich als nicht Ökonomisch sehe... Deswegen vermute ich, die defective Density niedriger. AMD würde dann fast 100% mehr Die aus dem Wafer bekommen als NV und du weisst, was das für die Yield bedeutet.
 
Taxxor schrieb:
580 und der 780Ti liegen ja ganze 3 Jahre und eben auch 2 GPU Generationen
Eine Generation, Kepler, gleiche Architektur und gleiches Fertigungsverfahren. 3 Jahre weil Nvidia es sich leisten konnte die 104 als High End zu verkaufen.
 
Taxxor schrieb:
Meine aktuelle, eher optimistische Schätzung(vor allem bei RT):

Anhang anzeigen 1279882
Spielverderber... ;) Ich dachte ihr steht auch unter NDA
Am Ende ist das die konservative und damit sehr Wahrscheinliche Rechnung. Sollte AMD halt eher zur 1,6 tendieren, dann könnte es knapp für die 16GB Version reichen (die 7900XTX wäre dann nur noch 11% langsamer als die 4090).. Nichts desto Trotz wäre es eine nette 7800XT gewesen.. Aber AMD hätte dann auch 899 USD genommen, so ist der Move mit der 7900XT nicht verkehrt.
 
  • Gefällt mir
Reaktionen: Apocalypse
B.L. Swagger schrieb:
Ist sie aber und ich muss sie drosseln und in vielen games sogar mindestens auf 60%, weil ich dann selbst mit meinem 165hz Monitor nicht mehr klar komme und zuviele fps habe in 4K und dann tesring und stutter xD
Das ist die sparsamste Karte die ich bisher hatte und ich Kaufe die Flaggschiffe schon seit es die Monster 3D Karten gab.
Gehäuse und Netzteil wechseln xD
Jop. Manche Leute vergessen, dass die Teile nicht dauerhaft auf 100% laufen. Erst recht nicht, wenn man nur nen 60hz-Monitor hat. Das hat man aber auch in dem CB-Test gesehen, denn sie haben ja extra gezeigt, wie die Leistungsaufnehme bei aktiviertem FPS-Limit aussieht.
 
  • Gefällt mir
Reaktionen: B.L. Swagger
Ich sags halt immer wieder: Solange Jensen Huang CEO von nVidia ist, wird AMD nicht gewinnen. Das lustige ist, dass viele davon reden wieviel sparsamer doch die AMD GPUs sein werden...dabei wird ausgeblendet, wieviele Guides zum Undervolten der 4090 gemacht wurden bei denen sich der Verbrauch auf 300W reduzieren lässt, mit 10-15% Performanceverlust. Wäre ich in dem Preissegment unterwegs wäre ich wohl eher bei der 4090 gelandet. Denn wenn ich die Kohle habe, dann habe ich ganz sicher auch weitere 600+ €. Dann will ich halt das Beste haben. Ich finde es sehr schade, dass AMD wieder nicht das erhoffte Gegengewicht abliefern konnte.

Ich fühle mich allerdings nun wesentlich besänftigter was meinen Kauf der 3080 12 GB für 870€ und den 12700K angeht. Die 3080 reicht mir mehr als aus für alles was kompetetives Gameplay angeht in 1440p 144 Hz und die meisten Story basierten Games der nächsten Jahre werden wohl in High auf 90+ FPS laufen. Ich bin froh nicht auf Raptorlake gewartet zu haben, denn die haben ja kein AVX-512, was mir für Emulation sehr wichtig ist und auch Alderlake ist jetzt um einiges teurer geworden. Ich bin rundum glücklich.

Nur sieht es für die Zukunft des Hardwaremarktes düster aus. Besonders auf dem deutschen Markt. Denn wir werden hier nichts vom goldenen Hardwarezeitalter mitbekommen (von vielen Techyoutubern heraufbeschworen), was günstigere Preise auf dem Gebrauchtmarkt angeht, verglichen mit Amiland und auch Neukauf wird künstlich hoch bleiben. Und allgemein kann nVidia weiter schalten und walten wie sie wollen, was Preise angeht.
 
Shoryuken94 schrieb:
Der Chip selbst ist nicht so viel günstiger, bei den guten Yields bei TSMC 5nm. Der Siliziumeinsatz ist bei RDNA3 auch relativ hoch, zudem ist das Packaging wesentlich teurer. Der wirkliche Sparvorteil liegt in den deutlich günstigeren Boards und Speicher, da man keine überzüchtete GPU auf die Beine gestellt hat. Die Ersparnis beim Chip in Bezug zu den gesamtkosten der Karte sind für RDNA3 nicht der größte Faktor.
Wie ich zuvor geschrieben habe, sollten die Chip Kosten in etwa mit denen, des für die RTX4080 verwendeten AD103 (378mm2) vergleichbar sein.
Die Kosten für den Chip des AD102 (608mm2) dürften (inkl. packaging und MCD's beim NAVI 31) mindestens 2/3 höher ausfallen, dann kommen, wie du bereits sagtest, noch die Mehrkosten des GDDR6X und das komplexere Board dazu.
Shoryuken94 schrieb:
AMD ist bei ähnlicher Leistung etwas günstiger, hat mehr Speicher und ist in manchen Punkten unterlegen, in manchen sehr stark.
Bei ähnlicher Leistung etwas günstiger?
RTX4080 (16GB) UVP von 1199$ vs. RX7900XT (20GB) UVP von 899$
Das sind sage und schreibe 300$ bzw. 33% mehr, nicht etwas günstiger.
 
thepusher90 schrieb:
Nur sieht es für die Zukunft des Hardwaremarktes düster aus. Besonders auf dem deutschen Markt. Denn wir werden hier nichts vom goldenen Hardwarezeitalter mitbekommen (von vielen Techyoutubern heraufbeschworen), was günstigere Preise auf dem Gebrauchtmarkt angeht, verglichen mit Amiland und auch Neukauf wird künstlich hoch bleiben.
Abwarten.. Deutschland ist eines der reichsten Länder des Planeten.
Ich weiß was du meinst, aber ich glaube nicht, dass es so zutreffen wird.
Und wir jammern halt auf einem verdammt hohen Niveau.

@ArrakisSand
Nvidias RTX Serie hat bis heute den RT Zuschlag...Dieser liegt bei der 80er Serie sicher bei 200-300 USD... Marketing ist halt alles.
 
Poati schrieb:
Und diejenigen, die größeren Kram im Rechner haben, die wissen auch genau, dass das bisschen bekloppt ist, wenn man es rational betrachtet.
so ist es halt mit Hobbys, ich würde auch nie auf die Idee kommen mehr als xxxx€ für Felgen, Sammelfiguren,..... auszugeben, hobbys sind halt selten rational :)
 
  • Gefällt mir
Reaktionen: Laphonso und FreedomOfSpeech
Rockstar85 schrieb:
Nvidias RTX Serie hat bis heute den RT Zuschlag...Dieser liegt bei der 80er Serie sicher bei 200-300 USD... Marketing ist halt alles.
33% Mehrkosten für vielleicht grob 5% der Games wo man einen Unterschied sehen kann.
Marketing-Opfer kann man da nur sagen.
Mal davon abgesehen dass die RX7900XT laut Prognosen wohl in etwa nur 20 und die XTX nur in etwa 10 % selbst in RT zurückliegen wird.
 
wern001 schrieb:
Die 4090 ist doch kein Nischenprodukt, die gehen weg wie warme Semmel beim Bäcker
Man muß die Größenordnung des Computerspielemarktes dagegen stellen.
Habe ich das richtig verstanden, das Lisa Su auf der RDNA3 Vorstellung von 3,5 Milliarden Gamern sprach?

Einige 10k RTX4090 sind im Verhältnis aber totale Nische!
 
Vitali.Metzger schrieb:
Wenn man den AMD Benchmarks glauben schenken darf und diese lagen bis jetzt immer richtig, wird die XTX bei der Raster-Leistung 10-15% hinter der 4090 liegen. In Anbetracht zum Preis ist das jetzt auch kein Beinbrauch.
Bei der rt Leistung wird die aber unter der 3090ti liegen... Für 1300 Euro. Wenn ich in dem Preisbereich kaufe will ich ganz sicher nicht bei Triple a Games rt ausmachen müssen. Ich bin sehr ernüchtert von AMD. So muss ja Nvidia nicht Mal den ekelhaft gierigen 4080 Preis senken. Raster Leistung ist mir schon in dieser Gen hoch genug aber als Singleplayer steht und fällt es für mich mit rt
 
  • Gefällt mir
Reaktionen: Ragnarök88 und B.L. Swagger
pipip schrieb:
Ich denke, dass hier alle jetzt auf das neue Design stürzen und sich zu sehr auf das Design versteifen. Hier schreiben schon einige, dass jetzt der Chip von 4080 doch günstiger sein sollte!
Der AD103 ist mit 379 mm² sehr viel kleiner als AD102 mit 608 mm²

Und bei diesem Vergleich ist Navi 31 mit 300 mm² + ein und 5 bzw. 6 GDC mit jeweils 37 mm² nicht unbedingt günstiger.
pipip schrieb:
Dabei wird das gesamte Lineup gekonnt ignoriert. Weiters wird völlig ignoriert, welche "Spielmöglichkeiten" AMD jetzt mit dem Design hat. Die 6nm Chips werden jetzt bei Navi 31 für zwei Varianten verwendet
. Eine Variante mit 6 Speicher Chips, eine Variante mit 5 Speicher-Chips. Es folgen aber weitere Modelle, eventuell nur mit 4 Speicherchips, oder 3 Speicherchips.
Der Leak von Angstronomics war was die Chipgrößen anbelangt gut. Auch wenn sie bei den Shader wie alle komplett daneben gelegen sind.

Die Chipgrößen bei Navi 31 wurden sehr gut getroffen. Dem entsprechend gehe ich davon aus das die Zahlen von Angstronomics für Navi 32 und Navi 33 ebenso zutreffen.

Navi 32 hat demnach eine Fläche von 200 mm² und 60 CUs. Das entspricht der Anzahl des RX6800. Bei derselben Leistungssteigerung wie bei 6950XT auf 7900XTX sollte Navi 32 so ca. 50 % schneller als eine RX6800 sein. Bei den sparsamen Angaben die AMD gemacht hat, verzichte ich auf einen Mittelwert und nehme den kleinsten (50 %).
Bei Navi 32 sind 4 MCD vorgesehen. Eine abgespeckte Version mit 3 MCD halte ich für möglich. Falls AMD ebenso wie bei Navi 31 vorgeht hätte die abgespeckte Version 48 CU.

Darunter ist der monolithsche Navi 33 angesiedelt. Navi 33 hat wie die 6600XT 32 CU, ebenso ein 128 bit Speicherinterface und ebenso 32 MByte Infinity Cache. Navi 33 wird wohl ebenfalls ca. 50 % schneller als die 6600 XT sein. Oder ein bisschen besser. Da RDNA3 den Infinitycache besser nutzt sollte. Es wird auch bei Navi 33 eine abgespeckte Version geben, hier würde ich wie bei der 6600 auf 28 CU tippen.

Navi 33 soll komplett in N6 gefertigt werden. Das interessante ist, dass Navi 33 kleiner als Navi 23 ist. Es sollten ca. 25 % mehr Chips je Wafer anfallen. Damit ist Navi 33 die ideale GPU für von Mainstreamkarten.

Von einer vierten GPU ist noch nichts bekannt und ich sehe eigentlich auch keinen Platz dafür.

Phoenix Point soll wie Rembrandt 12 CUs haben. Einen Infinity Cache soll nach aktuellem Informationsstand nicht geben. Die Herausforderung wird sein, für genügend Speicherbandbreite zu sorgen.

pipip schrieb:
Wer weiß vllt sehen wir bald auch APUs mit 1-2 Speicherchips im Verbund mit DDR5 ?
Beim Notebook hat diese Idee ihren Charm. Allerdings wäre so etwas nicht auf den Desktop mit Sockel AM5 übertragbar.

Aus meiner Sicht gehört im Notebook LPDDR5 die Zukunft. Und der Speicher muss ins Package des SoC. Dann kann man auch ein breites Speicherinterface realisieren das die iGPU nicht verhungern lässt.
pipip schrieb:
Es wird hier jetzt sehr auf das Top Modell versteift ohne dass hier wirklich über die vielen Variationen an Möglichkeiten mit dem neuen Infinity-Bus zu bedenken.
Es wurde das Topmodell vorgestellt. Also wird darüber geredet.

Der Inifity Fabrik ist IMO für die Kopplung von GPU und CPU oder zwischen CPU-Kernen interessant. Ich würde mich wundern, wenn er intern in der GPU eingesetzt wird. Der Infinity Fabric hat nicht die erforderliche Bandbreite. Es ist bis jetzt nicht bekannt wie genau AMD den MCD und den GCD koppelt.
pipip schrieb:
Genau deshalb schafft es AMD die Leute hier auch immer wieder zu überraschen. Denn wer sagt, dass die Technik nicht auch mal bei APUs und CPUs, bei Konsolen und Co angewendet wird ?
Was für eine Technik meinst Du? Das Packaging? Die Datenanbindung zwischen MCD und GCD? Chiplets an sich?

Ich finde die Lösung cool. Für jeden Typ von Schaltkreis wird der adäquate Node verwendet. Aber nach Zen 2 ist es jetzt keine grundsätzliche Überraschung mehr. Da werden wir im nächsten Jahr erheblich ambitionierte Dinge von AMD sehen.

pipip schrieb:
Weiteres nutzt AMD aktuell den 5nm TSMC Prozess, der ohne viel Aufwand in den N4 Prozess von TSMC geported werden kann. Sprich sie können ohne viel Aufwand ein Refresh-Design liefern, sobald N4 billiger ist.
Ich würde nicht viel auf die verlautbarten Bezeichnungen der Prozesse geben. Sowohl AMD und Nvidia haben Anpassungen gegenüber den Standardprozessen vorgenommen. Und das Potential dieser Anpassungen ist viel höher als der von TSMC genannte Unterschied zwischen N5 und N4.

Als TechInsight bei Mediatek nachgemessen hat, die verlautbart haben N4 zu verwenden, kam raus dass alle Maße des Chips den N5 Standardzellen entsprechen.

pipip schrieb:
NV Design ist wo zu finden ? Genau, bei dem was N4 gerade hergeben kann und genau deshalb ist das der Chip so teuer. Und auch der kleinere Chip von "nur" 379 mm^2 wird nicht günstig sein.
Das Nvidia Chipdesign war immer gut. Vieles von dem was der Architektur im vergleich zu AMD zugeschrieben wurde, war IMO schlicht und einfach dem guten Chipdesign bei Nvidia geschuldet.
Wenn die unabhängigen Tests vorliegen, kann man das ganze besser beurteilen.

Entscheidend ist im Vergleich, dass AMD weniger teure Chipfläche im 5 nm Node benötigt. Interessant wird sein, ob es sich auf die Performance oder den Verbrauch auswirkt.
pipip schrieb:
Der N6 Speicher-Chip, den bei vielen und kommenden GPU Generationen verwendet werden könnte, kann in Maßen produziert werden und das wird vermutlich die Kosten stark drücken, sodass die Chips am Design kaum eine Rede wert sind.
Ob der MCD tatsächlich auch bei den nächsten Generationen eingesetzt wird? Möglich.
Aber das ist noch ganz weit weg. Bevor die nächste Generation von RDNA kommt, erscheint CDNA3.
Und CDNA3 wird im Vergleich zur Trennung GCD und MCD viel mehr Neuerungen bieten. Das mag Gamer nicht interssieren, ist aber technisch sehr interessant.

pipip schrieb:
Kommen N4 ported Designs ?
Wozu? Kostet nur Geld und bringt so gut wie nichts. Das hat AMD bei N6 auch nicht gemacht. Neue Chips sind auf N6 gewechselt, alle bestehenden Chips blieben auf dem ersten 7 nm Prozess. Das Gerücht vom 6-nm-Refresh von RDNA 2 war, so plausibel es sich zuerst angehört hat, eine Ente.

AMD will Phoenix Point in 4 nm bringen. Das hat mich ein bisschen gewundert, da AMD bei 7 nm lange beim selben Prozess geblieben ist. Aber offensichtlich macht AMD bei 5 nm schon frühzeitig eine zweite Prozessanpassung. Wie gesagt wird AMD keinen Standardprozess von TSMC verwenden, sondern eigene Anpassungen bekommen.

IMO ist es eher unwahrscheinlich dass RDNA 4 auf 4 nm kommt. In 2 Jahren TSMC ist N3E schon eingefahren. Und N3E bietet sehr viel Potential für Designoptimierungen. Denn man kann z. B. in den Bereichen in denen man HD-Bibliotheken verwendet, auch einzelnen HP-Transistoren integrieren

pipip schrieb:
Bringt AMD als nächstes einen größeren Chip mit den selben N6-Speicher Chips?
Ich denke nicht. Dazu ist der Markt zu klein und die Kosten zu hoch.
Auf Basis der 108 mm² Flächendifferenz und der 36 CU mehr von Navi 31, würden 120-CUs-GCDs 380 mm² und 128-CUs-GCDs 404 mm ² haben.
pipip schrieb:
Ist RDNA4 dann vllt der selbe Chip mit N4 und dann aber MCM (Dual?) mit gestapelten N6-Speicher.
Das kompakte Design und das Abkoppeln des Speicherinterfaces machen für RDNA 3 Multi-GCD-GPUs überflüssig. Im Gaming Markt kann AMD keine teurere GPU platzieren.

Um eine solche Multi-GCD-GPU im Creator-Markt gegen die 4090 verkaufen zu können, fehlt bei RDNA 3 Raytracing-Leistung.

Die eigentliche Frage ist, wieviel chipfläche benötigt RDNA 4?

Laut Angstronomics soll AMD bei RDNA 3 mit bis 2 zusätzlichen L3-Cache-Ebenen experimentiert haben.
Eigentlich sollte eine version der Navi 31 mit gestapelten L3-Cache kommen. Eventuell kommt diese Version als RX7950
 
  • Gefällt mir
Reaktionen: Colindo, ComputerJunge, pipip und 2 andere
incurable schrieb:
Das sind die falschen Vergleichskarten, Navi 21 XTX steckt in der 6900 XT, Navi 21 XT in der 6800 XT und der Abstand liegt bei ca 10%.
? 6800 und 6800XT sind die Karten die du selbst als Vergleich angeführt hast gegen 7900XT und 7900XTX
 
AleksZ86 schrieb:
hobbys sind halt selten rational :)
Stimme ich dir vollkommen zu. Nur wenn ich so teilweise die Preisdiskussionen lese, dann könnte man auch meinen es geht um Grundnahrungsmittel. Zumal es abseits von Mining-Hypes eigentlich geht. Ja es ist teurer geworden und Nvidia hat sehr hochpreisige Produkte an der Spitze etabliert über die letzten Jahre, aber ist doch schön für die Enthusiasten.
 
  • Gefällt mir
Reaktionen: Öcher Tivoli
MrHeisenberg schrieb:
Man kann von gar nichts ausgehen, weil es Maximalwerte (Up to) sind und diese mit der avg. FPS der 4090 verglichen werden. Abgesehen davon kennt man weder die Szene, noch sonstige Rahmenbedingungen.
Das stimmt so nicht.

AMD hat keine Benchmarks gegen die 4090 präsentiert.
Wäre die 7900XTX tatsächlich nahe an der 4090 hätten sie es gemacht.
 
Was Preise. Mir ist mein Geld dafür zu schade. Meine absolute Schmerzgrenze liegt bei 600-800 Euro. Von daher,,,, mir Wurscht. Meine 3060Ti wird noch lange ihren Dienst tun.
 
AMD muss auch nicht mit der RTX 4090 konkurrieren, da der Großteil der Masse sich eher im mittleren Segment bewegt. Es gibt noch etliche, die mit ihrer GTX 1060/1070 bzw. RX 580 oder 5700XT zufrieden sind. Die meisten Games laufen auch auf 1080p auf diesen alten Karten flüssig. Wir reden hier von oberer Mittelklasse von vor ca. 4 Jahren.
AMD hat alles richtig gemacht. Frage ist nur was der Straßenpreis sein wird. Da die Lager der Händler immer noch voll sind, werden sie absichtlich die alten Karten nur reduzieren und für die neuen Karten exorbitante Preise verlangen.
 
Zurück
Oben