News AMD Radeon RX 7800 (XT): Es tut sich etwas in der RDNA-3-Gerüchteküche

Cempeg schrieb:
SC = Starcraft? 😁

In dem Fall meine ich Star Citizen. An Starcraft dachte ich gar nicht.

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: Cempeg
Ich glaube, das wird der längste Launch einer Grafikkartenserie. November sind die ersten beiden Karten vorgestellt worden, mit etlichen Problemen. Dann wurde die RX7600 auf dem Markt geworfen, damit die 7000er Serie nicht in Vergessenheit gerät. Die Karte hätte man sich auch schenken können. Wenn es so weiter geht, ist bald das Jahr herum und AMD hat noch nicht einmal die Hälfte der 7000er auf dem Markt gebracht.

Ich bin gespannt, ob AMD die Zeit genutzt hat, um ggf. Hardwarebugs auszubügeln. Ich glaube AMD hat sich mit den RDNA3 Karten etwas übernommen, und nicht damit gerechnet das Nvidia so einen Vorsprung sich holt.
 
Corpus Delicti schrieb:
Wer kauft sich denn 2028 noch eine GraKa mit voraussichtlich 8GB VRam? Die bleiben doch heute schon im Regal liegen. ;)
ich kauf sie mir 2029, dann gibts sicher wieder ein YouTube Video wie man die 8GB Karte mit 32 bestücken kann ;)
 
Ich bin zufrieden mit rdna3, ja der stromverbrauch nJo... Aber da ich von nee vega64 komme kenne ich das thema, und wegen dem netzteil muss ich aktuell sowieso undervolten -10% leistung / läuft die 7900xtx in neuen games ähnlich wie die vega, und in alten games spar ich strom ^^. Und sie phot.anlage auf dem dach... Die 100watt mehr merk ich nicht
 
  • Gefällt mir
Reaktionen: danyundsahne
McLovin14 schrieb:
Nur ist die 7800XT eher der Nachfolger der RX6800, sollte sie tatsächlich noch auf N31 basieren. Kommt sie aus N32, ist sie der Nachfolger der RX6700XT.
Das ist mir Bekannt. Da an ber nividia die Preise macht, muss amd Jahr reagieren.
Nur sehe ich das so, eine 40700ti kostet ~850€, sollte die 7800XT schneller als die 4070 sein, darf sie gerne etwas mehr Kosten, wäre dann 20€ über der 4070.
 
Holzinternet schrieb:
Gediegen Verbrauchsarm wäre schick... Gerne unter 200 Watt unter Volllast. Ohne das ich händisch irgendwas einstellen und testen muss...

Nur TDP anpassen. Da musst du nichts testen.
Hast dann dementsprechend weniger Leistung.
Nur beim UV muss man testen.
 
CDLABSRadonP... schrieb:
Ausnahmen bestätigen Regeln, in denen klar ist, dass es Regelfälle und Ausnahmefälle gibt und in die nicht selbst eingegossen ist, dass es keine Ausnahmen geben darf. In deine Regel hast du aber eingegossen, dass es keine Ausnahmen geben darf:
Es gibt von so gut wie jeder Regel Ausnahmen... Es sollte klar sein, was gemeint ist, außer man ist besonders spitzfindig... (warum auch immer man das sein müsste, außer man ist "Oberlehrer")
 
Holgmann75 schrieb:
AMD hatte nie vor die 4090 herauszufordern
Immer schön den Aussagen von AMD glauben, die dann plötzlich nach dem Launch kamen...
Einfach mal ne 384Bit GPU mit 5.3TB Infinity-Cache Bandbreite entwickeln, inklusive 7 Dies und 530mm^2 Gesamtfläche um damit einen 256Bit 380mm^2 Monolithen zu matchen. Wer AMD glaubt, dass ein 4090 Gegner nie geplant war, der glaubt auch echt alles.
 
  • Gefällt mir
Reaktionen: schneeland, Perdakles, Atlan2101 und 5 andere
Tja, irgendwie ist mir der mit RDNA2 aufgekeimte Optimismus wieder komplett abhanden gekommen. Eine RX7800XT in WQHD nur zwischen 2 und 10% vor einer RX6800XT? Bei gleicher TBP? Wenn das zutrifft - Auerha. RDNA3 zündet bisher (und anscheinend nicht nur bei mir) überhaupt nicht, beim VRAM hat AMD zumindest mit Navi33 den gleichen Weg wie Nvidia eingeschlagen und von FSR3.0 hört und sieht man nix mehr. Bei FPS/Watt sieht es auch mau aus und über die Malaise beim Multi-Monitor-Betrieb breiten wir einfach mal den Mantel des Schweigens. Summa summarum (und obwohl die mir seit der ersten Titan nie mehr wieder ins Haus kommen) hat Nvidia hier das deutlich rundere Paket, leider.
Holgmann75 schrieb:
AMD hatte nie vor die 4090 herauszufordern
Das kannst du getrost in das Fabelreich verweisen. Klar wollten die das. Wie im Übrigen auch hier klar demonstriert wird. Nur war die 4090 einfach nicht so gierig an der Steckdose wie erwartet und performt auch mit 300W immer noch bärenstark.
 
Zuletzt bearbeitet:
Da bin ich mal gespannt. Eine 7800XT auf Basis von Navi31 wäre schon sehr merkwürdig. Das Teil ist verdammt groß und kostet dann in der Fertigung etwa so viel wie nen AD103. Spielt dann aber irgendwo zwischen den beiden AD104 SKUs. Nicht sehr attraktiv für AMD.
Würde auch bedeuten, dass Navi32 noch später kommt. Denn beide liegen ja eng beieinander.
Navi32 ist deutlich attraktiver, da der GCD recht kompakt ist. Allerdings müssten die dann etwas mehr Takt ermöglichen, sonst kommt das Ding nur mit Müh und Not an der 6800XT vorbei.
Ergänzung ()

Hans665 schrieb:
Ich glaube auch nicht, dass RDNA3 ein Reinfall ist. Die Leistung ist durchaus ordentlich und die Bugs halten sich im Vergleich zum RDNA1 Launch doch sehr in Grenzen.

Allerdings halte ich die Preisgestaltung für fragwürdig. AMD hätte hier die Chance gehabt einen P/L Sieger auf den Markt zu bringen, hat sich jedoch für den Nvidia Weg entschieden und das einzige Argument was im Marketing sehr oft auftaucht ist der VRAM. Ich wittere Absprache mit Hoffnung auf Technologieaustausch.
Etwas schräger Gedankengang. Für Kunden ist die Karte vielleicht ganz OK aufgrund des Preises. Für AMD ist es definitiv ein Reinfall.
Das Teil ist riesengroß, kostet ziemlich viel in der Fertigung. Dazu dann das breite Speicherinterface und der viele Speicher. Insgesamt ist eine 4800 deutlich günstiger zu fertigen.
Und du findest dann die Preisgestaltung fragwürdig. AMD hat ganz einfach nicht mehr viel Spielraum um da die Preise zu senken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ETI1120
kachiri schrieb:
RDNA3 ist wirklich eine richtige Enttäuschung.
Ja leider, genauso wie die ganze 40XX Serie.. Eine ganze Graka Generation zum Vergessen
 
Philste schrieb:
Immer schön den Aussagen von AMD glauben, die dann plötzlich nach dem Launch kamen...
Einfach mal ne 384Bit GPU mit 5.3TB Infinity-Cache Bandbreite entwickeln, inklusive 7 Dies und 530mm^2 Gesamtfläche um damit einen 256Bit 380mm^2 Monolithen zu matchen. Wer AMD glaubt, dass ein 4090 Gegner nie geplant war, der glaubt auch echt alles.
Zwei Dinge:
Erstens ist es glaube ich ziemlich klar, dass dort höhere Taktraten anvisiert wurden. Für die Rechenleistung hätte man sonst kein so breites Speicherinterface verbaut.

Gleichzeitig ist AD102 einfach deutlich fetter geworden als angenommen. Selbst für Nvidia ist es doch ungewöhnlich, dass die gleich im neuesten Fertigungsprozess die Die size fast komplett ausreizen.
 
  • Gefällt mir
Reaktionen: Volvo480
bensen schrieb:
Das Teil ist verdammt groß und kostet dann in der Fertigung etwa so viel wie nen AD103
AD103 ist nur gute 20% größer als Der GCD von N31. Dazu noch 6 MCDs + Packaging. N31 sollte deutlich teurer sein als AD103. Ein weiterer Punkt, der naheliegt, dass N31 als AD102 Konkurrent gedacht war. Da hätte man dann einen Preisvorteil gehabt. So würde ich schätzen, dass man preislich irgendwo in der Mitte zwischen AD103 und AD102 liegt.
 
Für 500 €uro (mit 16 GiByte) würde ich meine 2080 (mit 8 GiByte) in Rente schicken.
 
shayenaaa schrieb:
Denke AMD wird sich aus dem GPU geschäft zurückziehen innerhalb der nächsten 10 jahre für diskrete grafikkarten.

Ähnliches hatten Leute auch vor der Ryzen Ära gesagt. Mal abgesehen davon: Selbst wenn die Marktanteile theoretisch für ewig nicht wachsen sollten, sind es immer noch Anteile, die einem Unternehmen viel Geld bringen können.
 
bensen schrieb:
Gleichzeitig ist AD102 einfach deutlich fetter geworden als angenommen. Selbst für Nvidia ist es doch ungewöhnlich, dass die gleich im neuesten Fertigungsprozess die Die size fast komplett ausreizen.
Wie man es nimmt. In der jüngsten Vergangenheit war das aber mehr die Regel als die Ausnahme. Pascal war schon bei neuem Prozess 480mm^2 groß, speziell bei Turing (gut, das war kein Fullnode Shrink) hat man es dann vollends übertrieben. Ampere hatte dann auch schon 600mm^2 bei neuem Prozess. Also so überraschend finde ich es jetzt nicht, dass Ada sofort mit 600mm^2 Die kam.
 
  • Gefällt mir
Reaktionen: BAR86
der Unzensierte schrieb:
Tja, irgendwie ist mir der mit RDNA2 aufgekeimte Optimismus wieder komplett abhanden gekommen.
RDNA war ein größerer Umbruch, RDNA2 brachte einige Änderungen mit sich, das zusätzliche Tempo kam vom Cache.
RDNA3 brachte nicht viele Änderungen mit sich. Allen Dingen voran wollte AMD hier den Chiplet-Ansatz erproben. Man hat also wohl ganz bewusst nicht überall gleichzeitig was geändert und stattdessen auf eine bekannte Architektur gesetzt.
Außerdem ists ja ein Misch-Masch aus Chiplets und monolithischen Chips, aus verschiedenen Verfahren. Es sind wohl einige Ressourcen drauf gegangen überhaupt die Chips fertigzustellen.
RDNA4 könnte und wird wohl deutliche Änderungen mit sich bringen. Sowohl beim Rastern, bei den Shadern als auch bei der RT Fähigkeit. Immerhin muss man jetzt nicht mehr lernen wie das mit den Chiplets im GPU Sektor hinhaut.

Nvidia hingegen hatte bei der Entwicklung von ADA viel mehr Geld zur Verfügung wie auch schon viel früher Erfahrung mit Raytracing gesammelt. Das "wir bringen Raytracing erst wenn es Sinn macht" gerede von Su kurz nach der Ankündigung von den 2000er RTX Karten war natürlich wieder "blabla", aber mit RDNA4 hätte man tatsächlich die Möglichkeit 2024 (Halo Produkt, nennen wirs Radeon 8900 und 8800) und 2025 (Performance/Mainstream) tatsächlich brauchbares Raytracing für die Massen zu etablieren. 2025 rechne ich auch mit einem Konsolen-Refresh, einer PS5 Pro. Viele Ressourcen werden also in diese Chips gehen und logischerweise denkt man schon über die PS6 (2028?) nach, deren High-Level-Design wohl schon begonnen hat.

Es wird wohl wieder ein SoC von AMD werden, vermutlich so um die 200-250W.
Aktuell wird dann wohl für solch große Chips der 2nm Prozess von TSMC zur Verfügung stehen (extrem unwahrscheinlich aber nicht unmöglich auch ein fortgeschrittener Intel Prozess, sofern sie ihr Foundry 2.0 gebacken bekommen).
Die meisten Leistungsdaten werden dann einfach nach oben skaliert. Die CPU wird wohl eine Zen 5 oder 6 basierende.
RAM wird man wohl auf 32 GB setzen (ob GDDR oder HBM sei noch dahingestellt, wohl ersteres aus Kostengründen).
Was die GPU betrifft:
Wenn man hier einen großen Raytracing-Fokus hat, kann sich einiges bewegen. Wenn nicht, wird auch die PS6 nur eine zwischengeneration werden und erst die "PS7" Raytracing/Pathtracing für die Massen bringen.
Ergänzung ()

TrabT schrieb:
Ja leider, genauso wie die ganze 40XX Serie.. Eine ganze Graka Generation zum Vergessen
bis auf den Verbrauch und Preis finde ich die 4090 absolut gelungen
Ergänzung ()

bensen schrieb:
Gleichzeitig ist AD102 einfach deutlich fetter geworden als angenommen. Selbst für Nvidia ist es doch ungewöhnlich, dass die gleich im neuesten Fertigungsprozess die Die size fast komplett ausreizen.
Der Chip war ziemlich genau so gedacht, wie kommst du darauf?
Natürlich gab es immer schon große Chips von Nvidia auch gleich beim Start neuer Prozesse.
Erst später wird man noch größer, man bedenke den riesigen Volta Chip
 
Farcrei schrieb:
Für 500 €uro (mit 16 GiByte) würde ich meine 2080 (mit 8 GiByte) in Rente schicken.

Wenn eine 7800 (non xt) kommt, könnte deren Preis schnell auf diesen Wert fallen. Die Launch Preise werden aber wohl erstmal höher ausfallen. Die Preise der alten Gen wird man bestimmt nicht unterbieten. Also die 7800xt mindestens 649$ und die 7800 mindestens 579$. Wahrscheinlich noch ein paar Dollar mehr. Dann bleibt halt die Frage, wie schnell die Preise fallen werden.
 
Philste schrieb:
AD103 ist nur gute 20% größer als Der GCD von N31. Dazu noch 6 MCDs + Packaging. N31 sollte deutlich teurer sein als AD103. Ein weiterer Punkt, der naheliegt, dass N31 als AD102 Konkurrent gedacht war. Da hätte man dann einen Preisvorteil gehabt. So würde ich schätzen, dass man preislich irgendwo in der Mitte zwischen AD103 und AD102 liegt.
Zwei Dinge:
AD103 ist etwa 26% größer, was bei der Yield doch einiges ausmacht und eine 7890XT hat nur 4 MCDs.
Ich hatte das zum Launch der 7900XTX durchgerechnet, da mal wieder irgendwelche Hardcore Fans behauptet hatten eine 7900XTX wäre günstiger zu fertigen als ne 4800. Was natürlich BS ist. Defektrate und Waferkosten für N5 und N6 hatte ich von Ian Cutress übernommen, der ja ganz gut vernetzt ist.
Rausgekommen ist, dass das reine Silizium von Navi31 nur minimal teurer ist (Annahme: Dies mit einem Defekt werden wegegeschmissen). Bei der 7900XTX kommt dann das aufwändigere packaging hinzu und das breiterer Speicherinterface (komplexeres PCB) und natürlich mehr GDDR. Bei Nvidia verbessert sich das Bild, da man auch teildeaktvierte Dies verwenden kann. Ist eben nur nicht leicht zu quantifizieren. In Summe ist aber die 4800 deutlich günstiger zu fertigen.

Bei der potentiellen 7800XT kommen jetzt aber 2 MCDs weniger zum Einsatz und Speicherinterface sowie Speicher sind gleich wie bei der 4800.
Das heißt das reine Silizium ist etwas billiger unter der Annahme, dass man defekte Dies wegschmeißen muss. In der Praxis also wohl etwa gleich teuer. Kommt das advanced Packaging, welches sicherlich teurer ist, in meinen Augen aber kein Vermögen kostet. In Summe würde ich auf leicht teurer setzen. Habe ich dann aufgrund einiger Unbekannten zu Gunsten AMDs zu etwa gleich teuer gemacht. ;)
Das Problem ist ja, dass das Teil nicht mal an das Topmodell von AD104 ranreichen würde. Und das Ding ist nochmals deutlich kleiner (AD104 ist so groß wie N31 GCD).
 
Zurück
Oben