News Gerüchte zu AMD RDNA 4: RX 9070 (XT) statt RX 8800 (XT) erreicht die RX 7900 XT nicht

LencoX2 schrieb:
Ich erkläre mir die News so, dass AMD inzwischen GPUs analog zu CPU für Server und Rechenzentren vorrangig behandelt. Also sich auf HPC Beschleuniger konzentriert. SIe können nicht mal genug Mi300 für ca 20k liefern.
Warum sollten sie da Ressourcen in GPUs für unter 1k "verschwenden"?
Antowort: Sie liefern das nötigste für zeitgemäßes Gaming. Ende.
So wirds wohl laufen.
Anscheinend halten sich PC Gamer für den Nabel der Welt, dabei wird die dicke Kohle schon längst woanders verdient.
Kann mir gut vorstellen das AMD komplett aus dem Markt für dedizierte GPUs aussteigt und z.B nur noch Konsolen APUs fertigt.
 
  • Gefällt mir
Reaktionen: Casillas, JarlBallin, The1whoknocks und eine weitere Person
MaverickM schrieb:
Es gibt keine 4050 als Desktop-Karte. Von Notebooks war nie die Rede und sind hier auch nicht wirklich relevant.
Und eine 3000er Karte ist ja in 2024 bzw. bald 2025 ja auch noch wahnsinnig relevant
Steamstatistik: die verbreitetsten GPUs sind 3060, 4060 mobile und 4060. Die angesprochene 3050 befindet sich auf Platz 9.
MaverickM schrieb:
Ja, das interessiert halt den Rest der Welt nicht
Dazu erspare ich mir aus Eigeninteresse besser die Antwort.
 
Kann mir gut vorstellen das AMD komplett aus dem Markt für dedizierte GPUs aussteigt und z.B nur noch Konsolen APUs fertigt.
...wäre nicht sehr intelligent! Was wenn man nVidia den Zuschlag bei einer Konsole erhält? Dann kann AMD gleich Insolvenz anmelden. Man muss heute schon etwas breiter aufgestellt sein - oder aber überheblich genug sein und mit der Konsequenz leben!
 
T-Horsten schrieb:
Kann mir gut vorstellen das AMD komplett aus dem Markt für dedizierte GPUs aussteigt und z.B nur noch Konsolen APUs fertigt.
AMD hat nicht mal GDDR7 berücksichtigt, nvidea hingegen für alle neuen Produkte 2025.

Wenn es blöd läuft nimmt nvidia für das Premiumprodukt 4 Chiplets a 128 Bit,
dann 2 Chiplets und 1 Chiplet plus 2D Chiplet.

Via Selection / Spinning dann Potential ganz tief bei Watt/ Performance zu gelangen.
AMD mit den eigenen Chiplet-Design geschlagen.
 
  • Gefällt mir
Reaktionen: T-Horsten
ETI1120 schrieb:
Dann Vergleiche Mal Deine Grafik mit dieser Grafik von IBS aus dem Jahr 2014:

Das sich diese Grafik zeitlich so verschiebt finde ich aber jetzt auch nicht komplett ungewöhnlich. Am Ende geht es hauptsächlich darum das die erste oder zweite Generation eines Produkts auf einem neuen Node unheimlich teuer sein wird.
Was mir nicht ganz klar ist warum Verifizierung und Validieren so hoch liegt, da muss eigentlich mit bepreist sein das man mehrere Entwicklungs-Loops des Chips abtestet oder vielleicht mehrere Varianten parallel.

Je mehr Erfahrung gesammelt wird so günstiger, die meisten Kosten fallen mit der Zeit auf ein Minimum oder komplett weg.
IP dürfte ein solcher Posten sein der komplett weg Fällt, Validierung und Verifizierung lassen sich sicher mit Erfahrung bzgl. Test- Alterungsmodellen ebenso deutlich minimieren (wenngleich diese Kosten nie wegfallen werden), usw.


Ich persönlich habe Erfahrung mit Produktentwicklung in 250nm und 180nm Nodes sowie mit 3D Package. Je nach Komplexität eines Produkts liegt sowas zwischen 2 Mio EUR und 70 Mio EUR (3D Package mit 2 x 180nm Chips eines Custom 180nm Node, es wurden für uns spezifisch Metal Ebenen für das Stacking entwickelt).


Ob jetzt ein Produkt auf dem Top Notch 500Mio, 700 Mio oder gar 1 MRD kostet ist ja fast egal. Die Größenordnung der Zahl wird in etwa schon passen.
 
DeadMan666 schrieb:
Das sich diese Grafik zeitlich so verschiebt finde ich aber jetzt auch nicht komplett ungewöhnlich. Am Ende geht es hauptsächlich darum das die erste oder zweite Generation eines Produkts auf einem neuen Node unheimlich teuer sein wird.
Was soll das jetzt.

Entweder zeigt die Grafik wie sich die Designkosten der Nodes entwickeln, und dann muss ich mir einen vergleichbaren Zeitpunkt wählen

Oder die Grafik zeigt die aktuellen Designkosten, dann erlaubt sie aber keine Aussagen wie die Designkosten je node werden immer teurer.

Wie gesagt, nur weil eine Grafik immer wieder verwendet wird, bedeutet es noch lange nicht dass sie stimmt.
Man kann sie wunderbar verwenden um höhere Preise rechtzufertigen.
Ergänzung ()

RKCPU schrieb:
AMD hat nicht mal GDDR7 berücksichtigt, nvidea hingegen für alle neuen Produkte 2025.
Und was würde GDDR7 bringen? Weder die aktuellen AMD Grafikkarten vom Speicher ausgebremst?

Der einzige Punkt in dem GDDR7 diesen Karten einen Vorteil bringen könnte, sind die 3 GB Chips die für GDDR7 kommen sollen. Denn dann sind mit einen 128 bit Interface 12 GB Speicher möglich. Oder mit einem 256 Bit Interface 24 GByte Speicher möglich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MiroPoch und JarlBallin
Ok die 9070XT soll 2,8Ghz bei 260tdp haben. Das währen ~400mhz mehr als die 7800xt bei gleicher tdp. Und einen max tdp bereich bis 330tdp und 3,1ghz OC. Und die 7800xt geht bis max 315 tdp wenn ich das richtig in erinnerung habe. Sonst müsste ich das gleich nochmal ausprobieren.
https://videocardz.com/newz/amd-rad...-to-3-1-ghz-260-330w-tbp-depending-on-a-model

Hoffe wir nur das die Karte die Leistung auch auf die strasse bringt.
 
Das wäre von der Leistung her eine 4070 ti super.
Eine 7900 GRE im OC kommt auf etwa 2600-2700 MHZ. Mit Mem OC waren +10-15% mehr Leistung drinnen.
Wenn bei der 9070 xt ein boost von max bis 3100 MHz realistisch ist, kann die GPU Stock wohl die Leistung er 4070 super ti mitgehen, so sehe ich das zumindest.
Es gibt Hoffnung
 
Zuletzt bearbeitet:
Evtl. richtet es ja dann eine Sapphire Nitro 9070XT
 
RKCPU schrieb:
AMD hat nicht mal GDDR7 berücksichtigt, nvidea hingegen für alle neuen Produkte 2025.

Was wiederum eine gute Entscheidung ist oder wäre, wenn AMD über den Preis angreifen will oder würde.
DDR7 und Co. sind wohl derzeit nicht ganz billig und natürlich wichtig um im Highendsegment mithalten zu können, aber wenn AMDs Ziel ist oder wäre die Mittelklasse zu dominieren nicht zwingend erforderlich, da dort Preis/Leistung Entscheident ist und nicht maximalleistung.
Genau das ist aber eben auch der Knackpunkt: für den Mittelklassesektor als ganzes ist eine Karte im Leistungsspektrum einer 4070S allein etwas zu langsam - hier wäre imo an sich eine noch etwas höhere Stufe sinnvoll gewesen - und zum anderen ist halt der Endpreis entscheidend, da es hier wie gesagt auch darum geht wer am meisten RT-FPS/€ bei 16GB VRAM auf den Markt bringt.
Last but not least hat NVIDIA insbesondere im unteren WQHD-Segment mit ihrem Upscaling einen zusätzlichen Vorteil weshalb das AMD-Angebot eben besonders attraktiv sein muss...
 
Damit wäre der vorangegangene Leak wohl Geschichte.

Dann wäre der folgende Post immer noch aktuell.
Zusätzlich wurde der base 2.8 und boost 3.0-3.1 Takt sowie die
Power:Reference 26xW,custom variant up to 330W noch präzisiert
und nochmals bestätigt das sie nicht mehr als 5% hinter einer 4080 liegen soll.

Ich kann auch noch nicht so richtig glauben, dass die 9070XT unter Raytracing in Resident Evil 4,
45% vor einer 7900XTX liegen soll.
Das könnte man ja schon fast als Hexenwerk bezeichnen, dass wäre eine gewaltige Steigerung
verglichen mit der vorangegangenen Gen.
Man muss sich einfach mal vor Augen halten, dass die 7900XTX mit ihren 96CUs 1.5 Mal mehr Ray Accelerators beherbergt als eine voraussichtliche 64CU 9070XT.
Falls dies so eintreten sollte wird die 9070XT💪💪💪

1735219041205.png
 
Zuletzt bearbeitet:
Der Text zu dem Bild das ich oben gepostet habe:

Was IBS betrifft, so halte ich sehr wenig von der Genauigkeit seiner Zahlen (Handel Jones). Ich habe meine Erfahrungen im Halbleiter-Ökosystem als Halbleiterfachmann und nicht als Analyst gemacht. Früher habe ich IBS-Berichte zur Überprüfung zu Chip-Unternehmen mitgenommen, und es endete immer mit einem Lachen. Er ist gut, wenn es darum geht, die Entwicklungskosten im Rückblick zu betrachten, aber wenn es darum geht, zukünftige Entwicklungskosten zu prognostizieren, liegt IBS IMMER auf der überhöhten Seite.

Schauen Sie sich seine Berichte über die Jahre an, und Sie werden sehen, dass er der Angsthase der Halbleiterwelt ist. Seine Strategie scheint darin zu bestehen, eine große Zahl zu nennen, damit sie in den Medien als Sensation dargestellt wird: Da die Kosten für das Chipdesign in die Höhe schießen, ist der 3nm-Prozessknoten in Gefahr. Ernsthaft? Man braucht doch diese Klicks, oder?

Stimmen diese Zahlen mit Ihren überein?

„Die Industrie braucht einen großen Zuwachs an Funktionalität sowie einen kleinen Anstieg der Transistorkosten, um den Einsatz von 3nm zu rechtfertigen“, sagte Handel Jones, Geschäftsführer von International Business Strategies (IBS). „3nm wird 4 bis 5 Milliarden Dollar in der Prozessentwicklung kosten, und die Produktionskosten für 40.000 Wafer pro Monat werden 15 bis 20 Milliarden Dollar betragen.“

300 Mio. $ für ein 16nm-Design? In Ihrem Bericht sind es eher 100 Mio. $?

Die Antwort desjenigen der die Grafik Version 2020 von Handel Jones in einem Report verwendet hatte:
Ich habe die letzte Analyse verwendet, die Handel Jones (IBS) veröffentlicht hat; siehe Folie 8 hier, die 100 Mio. $ für 16 nm und 542 Mio. $ für 5 nm prognostiziert. Sie haben Recht, dass seine ältere Projektion (in dem von Ihnen eingefügten Diagramm) im Vergleich zu seiner neueren rückwärtsgerichteten Schätzung bei 16nm zu hoch liegt.

Meiner Meinung nach besteht das eigentliche Problem darin, dass es eine große Heterogenität je nach Chipgröße, Chiptyp usw. gibt. Ich habe von jemandem aus der Industrie gehört, dass die teuersten Designs (z. B. für bestimmte High-End-CPUs) höher sind als von IBS angegeben, aber andere Designs (für einige ASICs) sind viel niedriger. Ich bin neugierig auf Ihre Meinung, wie die Unterschiede aussehen könnten.


Antwort von Daniel Nenni:
Verstanden, aber Sie müssen wissen, dass die 5nm-Designzahlen von IBS sehr hoch sind und auch nach unten korrigiert werden, dennoch werden Ihr Bericht und die damit verbundenen sensationsheischenden Artikel bestehen bleiben.

Ich bin eng mit SoC- und ASIC-Design (einschließlich KI-Chips) beschäftigt, nicht mit CPU/GPU. In Anbetracht dessen:

Was die Kosten für das SoC-Design angeht: MediaTek liegt im unteren Bereich, Apple im oberen Bereich und QCOM in der Mitte. Der größte Unterschied besteht darin, dass Apple ein Systemanbieter ist und nicht wie MediaTek und QCOM an die Margen der Chips gebunden ist. Das bedeutet, dass Apple viel mehr für Design ausgibt als fabriklose Chip-Unternehmen. Google gibt auch mehr für Design aus, aber Google verkauft keine Chips oder Systeme, sondern verwendet alles intern.

Die Chipdesign-Landschaft verändert sich, was es für Außenstehende schwierig macht, Kosten zu prognostizieren. Aber wenn man einen Mittelwert bilden will, würde ich die 5nm-Schätzung von IBS für SoCs halbieren. ASIC-Firmen sind noch stärker auf Margen angewiesen, weshalb sie die niedrigsten Designkosten in der Branche haben. ASIC-Firmen verfügen auch über mehr Erfahrung und Automatisierung als die durchschnittliche Systemfirma, für die sie arbeiten, so dass ich die IBS-Schätzung für 5 nm um 2/3 kürzen würde.

Es kommt also nicht nur auf die Art des Chips an, sondern auch auf das Unternehmen, das ihn entwickelt. Klingt das vernünftig?

Antwort des Autors der Studie (die die Waferkostentabelle enthalten hat die jahrelang zirkuliert ist)
Das klingt sehr vernünftig! Es macht sehr viel Sinn, dass es eine Heterogenität in der Breite gibt. FWIW, ich möchte klarstellen, dass wir nicht sensationslüstern sein wollten - wir haben es vor der Veröffentlichung mit einigen Experten besprochen und versucht, unsere Methodik extrem transparent zu machen, so dass jeder sie überprüfen und sehen kann, wo er nicht einverstanden ist, sie verbessern oder entscheiden kann, dass die Methodik überhaupt nicht angemessen ist. Und die Hoffnung war eine nützliche Diskussion: Ich habe die Diskussion hier als nützlich empfunden, und ich hoffe, Sie empfinden das Gleiche.
Antwort von Daniel Nenni, zurück zur Waferkostentabelle, deren Preise nicht passen
Sie müssen auch einen genaueren Blick auf den Yield werfen.

Sie müssen sich auch den Yield genauer ansehen, TSMC ist nicht wie die anderen.

Als Apple bei 20 nm zu TSMC kam, begann TSMC mit jährlichen Prozessknoten (Halbschritten), wobei der Schwerpunkt auf dem Yield Learning lag. TSMC friert einen Prozess in Q4 ein, damit Apple im nächsten Herbst unbedingt HVM für die iProdukte haben kann. Denken Sie daran, dass Apple jedes Jahr einen sehr großen Chip entwirft, so dass die Ausbeute von entscheidender Bedeutung ist. Nicht nur für den Preis, sondern auch für die Kapazität (good die).

Dies war eine völlig neue Methodik für das Foundry-Geschäft und hat TSMC wirklich einzigartig gemacht. So führte TSMC beispielsweise die doppelte Strukturierung bei 20 nm ein und fügte dann FinFETs für 16 nm in derselben Fabrik hinzu. TSMC hat etwas Ähnliches mit EUV gemacht. Sie begannen mit der Hinzufügung von EUV-Schichten an einem bereits in Produktion befindlichen Knoten (7 nm) und erhöhten dann die EUV-Schichten bei 6 nm (in derselben Fabrik) und 5 nm, was zu viel Yield Learning führte.

Intel zum Beispiel ist viel traditioneller. Sie sind bei 14 nm auf double patterning und FinFETs umgestiegen und werden bei 10 nm von Null EUV zu vollem EUV bei 7 nm übergehen.

Dieser Prozessansatz von Apple/TSMC mit geringem Risiko und hoher Ausbeute bricht mit den traditionellen Ertragskurven von Halbleitern, so dass man dies bei der Schätzung von Chippreisen unbedingt berücksichtigen muss.

Zahlen zur Ausbeute sind ebenso wie Waferpreise streng vertraulich, aber wenn Sie eine Ausbeute von 90 % als Näherungswert für TSMC HVM verwenden würden, würde wohl kaum jemand dagegen argumentieren.

Zwei Anmerkungen:
  • Intel hat mit 22 nm FinFET eingeführt, 14 nm war der 2 FinFET Node von Intel
  • Mit den 90 % bezieht er sich wohl auf den IPhone SoC, groß ist relativ gegen einen GB102 sind die iPhone SoCs klein.
Wer ist Daniel Nenni?
Ich bin auf Daniel Nenni gestoßen als ich nach Büchern zur Halbleitertechnik gesucht haben:
https://www.amazon.de/Fabless-Transformation-Semiconductor-Daniel-Nenni/dp/1497525047

Das waren die besten 16 Euro die ich jemals für Bücher ausgegeben habe. Es ist eine Einführung und Kurz-Überblick in die Halbleiterindustrie. Alle Beiträge stammen von Leuten aus der Halbleiterbranche. Wenn man das Buch ausgelesen hat ist versteht man erheblich besser wie alles zusammengehört.

Da es nicht um technische Details geht, spielt es auch keine solche Rolle, dass es auf dem Stand von 2014 ist. Beruflich hat Daniel Nenni sehr viel mit TSMC zusammengearbeitet, deshalb bekam er auch ein Vorwort von Cliff Hou

In den Produktinformationen auf Amazon ist übrigens auch ein Link zur Website.

In der Halbleiterbranche gilt: Wer es weiß hält die Klappe, außer die Information ist freigegeben. Die Ausrede jemand anders hat geplaudert zählt nicht. Wer nicht freigegebene Informationen ausplaudert plaudert bekommt keine Informationen mehr.

Leute die sich wie Ian Cutress an die Spielregeln halten bekommen Informationen. Er war auf die Hausmesse von TSMC (2000 Teilnehmer) eingeladen und konnte deshalb so etwas drehen:

Bitte Beachten Ian Cutress ist kein Journalist mehr. Defakto wird er von Halbleiterunternehmen bezahlt und macht Technisches Marketing. Weil sich Ian Cutress an die Spielregeln hält und ein kluger Kopf ist, hat er heute sehr viel Ahnung über die Halbleiterindustrie.
Ergänzung ()

ArrakisSand schrieb:
Damit wäre der vorangegangene Leak wohl Geschichte.
Ist er nicht. Nur weil dieses Leak Dir gefällt muss es nicht echt sein.

Es ist ein Leak das den AMD Fanboyz gefällt, das andere hat den Nvidia Fanboyz gefallen.

Überlege Mal ganz ruhig. Wenn AMD in der Lage ist mit 64 CU die RTX4080 zu schlagen, wieso legen sie dann keine größere GPU auf?
 
Zuletzt bearbeitet:
Könnte dies die Erklärung für die +45% sein?
Es muss fast, anderenfalls wäre es fast unmöglich eine 7900XTX mit einer solch kleinen
GPU so dermaßen zu überflügeln.
Falls dies zutreffen sollte, das sie selbst in Path Tracing so extrem zulegen sollte,
steht uns ein Kracher ins Haus der jedes Neujahrsfeuerwerk übertönen dürfte.

Das Path Tracing in Resident Evil 4 Remake sieht unglaublich aus, beeinträchtigt die Leistung bei 4K-Auflösung jedoch erheblich​

This, however, comes at a huge performance cost, as the frame rate is essentially halved in most scenarios on an RTX 4080 GPU and with NVIDIA DLSS 3.7.

https://wccftech.com/resident-evil-4-remake-path-tracing-performance-4k/
1735221687111.png
 
ETI1120 schrieb:
Was soll das jetzt.

Entweder zeigt die Grafik wie sich die Designkosten der Nodes entwickeln, und dann muss ich mir einen vergleichbaren Zeitpunkt wählen

Sind doch 2 Zeitpunkte die Grafiken die hier Diskutiert werden. Einmal die Perspektive aus 2013 und einmal aus 2023. Es ist ja nicht so das Designkosten ein fixer Betrag ist der per Definition für immer gleich bleibt. Der Prozess des Produktdesign unterliegt ja auch Verbesserung wie Wissensgewinn, Erfahrungsgewinn, Design und Testmethoden, Simulation, etc.

Das mit der Perspektive aus 2013 (also den technischen Möglichkeiten der Zeit, Erfahrung, etc.) ein 14nm Produkt teurer zu Entwickeln war als mit der Perspektive aus 2023 (also 9 Jahre mehr Erfahrung mit dem Produkt, bessere Test und Simulationsmethoden, mehrere Foundries und Subcons auf dem Markt die den Technologieknoten beherrschen, usw.) ist doch nachvollziehbar.

Genauso werde ich Dir prognostizieren das in 2030 eine 2nm Chipentwicklung ebenfalls bestimmt eine Größenordnung billiger sein wird als von der Perspektive 2023 aus.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Und was würde GDDR7 bringen? Weder die aktuellen AMD Grafikkarten vom Speicher ausgebremst?

Der einzige Punkt in dem GDDR7 diesen Karten einen Vorteil bringen könnte, sind die 3 GB Chips die für GDDR7 kommen sollen. Denn dann sind mit einen 128 bit Interface 12 GB Speicher möglich. Oder mit einem 256 Bit Interface 24 GByte Speicher möglich.
https://www.computerbase.de/news/gr...i-grafikspeicher-fuer-2025-auf-den-weg.90000/

Man bekommt via 4x GDDR7 Speicher mit 128 Bit die 12 GByte, aber auch mit 192 Bit Interface 12 GByte mit 6x Speicherchips.

Die Herstellkosten der GDDR7 sollten nicht signifikant für den Endpreis der Karten sein.
 
ETI1120 schrieb:
Ist er nicht. Nur weil dieses Leak Dir gefällt muss es nicht echt sein.

Es ist ein Leak das den AMD Fanboyz gefällt, das andere hat den Nvidia Fanboyz gefallen.

Überlege Mal ganz ruhig. Wenn AMD in der Lage ist mit 64 CU die RTX4080 zu schlagen, wieso legen sie dann keine größere GPU auf?
- Ist er doch. (Bzw. der andere ist es definitiv nicht)
https://videocardz.com/newz/amd-rad...-to-3-1-ghz-260-330w-tbp-depending-on-a-model

1735223288845.png


Das dürfte eine rein finanzielle, sowie des gesunden Menschenverstand geschuldete
Entscheidung sein, sich mit seinen begrenzten zur Verfügung stehenden Ressourcen sich auf den lukrativen Server-KI Markt zu konzentrieren.

Und das eine 64 CU in der Lage ist eine 4080 zu schlagen, heißt noch lange nicht, dass da z.B.
eine 128 CU Variante mit einer 5090 mithalten könnte.
Nvidia lotet mit der 5090 (Ti ?) und einem Die size von 744mm2 die Grenzen des gesunden Menschenverstand aus und kann sich dies aber im Gegensatz zu AMD leisten da sie nicht
in dem Ausmass zweigleisig fahren, wie dies AMD mit RDNA und CDNA (z.B Instinct 300)
tut.
Ich bin mir relativ sicher das AMD mit UDNA auch wieder um die Desktop-Krone mitspielen wird.
 
Zuletzt bearbeitet:
DeadMan666 schrieb:
Das mit der Perspektive aus 2013 (also den technischen Möglichkeiten der Zeit, Erfahrung, etc.) ein 14nm Produkt teurer zu Entwickeln war als mit der Perspektive aus 2023 (also 9 Jahre mehr Erfahrung mit dem Produkt, bessere Test und Simulationsmethoden, mehrere Foundries und Subcond auf dem Markt die den Technologieknoten beherrschen, usw.) ist doch nachvollziehbar.
Das diese Lesart offenkundig falsch ist, ist Dir doch bewusst?

Es heißt Die Grafik heißt: "Cost of devoloping New Product" und nicht "Cost of devoloping New Product, in Year".

Als Du nur eine Version dieser Grafik gekannt hast, gingst Du davon aus dass diese Preise sich auf vergleichbare Zeitpunkte im Lebenszyklus des Prozesses bezogen haben.

Und selbst wenn, lässt deine Lesart der Grafik ist die Aussage, dass die Designkosten je Node nicht zu.

Ich bin auch auf diese Grafik hereingefallen. Ich ließ mich auch davon blenden dass sie im ITRS Executive Report verwendet wurde.

Aber früher oder später stößt man auf die Information, dass diese Grafik nicht stimmt.

Du kannst natürlich es Dir schönreden dass diese One Man Show den selben Stiefel (steil ansteigende Designkosten) Jahr für Jahr auflegt, oder Du kannst dir einfach Mal anschauen was diese One Man Show seit Jahren abzieht.

Die Tonspur zur Grafik habe ich in Post 732 hinterlegt.
Ergänzung ()

RKCPU schrieb:
https://www.computerbase.de/news/gr...i-grafikspeicher-fuer-2025-auf-den-weg.90000/

Man bekommt via 4x GDDR7 Speicher mit 128 Bit die 12 GByte, aber auch mit 192 Bit Interface 12 GByte mit 6x Speicherchips.
Das habe ich doch implizit in dem Ausschnitt geschrieben den Du zitiert hast.

GDDR SDRAM Chips haben nun Mal ein Speicherinterface mit 32 bit.
RKCPU schrieb:
Die Herstellkosten der GDDR7 sollten nicht signifikant für den Endpreis der Karten sein.
Signifikant? Dir ist bewusst, dass auf die GDDR7 Chips die Marge des Grafikkartenherstellers und des gesamtem Handels Drauf kommt?

Außerdem fliegen die Daten nicht einfach von den GDDR7 Chips in die GPU. Die Designs und IP für GDDR6 sind erprobt, GDDR7 ist Neuland.

Wenn es AMD ernst meint mit N44 und N48 konkurrieren zu wollen, dann geht das nur über den Preis, also müssen die Kosten runter.
 
Zuletzt bearbeitet:
Clonedrone schrieb:
Steamstatistik: die verbreitetsten GPUs sind 3060, 4060 mobile und 4060. Die angesprochene 3050 befindet sich auf Platz 9.

Und das hat jetzt genau welche Relevanz zur Nicht-Existenz einer 4050 und vor allem meiner ursprünglichen Aussage, dass es extrem Unwahrscheinlich ist, dass nVidia eine dedizierte Grafikkarte unterhalb der 5060 bringen wird?
 
Darkwater schrieb:
Was wiederum eine gute Entscheidung ist oder wäre, wenn AMD über den Preis angreifen will oder würde.
DDR7 und Co. sind wohl derzeit nicht ganz billig und natürlich wichtig um im Highendsegment mithalten zu können, aber wenn AMDs Ziel ist oder wäre die Mittelklasse zu dominieren nicht zwingend erforderlich, da dort Preis/Leistung Entscheident ist und nicht maximalleistung.
das sehe ich genau so
Darkwater schrieb:
Genau das ist aber eben auch der Knackpunkt: für den Mittelklassesektor als ganzes ist eine Karte im Leistungsspektrum einer 4070S allein etwas zu langsam - hier wäre imo an sich eine noch etwas höhere Stufe sinnvoll gewesen
Du hast auch hier recht. Wenn AMD diese Midrange Strategie bewusst und mit voller Absicht gewählt hätte wären mehr CUs sinnvoll gewesen.

Auch aus diesem Grund kaufe ich Jack Huynh die Geschichte mit der Midrange Strategie nicht ab.

Darkwater schrieb:
Last but not least hat NVIDIA insbesondere im unteren WQHD-Segment mit ihrem Upscaling einen zusätzlichen Vorteil weshalb das AMD-Angebot eben besonders attraktiv sein muss...
Die N44 wird es sehr sehr schwer haben. N44 hat für den Desktop zu wenig CUs und 8 GByte lassen sich immer schwerer vermarkten.
 
Nighteye schrieb:
Naja im Prinzip ist es so, dank Frame Gen.
Also im Prinzip übertriffst du jetzt den vorher schon unsinnigen Vergleich mit einem noch größeren weit unsinnigeren.
Nighteye schrieb:
RTX 3090 nur 30fps in dem Spiel, und die Leute in den Kommentaren sagen alle, ist normal diese low fps mit RTX 3090.
Unterschiedliches System, Szene, offensichtliche Probleme, keine genauen Settings, gar nicht vergleichbar, kein losless Scaling als Framegen. Was ergibt es für einen Sinn das zu vergleichen?

Du stehst bei deinen FPS Messungen einsam im All ohne dass irgendetwas groß zu berechnen wäre, dann habe ich auch hohe FPS.
Offenbar verstehst du nichts von der Thematik, insofern müsstest du mal ganz von vorne bei den Grundlagen anfangen wie Benchmarks funktionieren und was die Vorraussetzungen sind.
 
Zurück
Oben