Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD-Gerüchte: Rückkehr zu High-End-GPUs und X3D-Cache für die PlayStation 6
Finds lustig das mir hier Wunschdenken vorgeworfen wird und Fanboyblase, dabei basiere ich hier meine Vorstellungen auf harte Zahlen in 2-3 geleakten Benchmarks die alle in dier gleiche Richtung zeigen, wärend man mir dann entgegnet das man nur reine Vermutungen mir entgegen hält.
Kann es sein das Sie das mit 3D Fabrik verwechseln? Also Stacking, wovon der Artikel handelt, dass zumindest bezeichnet ja das das Stapeln von Dies aufeinander. Als das aufeinder "kleben", jetzt noch Dies, morgen vielleicht mal ganzer Wafer. Vielicht wären es ja bei der PS6 schon Wafer.
Interposer ist ja nichts mehr neues mehr und wird ja schon bei der PS5, XBOX eingesetzt. Vieleicht auch noch bei der PS6. Wobei ja auch da kräftig an günstiger ALternativen geforscht wird.
Also wen von Stacking die Rede ist, und sich das auch bewahrheitet, den es scheint ja nur ein Gerücht zu sein, dann können wir wohl schon davon ausgehen das damit vCache gemeint ist.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ist die frage, ob die Konsole dann auch irgendwann mit diesen fake frames daher kommt. Dann wäre die Konsole richtig stark.
Davon halte ich jedoch nix. Für mich sind fake frames keine logischen also nativen frames. Ich bewerte nach wie vor nur echte frames. Also das was mit der nativen Auflösung des Bildschirms zu tuen hat.
Also, wenn nur native Frames in nativer Auflösung zählen, bleiben nicht viele Konsolenspiele übrig, oder?
Du weisst schon, dass die meisten Konsolenspiele dynamische Auflösungen und/oder Checkerboard-Auflösungen nutzen? Bei der PS5 Pro ist nun auch PSSR hinzugekommen und FSR wird mittlerweile auch genutzt. Frame Generation wird die nächste Konsolengeneration garantiert auch haben.
Dies, die Rede war von Dies. Meine aktuelle Interpretation: Es gab Einträge auf Strix 2 aber das war wohl Strix Halo. Zu dem Zeitpunkt dachten sie wohl Krackan kommt später.
Das Problem ist die suchen im Internet und den daran angeschlossenen Datenbanken und Foren nach Hinweisen auf neue Produkte. Dabei finden sie durchaus einiges. Deshalb ist das eigentlich Problem das korrekte Einordnen.
Deinorius schrieb:
Wenn man es so definieren will, ist Skepsis gerechtfertigt. Aber die 90er Reihe ist ein Halo Produkt. Für mich ist das kein "klassisches" High-End mehr, ansonsten müsste man die 80er aus High-End abschieben.
Die 4090 als Gaming GPU ist böse gesprochen ein Abfallprodukt. Die 4090 Karten sind auch der Einstieg/Übergang zu den professionellen Karten von Nvidia. D. h. nicht jede verkaufte 4090 wird zum Gaming verwendet.
Für Nvidia ist die 4090 im Gaming Markt das Halo Produkt schlechthin.
AMD hatte gar keine Chance die 4090 zu packen, da AMD ihren Konkurrenten praktisch komplett aus dem Gaming Markt finanzieren muss.
Auch das ist ein Problem, das aus der Trennung von CDNA und RDNA entstanden ist. Auf der anderen Seite fehlt CDNA eine Einsteigerkarte und auch eine Developerkarte.
Deinorius schrieb:
AMD überlässt Nvidia auch den Bereich, wo die 5080 wildern wird, vielleicht z.T. sogar auch die 5070 Ti, je nachdem, wie sich der Release ergibt.
Nvidia wird sich die Marktentwicklung in Ruhe anschauen und dann reagieren. Nvidia hat 5 Dies AMD nur zwei. Und wie gesagt, das schöne für Nvidia ist, dass der größte Die von anderen Märkten finanziert wird.
Also ist es für Nvidia kein Problem SKUs oberhalb aus dem Hut zu zaubern.
Und falls sich eine Version der RX9070 zu gut verkauft, wird Nvidia eine neue SKU so platzieren, dass die neue SKU die Verkäufe auf sich zieht.
Deinorius schrieb:
2027 ist der früheste Termin. Ich gehe eher von 2028 aus.
Eines ist klar, dass ein Chip mit so hohen Stückzahlen und engem Kostenrahmen mit preisgünstigen Prozessen hergestellt werden muss.
Die bisherigen Verfahren bei denen ein Chip auf einen anderen Chip platziert wird, haben zwar den Vorteil dass man Know Good Dies verwenden kann. Und man hat die Möglichkeit besonders gute Dies zu kombinieren. Aber jeden Chip individuell zusammenzusetzen ist teuer.
Wenn man zwei Wafer verbindet kann man parallel mehrere hundert Chips herstellen. Der Nachteil ist dass man keine Kontrolle darüber hat wie die gute und schlechte Dies kombiniert werden. Der Kostenvorteil hunderte Chips auf einmal herstellen zu können, dürfte bei weitem überwiegen.
Also wenn beim Playstation 6 SoC 3D Stacking eingesetzt wird, dann geht es um weit mehr als nur um X3D. Es ist nur die Frage wie viele Stockwerke und wie die einzelnen Stockwerke eingerichtet werden.
Als willkürliches Beispiel eine Variante mit 3 Stockwerken. Backside Power halte ich allerdings beim Playstation 6 SoC für Fraglich
WoW: Wafer on Wafer; CoW Chip on Wafer (aktuelles Verfahren); F2B Front to Back, aktuelle Anordnung, verbindung der Wafer über TSV; F2F: Front to Front, d. h. Verbindung der Wafer über ihre Metallisierungsstack.
Quelle: US Patentapplications US 2024/0324248 A1; US 202/0321706 A1; US 2024/0321702 A1;
US 2024/0324247 A1; US 2024/032827 A1
PS.: Beim Schreiben ist mir noch bewusst geworden, dass AMD mit dem Zen 5 X3D wahrscheinlich das ideale Produkt für die Risk Production einer Wafer on Wafer Hybrid Bonding Fertigung gemacht macht.
Deinorius schrieb:
Es war ja einfach ein L3 Cache, hat aber nichts mit 3D zu tun.
Wenn ein Chip-Produkt veröffentlicht wird, bedeutet das, dass der Nachfolger schon längst in der Entwicklung ist. Selbst am Nachfolger der PS5 wurde nicht lange nach dem Release schon an den ersten Designs gearbeitet.
Bei den langen Zyklen der Konsolen ist es etwas entspannter. Die Arbeit an der Playstation pro muss schon 2020 losgegangen sein.
Deinorius schrieb:
Und wo sollen diese 95 TFlops herkommen, wenn selbst die 7900 XTX nur 61 von diesen hat? Und das auch noch kommendes Jahr? Im TSMS N2 Verfahren dann und die Konsole kostet dann über €1000 ... Wird sicher ein Brüller.
Multi Frame Generation ist doch ein Software Feature, oder irre ich mich?
Dann lässt man doch ganz einfach Multi Frame Generation auf der 4090 laufen und gut ist.
Bevor Du antwortest schau Dir bitte die Kompatibilitätsmatrix von CUDA an.
Ergänzung ()
lynx007 schrieb:
Interposer ist ja nichts mehr neues mehr und wird ja schon bei der PS5, XBOX eingesetzt.
Das würde mich sehr wundern. Es gibt bei einem monolithischen Chip keinen Grund einen Interposer einzusetzen. Da genügt ein organisches Substrat auf das per Flip Chip der Die drauf kommt.
Im übrigen verwendet AMD selbst bei Ryzen und EPYC organisches Substrat um die Dies zu verbinden.
Erst Strix Halo verwendet Fanout um die Infinity Fabrics direct zu verbinden anstatt dies wie bei Ryzen und EPYC per IFoP zu machen.
Warum nicht? Die 4090 ist aus 2022, also zu dem Zeitpunkt des Releases ist die Karte schon 4 Jahre alt. Zudem bekommen Konsolenhersteller immer Vorabzugriff auf die neuesten Architekturen und Fertigungsprozesse, einfach weil sie Hardwarenachfrage in enormen Stückzahlen garantieren.
Konsolenhersteller bekommen immer Vorabzugriff auf die neuesten Fertigungsprozesse?
Ich sehe da keine großen Abweichungen zwischen Konsolen und PC:
Ende 2006: PS3 Launch (90 nm), GeForce-7-Serie G71 seit Anfang 2006 auch 90 nm
Ende 2009: PS3 Slim (40/45 nm), GeForce-400-Serie seit Anfang 2010 auch 40 nm
Ende 2013: PS4 Launch (28 nm), GeForce-700-Serie seit Mitte 2013 auch 28 nm
Ende 2016: PS4 Pro Launch (16 nm), GeForce-1000-Serie seit Mitte 2016 auch 16 nm
Ende 2020: PS5 Launch (7 nm), GeForce-3000-Serie seit Ende 2020 Samsung 8 nm, Radeon-Serie 7 nm
Ende 2024: PS5 Pro Launch (4 nm), GeForce-4000-Serie seit Ende 2022 TSMC 4
Und auf die Architekturen und Fertigungsprozesse der Nintendo-Konsolen werfen wir lieber keinen genaueren Blick.
Die einzige Firma, die in den letzten Jahren Vorabzugriff auf die neuesten Architekturen bekommt, dürfte wohl Apple sein. Da deren Kunden auch bereit sind, einen entsprechenden Preisaufschlag zu bezahlen. Und die "enormen Stückzahlen" bei den Konsolen (z.B. ca. 20 Mio. PlayStations im Jahr) verblassen wohl im Vergleich eines "iPhone-Jahrs" (über 200 Mio. iPhones im Jahr und immerhin noch ca. 50 Mio. iPads).
Multi Frame Generation ist doch ein Software Feature, oder irre ich mich?
Dann lässt man doch ganz einfach Multi Frame Generation auf der 4090 laufen und gut ist.
Bevor Du antwortest schau Dir bitte die Kompatibilitätsmatrix von CUDA an.
Man muss es IMO anders herum betrachten. Apple bekommt jedes Jahr von TSMC einen neuen Prozess fürs iPhone. Wenn ein neuer Node kommt, ist der erste Prozess, der für diesen Node entwickelt wird, der Prozess fürs iPhone. Dieser Prozess wird auf die Anforderungen von Apple maßgeschneidert. Erst danach kommen die anderen Prozesse.
Cohen schrieb:
Da deren Kunden auch bereit sind, einen entsprechenden Preisaufschlag zu bezahlen.
Das stimmt nur teilweise. Apple fährt traumhafte Margen.
Wenn man die Macs betrachtet, dann sind sie erheblich höher integriert als vergleichbare PCs. Höhere Integration ist die Methode mit der die Kosten für Elektronik Jahr um Jahr gesenkt wird.
Auf der anderen Seite streicht Apple die Marge selbst ein, die sonst beim SoC Hersteller anfallen würde.
Apple ist Systemanbieter und sie haben es sich hervorragend eingerichtet. Das Design machen sie selbst und die Kapital intensiven und riskanten Schritte überlässt Apple Fertigungsdienstleistern.
Genau, es müssen natürlich auch >>200 fps sein, sonst ist das völlig unspielbar.
Apocalypse schrieb:
Anyway, was ich eigentlich sagen will, es gibt weniger Unterhaltsame Arten sein Geld loszuwerden als eine 4090 oder 5090. Kennst du die Eso-Welle? Kostet das gleiche wie eine 4090… einfach auf der Zunge zergehen lassen.
Du meinst das Gerücht aus Deutschland aus einem Forum...ich hab es gelesen und ließt sich ein bisschen komisch. Zum einem gibt es nur Streitigkeiten (obwohl nur angenommen) zwischen AMD und Händler (Die Dritthersteller werden garnicht erwähnt) und anscheinend nörgeln diese jetzt wegen Zahlungsruckstände bei Cashback...aber trotzdem wollen diese paar Händler AMD-Karten verkaufen obwohl es anscheinend seit einem ganzen Jahr extrem große Probleme gibt mit der Bezahlung! Also irgendwie unschlüßig warum diese paar Händler das Risiko trotzdem tragen möchte? Wollen die noch mehr Verluste einfahren aus Spaß?
Da ist bekannt und war auch nicht die Frage. Die Frage war warum die Software für Multiframe Frame Generation nicht auf den 4000 er läuft. Aber die Frage liese sich natürlich auch erweitern, warum läuft Single Frame Generation nicht auf der 3090?
Was das CUDA SDK anbelangt achtet Nvidia auf eine breite Unterstützung von GPUs. Bei den Gaming GPUs ist Rückwärts Kompatibilität halt lästig, wenn man neue Generationen über ein Softwarefeature vermarkten will.
@ETI1120 Dafür kenn ich mich nicht gut genug aus, um beurteilen zu können, ob Multiframe Generation auf der 4000er Serie laufen könnte. Ich bezweifle jedoch, dass du es verwenden könntest, selbst wenn du wolltest, deswegen steht meine These nach wie vor, dass die 5080 in aktuellen Spielen auch mit 16GB VRAM die zweitschnellste Karte sein wird für die nächsten 1-2 Jahre.
Das sind bis aufs letzte keine Gerüchte mehr sondern schon bekanntes oder bestätigtes
GPUs sind ausgeliefert, seit einer guten Woche bekommen die Händler die Lieferungen, deswegen gibs ja genug Händler die Videos/Bilder zeigen
Preis war an einen vermuteten Preis der 5070 angelehnt den Nvidia unterboten hat mit 550$, weswegen ja zB Moors Law is Dead die Vermutung hat das 500/600$ für die beiden Karten angedacht war (9070XT zum Preis der 5070 war ja schon vor der CES ein Gerücht)
das Hick Hack ist nicht mit Partner sondern angeblich mit den Händlern weil die ja vorab einkaufen und wenn sich der Preis jetzt ändert es deren Möglichkeiten einschränkt und/oder sie mehr Geld von AMD bekommen und AMD angeblich letztes Jahr schon nichts bezahlt hat (bei den UVP Änderungen)
Wieso 200, die gibt es doch jetzt erst in Cyberpunk mit MFG X4 und Halos in Cyberpunk2077 mit Pathtracing ;-)
Und frag mich mal warum ich RT mit meiner 6800 in der Regel auslasse! Es ist nicht weil mir RT nicht gefallen würde.
Die 4090 oder auch 5090 ist halt nice to have.
Ein Einsteiger Klavier und ne hübsche Midrange Gitarre ist auch nice to have.
Eines davon fand ich netter, Prioritäten. Man kann halt nicht alles im Leben haben. Aber selbst wenn keiner 5090er mehr kaufen würde, wäre die 5060 trotzdem nicht billiger. Die Karte ist einfach ihr eigenes Ding und ihr eigener Chip. Und die Leistung ist halt nett. Kauft sie niemand mehr, werden die 90er halt wieder aus dem Programm genommen.
And btw, muss nicht original Konsole und CRT sein, ist aber halt einfach so viel besser als einem modernen Sample and Hold mit Emulator.
Warum nicht? Die 4090 ist aus 2022, also zu dem Zeitpunkt des Releases ist die Karte schon 4 Jahre alt. Zudem bekommen Konsolenhersteller immer Vorabzugriff auf die neuesten Architekturen und Fertigungsprozesse, einfach weil sie Hardwarenachfrage in enormen Stückzahlen garantieren.
Die PS5 Pro für 800 anzubieten, war möglich, weil sich diese an Enthusiasten u.ä. richtet. Eine normale PS6 muss für die interessierte Mehrheit anbiedern, also einen möglichst niedrigen Preis haben. Ob €500 für die PS6 in irgendeiner Weise möglich werden, muss sich noch weisen.
Die nächste Xbox hingegen könnte nur dann interessant genug werden, wenn man darauf Xbox und sogar PC Spiele konsumieren könnte. Also quasi, wenn sie Steam zuvorkommen würden, so ein Gerät könnte sich sogar einen höheren Preis leisten. Es ändert nur nichts daran, dass es keinerlei Bedeutung hat, wann eine Grafikkarte auf den Markt kam und wie viele Jahre es gedauert hat, bis die nächste erscheint. Relevant sind die möglichen Prozesse und welcher Preis für das Produkt ausgewiesen werden und in dieser Hinsicht langt es einfach nicht, sofern nicht die TFlops-Zählung geändert wird. Dafür bräuchte es die AMD-Variante einer RTX 4090, gefertigt mit einem Prozess, welcher die "die size" auf unter 300 mm² reduziert, damit der Stromverbrauch und die Kühlung nicht explodieren und neben dem zentralen Chip die Kosten noch weiter in die Höhen befördern.
Und hinsichtlich der Hardwarenachfrage, das wurde hier auch schon erwähnt. Die Verkaufszahlen für den neuesten Fertigungsprozess gelangt nicht an Sony mit 20 Mio., sondern an Apple mit dem Vielfachen. Mit Kunden, die Luxus-Preise zu zahlen bereit sind, während Konsolen-Käufer ja auch für Spiele zahlen dürfen, dann sollte die Konsole nicht auf Apple-Preise steigen.
lynx007 schrieb:
Interposer ist ja nichts mehr neues mehr und wird ja schon bei der PS5, XBOX eingesetzt.
Das wäre mir neu. AMD hat das IIRC bei den Fury Modellen mit HBM eingesetzt, eben, weil HBM verwendet wurde, während die Konsolen monolithische Chips nutzen.
ETI1120 schrieb:
Auch das ist ein Problem, das aus der Trennung von CDNA und RDNA entstanden ist. Auf der anderen Seite fehlt CDNA eine Einsteigerkarte und auch eine Developerkarte.
Absolut, was irgendwie nicht jedem ersichtlich ist ...
ETI1120 schrieb:
Also wenn beim Playstation 6 SoC 3D Stacking eingesetzt wird, dann geht es um weit mehr als nur um X3D. Es ist nur die Frage wie viele Stockwerke und wie die einzelnen Stockwerke eingerichtet werden.
Das klingt ja alles wunderbar, aber entsprechend noch teurer.
Andererseits, zumindest für eine weitere Ebene, entwickelt ja AMD möglichst alles in diese Richtung. Mal sehen, ob UDNA dann wirklich ein MCM wird.
ETI1120 schrieb:
PS.: Beim Schreiben ist mir noch bewusst geworden, dass AMD mit dem Zen 5 X3D wahrscheinlich das ideale Produkt für die Risk Production einer Wafer on Wafer Hybrid Bonding Fertigung gemacht macht.
Inwiefern? Weil damit die beste Gaming-CPU auf den Markt gebracht wurde und sie sich gewiss sein können, dass alle aufgekauft werden? Was irgendwie für das mangelnde Angebot spricht.
ETI1120 schrieb:
Bei den langen Zyklen der Konsolen ist es etwas entspannter.
Das war früher vielleicht so, ohne das genauer nachzuprüfen. Aber heutzutage, mit den höheren R&D Kosten für jeden weiteren Schritt, sind diese für Konsolen einfach zu hoch geworden.
Gerade als die PS5 auf den Markt kam, war N7 nicht mehr das Nonplusultra, sondern das war N5 und wurde natürlich von Apple für iPhone 12 und kurz danach für den M1 verwendet.
Bei Wafer on Wafer kann man auf einmal 800 CCDs herstellen mit dem aktuell verwendeten Chip on Wafer muss man 800 Mal das CCD auf das Cache Die aufsetzen. AFAIU senkt Wafer on Wafer Hybrid Bonding die Kosten für Hybrid Bonding erheblich.
Wenn man die Stockwerke sauber einteilt, kann man weiter optimieren, so dass man die teuersten Nodes nur für die Schaltkreise nimmt, die davon auch profitieren.
Ganz davon abgesehen dass ein L2 direkt unter dem Kern anstatt daneben, IMO bei der Latenz durchaus hilft.
Deinorius schrieb:
Andererseits, zumindest für eine weitere Ebene, entwickelt ja AMD möglichst alles in diese Richtung. Mal sehen, ob UDNA dann wirklich ein MCM wird.
UDNA wird natürlich auch mit Chiplets gemacht. Ohne wäre ein CDNA-Nachfolger gar nicht umsetzbar. Ob AMD auch eine Gaming GPUs aus mehrer GCD aufbaut? Früher oder später ja.
"MCM" verwende ich ungerne für den Chipletansatz, da MCM im packaging eigentlich dafür steht mehrere Dies auf einem organischen oder keramischen Substrat zu integrieren. Also für das was AMD momentan bei Ryzen und EPYC macht.
So wie Sam Naffziger bei seinem Vortrag auf der DAC 2021 "MCM" verwendet hat
Eine GPU aus mehreren Chiplets auf organischen Substrat zu machen ist nicht möglich. Dafür ist momentan ein Silizium Interposer oder eine Silizium Brücke erforderlich. Anders kann man die notwendige Anzahl der Verbindungen nicht umsetzen.
Bei der MI200 waren die beiden Chiplets über das Fanout gekoppelt. Deshalb war die MI200 eine Chip mit 2 GPUs. Die MI300 kann dank des Silizium Interposers als eine GPU agieren.
Deinorius schrieb:
Inwiefern? Weil damit die beste Gaming-CPU auf den Markt gebracht wurde und sie sich gewiss sein können, dass alle aufgekauft werden? Was irgendwie für das mangelnde Angebot spricht.
Ganz einfach. CCD und Cache Chiplet haben dieselbe Größe. Das ist die Voraussetzung wenn man 2 Wafer übereinander legen will. Auf beiden Wafern müssen die Dies gleich groß und gleich ausgerichtet sein.
Bei der Risc Production wird schon das endgültige Produkt hergestellt, aber zu Beginn mit geringem Yield. Das bedeutet, wenn das Verfahren mit den aktuellen X3D eingefahren wird, steht es ausgereift und erprobt für neue Chips zur Verfügung.
Deinorius schrieb:
Natürlich, aber die ursprüngliche Aussage bezog sich auf die Grafikkarten und da ist es nicht so entspannt.
Ian Cutress hat sich schon mehrmals über Berichte geärgert die "XXX arbeitet schon am Nachfolger von YYY" als Neuigkeit oder gar Sensation herausgekehrt haben. Wenn Chips 4 oder 5 Jahre in der Entwicklung sind und der Nachfolger in 2 Jahren kommt, arbeitet man garaniert schon am Nachfolger, und oft schon am Nachfolger vom Nachfolger.
Schauen wir Mal wie die AI bei der Chipentwicklung eingesetzt wird, wollen die Hersteller eher die Entwicklungszeit verkürzen oder die eher die Qualität der Ergebnisse verbessern?
Deinorius schrieb:
Gerade als die PS5 auf den Markt kam, war N7 nicht mehr das Nonplusultra, sondern das war N5 und wurde natürlich von Apple für iPhone 12 und kurz danach für den M1 verwendet.
Die PS5 Pro für 800 anzubieten, war möglich, weil sich diese an Enthusiasten u.ä. richtet. Eine normale PS6 muss für die interessierte Mehrheit anbiedern, also einen möglichst niedrigen Preis haben.
Nein, das ist mittlerweile anders. Siehe Apple: Die meistverkauften iPhones sind die Pro-iPhones die weit jenseits der 1.000€ liegen. Die meisten Käufer dieser Geräte sind keine Fotografen oder Enthusiasten, sondern normale Konsumenten. Auch Konsolen sind ein Objekt der Begierde und immer mehr normale Nutzer sind bereit für Technik hohe Preise zu bezahlen.
Ergänzung ()
Deinorius schrieb:
Dafür bräuchte es die AMD-Variante einer RTX 4090, gefertigt mit einem Prozess, welcher die "die size" auf unter 300 mm² reduziert, damit der Stromverbrauch und die Kühlung nicht explodieren und neben dem zentralen Chip die Kosten noch weiter in die Höhen befördern.
"AMD-Variante einer RTX 4090"? Bitte was schreibst du da? Du meinst vielleicht, dass es eine GPU von AMD braucht, die dem Leistungsäquivalent einer 4090 entspricht? Nochmal: Die 4090 erschien 2022, PS6 und Xbox wie auch immer sie dann heißt werden 2026/27 heraus kommen. Abgesehen davon dass ich stark bezweifle, dass es der Rohrechenleistung einer 4090 bedarf, sind da 4-5 Jahre technische Entwicklung dazwischen. Alleine schon weil die RTX 4090 in 5nm gefertigt ist und die neuen Konsolen in 3nm oder sogar 2nm gefertigt werden. Nur zum Vergleich: XSX und PS5 wurden noch in 7nm gefertigt, erst mit einem Refresh hat man den Chip auf eine 6nm Produktionslinie umgezogen.
Ergänzung ()
Cohen schrieb:
Konsolenhersteller bekommen immer Vorabzugriff auf die neuesten Fertigungsprozesse?
Ich sehe da keine großen Abweichungen zwischen Konsolen und PC:
Du darfst nicht die Releasedaten miteinander vergleichen, sondern den Zeitpunkt ab da wo das Produkt die Designphase verlässt und in die Produktion geht. Konsolen gehen in deutlich größeren Stückzahlen über den Tisch und werden länger vorproduziert als Grafikkarten.
Cohen schrieb:
Und auf die Architekturen und Fertigungsprozesse der Nintendo-Konsolen werfen wir lieber keinen genaueren Blick.
Da stimme ich zu, Apple steht immer ganz oben auf der Kundenliste.
Ergänzung ()
.Snoopy. schrieb:
Glaubst du wirklich das nächste Jahr eine XBOX mit einer Leistung zwischen RTX5080 und RTX5090, eher Richtung RTX5090 für $499,- kommen wird? Ich definitiv nicht. Selbst wenn es der 31.12.2026 sein wird.
Wenn Chips 4 oder 5 Jahre in der Entwicklung sind und der Nachfolger in 2 Jahren kommt, arbeitet man garaniert schon am Nachfolger, und oft schon am Nachfolger vom Nachfolger.
Die Entwicklung ist heute da zum Teil auch organischer, dazu kommt ja auch, dass am selben Chip nicht immer das gleiche Team arbeitet.
Es gibt für die verschiedene Bestandteile verschiedene Teams und auch für die einzelnen Stadien.
Die Experten für VALU arbeiten an diesen, die anderen an den RT-Kernen, wieder welche am Interconnect und so weiter.
Am Ende trägt ein Team das zusammen, eines entwirft dann die Chips und Co. Je nach Stadium gibt es viele Teams die da arbeiten, während andere bereits andere Arbeiten haben.
Man sieht ja auch das manchmal „unfertige“ Bestandteile es in die Chips schaffen und dann brach liegen, weil noch nicht alles fertig war dafür und sich damit Funktionen auch mal verschieben.