News AMD-Gerüchte: Rückkehr zu High-End-GPUs und X3D-Cache für die PlayStation 6

ETI1120 schrieb:
Ganz davon abgesehen dass ein L2 direkt unter dem Kern anstatt daneben, IMO bei der Latenz durchaus hilft.
Ich warte schon darauf, dass der komplette L3 Cache unter die Logik-Transistoren kommt, seit mir klar geworden war, dass das der nächste logische Schritt ist. Also ja, wieso nicht später auch den L2 Cache anders platzieren? Das kann gerade für SoCs nur vom Vorteil sein, wenn gerade der L3 Cache nicht nur für CPU, sondern auch für GPU und die restlichen Komponenten als LLC (last level cache) zur Verfügung steht.

ETI1120 schrieb:
"MCM" verwende ich ungerne für den Chipletansatz, da MCM im packaging eigentlich dafür steht mehrere Dies auf einem organischen oder keramischen Substrat zu integrieren. Also für das was AMD momentan bei Ryzen und EPYC macht.
Bei mir steht MCM für Multi-Chip-Madness. :p

ETI1120 schrieb:
Ganz einfach. CCD und Cache Chiplet haben dieselbe Größe.
Ach, darum geht's. OK, danke für die Aufklärung.

ETI1120 schrieb:
Bless Dr. Ian Cutress.

ETI1120 schrieb:
N5 stammt für AMD zu dem Zeitpunkt noch nicht zu Verfügung.
Die ursprüngliche Aussage bezog sich darauf, dass Konsolen die neuesten Prozesse verwendet haben. Ob N5 AMD zur Verfügung stand, kann man als Argument verwenden, aber gilt hier IMHO nicht.

aid0nex schrieb:
Nein, das ist mittlerweile anders. Siehe Apple: Die meistverkauften iPhones sind die Pro-iPhones die weit jenseits der 1.000€ liegen.
Unterschiedliche Regeln für unterschiedliche Produktkategorien. Auch wenn sich die Bezahl-Hemmschwelle durchaus geändert hat.
Ein Smartphone ist keine Konsole, ersteres wird von den Massen täglich regelmäßig verwendet und auch der Mobiltarif wird als (lebensnotwendige) Ausgabe anders empfunden als z.B. Gamepass/PS+/NSO, zumindest im Vergleich "breite Masse vs. bestimmte breite Gruppe".
Ich selber verstehe ja, dass €800 in 5 Jahren etwas völlig anders als €1000 in vielleicht 3-4 Jahren sind, aber dazu kommen ja auch die zusätzlichen Ausgaben - Spiele vs. gelegentliche Apps.

aid0nex schrieb:
Du meinst vielleicht, dass es eine GPU von AMD braucht, die dem Leistungsäquivalent einer 4090 entspricht?
Korrekt. Und zum Rest habe ich schon mehr als genug geschrieben, das werde ich nicht wiederholen.
Das Argument, zwischen der 4090 und dem nächsten Release von Konsolen würden 4-5 Jahre vergehen, ist unzureichend. Marktumstände können sich ändern, Technik kann sich besser entwickeln, oder man stößt auf Probleme. Aber der Gedanke, dass sich lithographischen Prozesse in 4-5 Jahren so sehr weiterentwickeln, dass aus einem Halo Produkt wie der 4090 ein SoC produziert werden kann; also mit CPU, IMC und allem drum und dran; welcher nicht nur rund 300 mm² groß sein darf, sondern auch günstig genug produziert werden kann. Und das sehe ich von der Produktionsdichte nicht bei N3E, ich bin nicht mal sicher, ob das auch mit N2/N2P ginge und bei den Kosten sehe ich das mit N2 noch weniger. Zumal gerade N3P erst 2026 zur Verfügung steht und das wäre für eine Konsole im Jahre 2026 zu knapp und für 2027 immer noch zu teuer.
A16 soll 2026 zur Verfügung stehen, im Vergleich zu N5 knapp 60 % (bzw. im Vergleich zu N4 eher über 50 %) höhere Transistorendichte. Ein Vergleich mit der RX 7900 XTX ist wegen der MCD schwierig. Wenn ich die angeblichen 390 mm² der RX 9070 XT hernehme und im Optimalfall annehme, dass diese ungefähr die 7900 XTX Leistung hat, wäre ein 50 % leistungsfähigerer Chip, der vielleicht 30 % größer ist (nehmen wir es mal an) im A16 Prozess über 330 mm² groß, als reine GPU. Das geht sich kaum aus und ja, ich weiß, dass das Spekulation (und eine Milchmädchenrechnung) ist, aber es basiert auf möglichst vielen Gesichtspunkten und offiziellen Daten von TSMC.

aid0nex schrieb:
Nintendo hat ja auch kein Interesse an den neuesten Technologien und Fertigungsprozessen und fragt diese daher auch gar nicht bei den Herstellern an.
Ersteres indirekt korrekt aufgrund der Kosten. Ich schreibe das nur, weil der letzte Teil nicht zwingend stimmen muss. Sie können ja überall anfragen und nehmen, was die niedrigsten Kosten für den Anwendungszweck enthält. Sony hat sich ja für die PS6 auch bei Intel umgesehen, auch wenn es offensichtlich sein muss, dass sie keine Option derzeit darstellen.
Der primäre Grund, nicht überall anzufragen, wird aber der Umstand sein, dass der Nvidia SoC für einen Samsung Prozess konzipiert ist, ein Wechsel verursacht zusätzliche Kosten.

aid0nex schrieb:
Wer schrieb dann etwas von RTX 5000er Serie? 🧐
Er schrieb von einem Vergleich der Leistung.
 
DevPandi schrieb:
Die Entwicklung ist heute da zum Teil auch organischer, dazu kommt ja auch, dass am selben Chip nicht immer das gleiche Team arbeitet.
Als Außenstehender sieht man eben nur so halbwegs mit wie die Chips entwickelt werden. Wie die IP entwickelt wird, die in diese Chips einfließt, bekommt man nicht so richtig mit.

DevPandi schrieb:
Es gibt für die verschiedene Bestandteile verschiedene Teams und auch für die einzelnen Stadien.
Wie überall, nur dass die Phasen bei der Entwicklung von Chips AFAIU deutlicher getrennt sind als in vielen anderen Branchen. Und alleine aus diesen Phasen ergibt sich, dass die Leute, die an den schon länger abgeschlossenen Phasen gearbeitet haben, schon lange wieder an anderen Projekten arbeiten.

DevPandi schrieb:
Man sieht ja auch das manchmal „unfertige“ Bestandteile es in die Chips schaffen und dann brach liegen, weil noch nicht alles fertig war dafür und sich damit Funktionen auch mal verschieben.
Die meinst so was wie die Geschichte mit dem shader pre-fetching bei RDNA3. Als Kepler ausgeheult hatte hat er in der nächsten Trauerphase AMD beschuldigt RDNA3 mit deaktiviertem shader pre-fetching released zu haben?

Die Antwort von AMD an Tom's Hardware:
"Wie frühere Hardware-Generationen wird Shader-Pre-Fetching auf RDNA 3 unterstützt (siehe [gitlab link]). Der fragliche Code steuert eine experimentelle Funktion, die nicht für die Aufnahme in diese Produkte vorgesehen war und in dieser Produktgeneration nicht aktiviert sein wird. Dies ist eine übliche Praxis in der Industrie, experimentelle Funktionen einzubinden, um die Erforschung und Abstimmung für den Einsatz in einer zukünftigen Produktgeneration zu ermöglichen." - AMD-Sprecher gegenüber Tom's Hardware.

@DevPandi habt ihr vor die Aussagen von Kepler zur Playstation 6 zu bringen?


aid0nex schrieb:
Die meistverkauften iPhones sind die Pro-iPhones die weit jenseits der 1.000€ liegen. Die meisten Käufer dieser Geräte sind keine Fotografen oder Enthusiasten, sondern normale Konsumenten. Auch Konsolen sind ein Objekt der Begierde und immer mehr normale Nutzer sind bereit für Technik hohe Preise zu bezahlen.
Du unterschlägst 3 Dinge:
  • Viele Konsumenten schließen einen Telefonvertrag ab und da wird formal ein niedrigerer Preis für das iPhone veranschlagt. Ich bin nicht sicher, ob alle nachrechnen ob sich das wirklich lohnt.
  • Viele Firmen verwenden das iPhone als Dienst-Mobilphone
  • Mit einer Playstation kann man schlecht telefonieren. Oder anders ausgedrückt der Vergleich mit dem Premiumanbieter des Mobilphonemarkts hinkt.
 
ETI1120 schrieb:
Die Frage war warum die Software für Multiframe Frame Generation nicht auf den 4000 er läuft. Aber die Frage liese sich natürlich auch erweitern, warum läuft Single Frame Generation nicht auf der 3090?
Im neusten DF Interview haben sie zumindest auf die Frage, ob nun wo man die Optical Flow Einheiten nicht mehr für FG benutzt auch ein paar der 3000er FG bekommen könnten, gesagt, dass sie schauen wollen, was man in Zukunft durch weitere Optimierungen möglich machen kann.
Und das anscheinend sowohl bezogen auf FG für die 3090 als auch MFG für die 4090
 
  • Gefällt mir
Reaktionen: ETI1120
ETI1120 schrieb:
Viele Konsumenten schließen einen Telefonvertrag ab und da wird formal ein niedrigerer Preis für das iPhone veranschlagt. Ich bin nicht sicher, ob alle nachrechnen ob sich das wirklich lohnt.

Das Geld zahlst du trotzdem. Ob auf einmal oder über einen Zeitraum X gestreckt.


ETI1120 schrieb:
Viele Firmen verwenden das iPhone als Dienst-Mobilphone

Ja genau, und deswegen ist das iPhone ja auch bei den jüngsten, die garantiert noch nicht dienstliche Handys haben, ja auch am höchsten, ne?

1737391316084.png


ETI1120 schrieb:
Mit einer Playstation kann man schlecht telefonieren.

Natürlich kann man mit der Playstation mit anderen Menschen reden. Mit dem Smartphone kann man anders herum auch zocken. Übrigens benutzen die meisten Menschen, vor allem die jüngeren, die klassische Telefonie Funktion nur noch sehr selten. Was genau willst du sagen? Was für ein Argument soll das sein?

ETI1120 schrieb:
Oder anders ausgedrückt der Vergleich mit dem Premiumanbieter des Mobilphonemarkts hinkt.

Nein, der Vergleich passt perfekt! Immer mehr Menschen sind bereit für Technik immer mehr Geld auszugeben.
Ergänzung ()

Deinorius schrieb:
Korrekt. Und zum Rest habe ich schon mehr als genug geschrieben, das werde ich nicht wiederholen.

Uff, das ist jetzt aber eine ganz schön heftige wall of text. Daher will ich jetzt auch nicht auf alles eingehen, bei einigen Punkten stimme ich dir auch zu. Aber zunächst: Das meintest du vielleicht, hast du aber nicht geschrieben. ;)

Deinorius schrieb:
Unterschiedliche Regeln für unterschiedliche Produktkategorien. Auch wenn sich die Bezahl-Hemmschwelle durchaus geändert hat.

Letzter Punkt ist wichtig, ich nehme stark wahr wie sich auch bei Nicht-Tech-Enthusiasten die "Bezahl-Hemmschwelle" bei Technikprodukten immer mehr verändert, viel mehr Leute sind bereit viel mehr für Technik auszugeben.

Deinorius schrieb:
Ein Smartphone ist keine Konsole,

Oha, das ist aber mal äußerst falsch. Schau dir einfach mal an was die meistgespielten und am meisten Umsatz generierenden Spiele sind. Tipp: Sie laufen auf Android und iOS.

Deinorius schrieb:
Ich selber verstehe ja, dass €800 in 5 Jahren etwas völlig anders als €1000 in vielleicht 3-4 Jahren sind, aber dazu kommen ja auch die zusätzlichen Ausgaben - Spiele vs. gelegentliche Apps.

Ich gehe stark davon aus dass Sony eine PS6 mindestens genauso leistungsstark wie eine PS5 Pro designen wird, zu welchem Endpreis wird sich zeigen... Bei Konsolen ist auch immer die Frage wie stark ein Hersteller die Hardware für eine möglichst große Kundenbasis subventioniert, denn das Geld wird anschließend mit Software und Abos gemacht, nicht mit der Hardware.

Deinorius schrieb:
Das Argument, zwischen der 4090 und dem nächsten Release von Konsolen würden 4-5 Jahre vergehen, ist unzureichend. [...]

Zitat abgekürzt. Ich habe nichts voraus gesagt, ich habe nur eine Aussage eines anderen Foristen etwas in Frage gestellt. ;) Zu keinem Zeitpunkt meinte ich dass die PS6 und nächste Xbox mindestens die Power einer 4090 haben werden. Ich stelle sogar in Frage ob so viel Power notwendig sein wird.

Deinorius schrieb:
Sie können ja überall anfragen und nehmen, was die niedrigsten Kosten für den Anwendungszweck enthält. Sony hat sich ja für die PS6 auch bei Intel umgesehen, auch wenn es offensichtlich sein muss, dass sie keine Option derzeit darstellen.

Müssen sogar. Sony wird ähnlich wie alle anderen Großkonzerne auch arbeiten und aus der Erfahrung von der Arbeit bei deutschen Großkonzernen kann ich dir sagen, dass die Einkaufsregeln es vorgeben dass man eine Ausschreibung und ernste Gespräche mit mehreren Vendoren führen muss, um einen Lock In Effekt zu vermeiden und das optimalste Angebot zur Verfügung zu haben. Alternative Angebote helfen auch als Argument bei den Vertragsverhandlungen mit dem favorisierten Vendor.
 
Zuletzt bearbeitet:
aid0nex schrieb:
Aber zunächst: Das meintest du vielleicht, hast du aber nicht geschrieben. ;)
Ich muss zugeben, das verstehe ich jetzt nicht. ^^"

aid0nex schrieb:
Letzter Punkt ist wichtig, ich nehme stark wahr wie sich auch bei Nicht-Tech-Enthusiasten die "Bezahl-Hemmschwelle" bei Technikprodukten immer mehr verändert, viel mehr Leute sind bereit viel mehr für Technik auszugeben.
Die Anzahl der möglichen Technik-Produkte pro Haushalt/Person ist auch gestiegen. Nicht jeder will oder kann Unsummen für alles ausgeben. Und da entscheidet sich, ob ein Smartphone oder die Konsole Priorität bekommen.
Es kommt ja noch ein anderer Punkt hinzu. Je niedriger der Preis der Konsole ist, umso eher wird diese gekauft und damit auch die Spiele, über welche man Umsatz macht. Das gilt zwar bei Smartphones nicht anders, ist aber dennoch eine andere Dynamik.

aid0nex schrieb:
Oha, das ist aber mal äußerst falsch. Schau dir einfach mal an was die meistgespielten und am meisten Umsatz generierenden Spiele sind. Tipp: Sie laufen auf Android und iOS.
Das ist im Sinne meines Arguments aber wenig relevant. Es gibt zwar "ernsthafte" Spiele auf Smartphones, aber gerade diese umsatzträchtigen Dinger funktionieren auf Konsolen nicht, weil sich ja keiner vor den TV setzt, um diese zu konsumieren.
Mir geht es ja grundsätzlich nicht nur um die physikalischen Unterschiede zwischen Smartphones und Konsolen, sondern auch wie u.a. Spiele auf diesen konsumiert werden.

aid0nex schrieb:
Ich stelle sogar in Frage ob so viel Power notwendig sein wird.
Oh, absolut. Da gehe ich locker mit dir mit.
Ich bin grundsätzlich der Meinung, dass wir in gewissen Bereichen der Spiele-Grafik ein Level erreicht haben, das nicht unbedingt weiter ansteigen muss. Ich will keinen Photorealismus in Spielen, allein schon wegen der immensen Anstrengungen, die dafür nötig sein werden.
Es gibt jedoch Bereiche, die ich nicht gleich in die Kategorie Photorealismus schieben, aber dennoch als potenziell starke Fortschritte für die Zukunft der Grafik betrachte, allen voran Raytracing/Pathtracing. Anstrengung groß, wird es aber auch wert sein, gerade da es auch nicht-photorealistischen Spielen Vorteile bringt.
Die "Physikalität" der Welt: kein Clipping, Zerstörbarkeit, Nanite statt LOD usw.
Und während gerade Pathtracing viel Leistung braucht, muss es primär effzienter werden. Der Rest kann/muss über bessere Software erreicht.
Du beziehst dich sicher auch darauf, dass die meisten Konsolen-Spieler nicht so viel Leistung brauchen und da müssen Features her, welche einen Unterschied zeigen können.
 
blackiwid schrieb:
Nunja Fantasie-vermutungs-frames sind eben keine echten Frames,
"Echte Frames". Dbei muss ich immer an frisch gepflückte Körbe nativer Frames denken. Vom Biohof.
blackiwid schrieb:
ich kann dir auch schwarze Frames ne million erfinden einfach 1000x nen schwarzes Frame aus geben, das sind auch Frames, also dich juckt doch die Methode wie die Frames erraten werden...
Nein. Du beschreibst ja auch keine Methode sondern ein Ergebnis.
Natürlich interessiert das Ergebnis. Schwarze Frames sind nicht das gewünschte Ergebnis.
Wenn das gewünschte Ergebnis aber erreicht wird, interessiert nicht wie es erreicht wurde.

Wenn ich also 60fps hab ist es mir Rille ob die alle nativ berechnet werden, oder durch einen ML Algorithmus oder von kleinen Kobolden erraten werden (wenn die Kobolde den Job gut machem, wen juckts?).
Ob das heute schon so ist, darüber sag ich nichts. Aber bei gleichen Ergebnis ist die Methode absolut zweitrangig.
 
Zuletzt bearbeitet:
@Schinken42
mit nativen frames meint er so klassisch wie man es halt gewohnt ist. Man stellt die Auflösung ein die der Bildschirm so kann und erwartet auch das die gpu so viele Pixel auch zu berechnen hat ohne andere Tricks.
Klar kann man auch her gehen und nur die Hälfte der Auflösung berechnen. Dann sieht man meist aber das das Bild unscharf wird. Die andere Methode mit zwischen Bilder das sieht man in Form von input lag oder es treten Artefakte auf. Ich bin so einer der sehr empfindlich ist. Und ein guter Spieler könnte die schlechte wie den inputlag ausgleichen. Ein von haus aus eher nicht so guter Zocker kann das nicht weil dann killt dieser garnix mehr.
Die Technik die Auflösung zu reduzieren ist bei full HD also ne verdammt kleine Auflösung kann man so sagen.
ich denke mal so einen wie für mich wird es auf Dauer wohl keine guten Alternativen geben. Bei Konsole zocke ich in Zukunft auch mit nur full HD. Konsole kann also die Auflösung ebenso nicht mehr reduzieren.
Es gibt auch Spiele die haben von haus aus kein gutes inputlag. Dann noch die gpu damit und dann ist es die hölle. Darum werden die ganzen Techniken die nvidia so Auffärt mich nicht erreichen.

ich will halt von aktuellen gpus so zocken wie weit vor corona. Also wie 2016 oder sowas. Also in der hinsicht war ja damals die gtx 1080 ti die beste gewesen kann man so sagen.

damals hat man solche Tricks nicht gebraucht. Damals war Raster Grafik noch aktuell gewesen und die Auflösung die wo der Bildschirm maximal nativ so konnte. Das ist mit nativ gemeint. nvidia will diese Grenze verwischen, aber solche User wie ich lässt sowas kalt. Es mag zwar existieren nur bei meiner Anwendung und nutzen allerdings nicht.
 
Zuletzt bearbeitet:
xD
Ich weiss schon was er meint.
 
aid0nex schrieb:
Wer schrieb dann etwas von RTX 5000er Serie? 🧐
95 TFlops stehen im Raum. Ist doch egal, ob das schneller als eine 4090 ist, wo du sagst, warum nicht. Die 95 TFlops sind ebenfalls zwischen der 5080/5090, bzw. eher an die 5090.

Frage war, glaubst du das wirklich das 2025 eine XBOX mit der Leistung von 95 TFlops, also zwischen einer RTX5080/5090, kommt?
 
Zurück
Oben