News AMD-Gerüchte: Rückkehr zu High-End-GPUs und X3D-Cache für die PlayStation 6

zeedy schrieb:
Warum macht man die Trennung der Architektuten nach Vega jetzt wieder rückgängig?
Erstmal abwarten, was ein gemeinsamer Name im Endprodukt genau bedeutet.
 
ETI1120 schrieb:
So wenig Ressourcen waren das nicht. Es waren 2 Linien RDNA und CDNA. Hinzu kommen auch noch die APUs
Ich meine schon Radeon.
ETI1120 schrieb:
Bei den Gaming GPUs wurden in der Tendenz größere Dies und mehr unabhängige Designs. Bis eben RDNA 4 kam.
RDNA4 sind's 2. RDNA3 waren es gerade mal 2.5. RDNA2 waren 4. So toll ist die Tendenz zumindest die letzten Generationen nicht.

Zu den ganzen Influencern, sind wir einer Meinung. Aber auch Leute mit Ahnung können auch mal daneben liegen. Die üblichen Schwätzer ständig.
ETI1120 schrieb:
Sie haben im Grunde über 3 Punkte geredet, Interconnect, FPU und Mall. Dass die Fragen vorher verabredet waren ist logisch.
Die können ruhig vorher geklärt werden, aber der Typ hat ewig geredet ohne wirkliche viel gesagt zu haben. Das hätte man in drei Sätze zusammenfassen können.
Aber gut, immerhin bekommt man in diesen Interviews manchmal interessante Beweggründe aus erster Hand. Aber dieses fand ich doch schon eher schwach.
 
Na mal sehen bis wann das dann soweit sein wird, wird eh mindestens noch 1-2Jahre dauern ist mir aber erstmal ganz recht.

Vielleicht hat man ja wieder was in der Hinterhand wie mit der 6000 Serie dioe ganz gut lief.
 
jimpannse schrieb:
@latiose88 Die PS4 wurde aber noch fast doppelt soviel verkauft und wird am Ende der PS5 sicher immer noch gut 20-30mio vorne liegen dürfen.
(vlt auch mehr, wenn der Absatz dank GTA6 nicht nochmal deutlich ansteigt)
Wie kommst du denn auf einen letztendlichen Abstand von 20 - 30 Millionen Konsolen? Bisher verkauft sich die PS5 fast so gut wie die PS4 in einem vergleichbaren Zeitraum:

1737199554300.png
 
siehst das lohnt sich also doch.
Und ist die frage ob die Konsole dann auch irgendwann mit diesen fake frames daher kommt. Dann wäre die Konsole richtig stark.

Davon halte ich jedoch nix. Für mich sind fake frames keine logischen also nativen frames. Ich bewerte nach wie vor nur echte frames. Also das was mit der nativen Auflösung des Bildschirms zu tuen hat. Wenn man das also weg lässt dann schafft die rtx 4090 nach wie vor nativ keine 4k flüssig auf die Beine. Somit ist es aus meiner Sicht ne Schwache gpu. Und dlss und Co blende ich bewusst aus. Da hat in der Hinsicht also AMD ne Chance wenn man das aus blendet. Man sieht ja wenn man dlss4 weg lässt, wie stark dann am Ende die kommende rtx 5090 ist. Die ist dann nix mehr, das ist wie wenn ein kartenhaus zusammen fallen würde.
tya raster mag zwar Tod sein aber für mich lebt es weiter. Und wie stark sind da die ganzen rtx gpus da. Bei der reinen raster sieht es ja für AMD doch gut aus. Von daher sehe ich da kein Problem.
Also da scheinen wohl ein Kopf an Kopf Rennen zu sein.

Es bleibt also spannend wie es da dann weiter gehen wird. Ich sehe ja wie die Spiele teilweise ohne raytracing aussehen. Kaum noch besser werden sie kann man so sagen. Ich bin gespannt ob die Konsolen das gut hin kriegen. Weil meist Vergleiche ich dann ohne raytracing es mit der Konsole. Hier kann also durchaus in Zukunft was werden.
 
Känguru schrieb:
Mein Eindruck ist, dass RDNA4 eher eine entwicklungstechnische Sparversion ist um mehr Kapazität für die UDNA-Architektur freibekommen zu haben.
Es kann auch wie vor GCN mit der 6000 Serie sein. Diese hatte statt VLIW5 auch VLIW4
Rockbreak schrieb:
Wünschenswert wäre es aber Gerüchte die 2-3 Jahre in der Zukunft liegen sind halt ungefähr so zuverlässig als würde man einfach eine Münze werfen. Kopf AMD macht wieder High End, Zahl Amd macht kein High End.
2026 ist nächstes Jahr ?
 
whyme schrieb:
Nvidia kocht genauso nur mit Wasser wie AMD. Mit was soll Nvidia denn Warten? Einer 1kW TDP GPU? Die sind genauso von der Physik gebremst wie alle anderen auch. Wären sie so überlegen würden sie nicht seit zwei Generationen mit Fake frames die Balken in den Benchmarks künstlich verlängern.

Dass Nvidias Highend ohnehin außer Konkurrenz spielt, sollte jedem klar sein, aber du siehst doch selbst in der Midrange, dass AMD keine Bedrohung mehr ist.

Die 70er war mal 50-55% des Highend-Dies, inzwischen ist man bei ganzen 25% angekommen.

Nvidia könnte jederzeit AMDs gesamtes Lineup unverkäuflich werden lassen, wenn sie denn wollten. Aber wozu, gibt man AMD eben die 10-15% Marktanteil und genehmigt sich dafür 70% Marge.

Wesentlich profitabler und aus Risikosicht bezüglich möglicher Kartellverfahren besser.

1737200919012.png
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
Abwarten und Tee trinken.
Vor allem müssen sie zeitgleich eine Softwarebombe zünden, ansonsten verpufft das ganze sehr schnell wieder...
 
ReactivateMe347 schrieb:
Eigentlich ist das längst keine Oberklasse mehr, sondern absurde Luxusklasse. Für den Preis einer 5090 hat man vor 5 Jahren noch sie Sperspitze im Gaming als Komplettrechner bekommen.
Direkt am Anfang der Pandemie mit den explodierenden Preisen damals? Press x for doubt.
Direkt davor die ETH Blase ... hmmm hmm, also nach UVP vielleicht, aber so real am Markt ... schwierig, aber vielleicht vor GENAU 5 Jahren, die Pandemie Preise haben ja ein wenig gebraucht bis sie den Höchststand erreicht hatten.
 
@KlaasKersting
Ich habe mit der Betrachtung ein massives Problem.
Der High End Die ist halt auch einfach eine von NVDIA Produktmarketing technisch gewählte Größe.
In manchen Generationen (Pascal) gab es im Consumer Segment Objektiv keinen High End Die.

Alleine schon, dass nur die für Consumer releasten DIEs aufgeführt werden und nicht alle ist schon ein Problem der Betrachtung.
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Apocalypse
blackiwid schrieb:
Erstens stimmt fine wine ja mal wieder wenn man fast 1:1 gleich viel RT Leistung in realen Spielen sieht mit 7800xt vs 4700 und in Raster klar davon zieht, weil mehr UE5 spiele kommen und da eben 12gb oft zu wenig sind.
Was sind denn reale Spiele? Rasterspiele mit einem kleinen Teil RT?
Ist auch großes Kino als Vergleich Spiele heranzuziehen, bei denen RT kaum eine Rolle spielt, wenn man die RT Leistung einer Karte beurteilen will.

Die 4070 (Super) wischt mit der 7800 XT in RT den Boden auf, aber leb du mal weiter in deiner AMD Fanboyblase:
Unbenannt.jpg


blackiwid schrieb:
"Leistung" so kann man das auch nennen, wenn ich dir erzähle das du ein Millionär bist und dann bei einer Bank ein paar Millionen schulden mache auf deinen Namen und das Geld auf ein anderes Konto von dir gebe, hab ich dich dann reich gemacht?
Es ist erbrachte Leistung oder denkst du, dass die FG Frames und das Upscaling keine Berechnungen erfordert, die von der GPU ausgeführt werden müssen? :D
Es ist sogar extra Hardware dafür vorhanden, um das ganze zu beschleunigen und mich juckt es nicht, wie Frames generiert werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Temporä schrieb:
@KlaasKersting
Ich habe mit der Betrachtung ein massives Problem.
Der High End Die ist halt auch einfach eine von NVDIA Produktmarketing technisch gewählte Größe.
In manchen Generationen (Pascal) gab es im Consumer Segment Objektiv keinen High End Die.

Alleine schon, dass nur die für Consumer releasten DIEs aufgeführt werden und nicht alle ist schon ein Problem der Betrachtung.
Stimmt schon, wobei hier immer das auf dem 02 Die basierende Produkt genommen wurde, also eine gewisse Konstanz ist schon gegeben.

Sonst kann man auch nur mal die selbe Klasse betrachten.

70er von Ampere bis Blackwell: 4,3% mehr Shader.

Sieht für mich nicht aus, als würde sich Nvidia in dem Bereich ansatzweise bedroht fühlen oder anderweitig dazu motiviert sehen, mehr als das absolute Minimum zu tun.

Im Vergleich dazu weiter oben im Stack:

90er von Ampere bis Blackwell: 107,3% mehr Shader.

80er von Ampere bis Blackwell: 23,5% mehr Shader.
 
Fighter1993 schrieb:
Es kommt mir auch oft so vor als ob NVIDIA einfach auf AMD wartet um nicht in die Monopolstellung zu gelangen.
Mir kommt es auch so oft vor als NVIDIA schaut, wie sehr sie ihre "Lemminge" melken können mit ihren Marketing Folien ...
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
DerMond schrieb:
Dürfen sich mit der PS6 noch gerne 2 Jahre Zeit lassen, aktuell null Bedürfnis nach dem Hobel.
das wär ja auch komplette verarsche wenn früher eine PS6 kommt, für jeden, der sich mit der PS5 Pro abzocken hat lassen
 
ElliotAlderson schrieb:
Was sind denn reale Spiele? Rasterspiele mit einem kleinen Teil RT?
Ist auch großes Kino als Vergleich Spiele heranzuziehen, bei denen RT kaum eine Rolle spielt, wenn man die RT Leistung einer Karte beurteilen will.

Die 4070 (Super) wischt mit der 7800 XT in RT den Boden auf, aber leb du mal weiter in deiner AMD Fanboyblase:
Pro Euro kannst doch nicht Leistung von ner 500 Euro karte mit ner 650 vergleichen und dich brüsten das paar % schneller bist.

https://www.computerbase.de/artikel....87048/#abschnitt_fps_pro_euro_in_2560_x_1440

rt-fps.png


ElliotAlderson schrieb:
Es ist erbrachte Leistung oder denkst du, dass die FG Frames und das Upscaling keine Berechnungen erfordert, die von der GPU ausgeführt werden müssen? :D
Es ist sogar extra Hardware dafür vorhanden, um das ganze zu beschleunigen und mich juckt es nicht, wie Frames generiert werden.
Nunja Fantasie-vermutungs-frames sind eben keine echten Frames, ich kann dir auch schwarze Frames ne million erfinden einfach 1000x nen schwarzes Frame aus geben, das sind auch Frames, also dich juckt doch die Methode wie die Frames erraten werden...
 
  • Gefällt mir
Reaktionen: SweetOhm und eXe777
KlaasKersting schrieb:
Stimmt schon, wobei hier immer das auf dem 02 Die basierende Produkt genommen wurde, also eine gewisse Konstanz ist schon gegeben.
Naja
GP102 ist z.B. deutlich eher mit AD103 Vergleichbar, während man aus der Pascal Generation eigentlich Volta als Gegenstück zum AD102 herziehen müsste.

KlaasKersting schrieb:
Sonst kann man auch nur mal die selbe Klasse betrachten.

70er von Ampere bis Blackwell: 4,3% mehr Shader.
Wobei Shader Count halt auch nur bedingt ein guter Vergleichspunkt wäre.
Das wäre eher der Transistorcount.

Was als Shader zählt ist halt auch nicht fix. Ampere und Ada haben pro Shader eine FP/INT und eine reine FP Pipeline. NVIDIA zählt das deswegen als zwei Shader, weil unter bestimmten Bedingungen der Shader doppelt so viel berechnen kann.

Blackwell geht wieder auf reine INT und FP pipelines zurück, wie bei Turing.
Damit hat ein Shader wieder 2 Pipelines, anstatt einer.

In Sachen Transistorcount dürfte sich das schon bemerkbar machen, dass das Herzstück des Shaders jetzt doppelt so groß ist. (natürlich nicht ganz, weil FP/INT pipelines größer sind als dedizierte)
 
blackiwid schrieb:
Pro Euro kannst doch nicht Leistung von ner 500 Euro karte mit ner 650 vergleichen und dich brüsten das paar % schneller bist.
Von FPS/Euro hast du aber nichts geschrieben! Was wird das hier? Whataboutism, wenn du nicht mehr weiterkommst? Kontext war im Post zuvor noch ein völlig anderer.

blackiwid schrieb:
Nunja Fantasie-vermutungs-frames sind eben keine echten Frames, ich kann dir auch schwarze Frames ne million erfinden einfach 1000x nen schwarzes Frame aus geben, das sind auch Frames, also dich juckt doch die Methode wie die Frames erraten werden...
Was ein Schwachsinn. Ignore und gut. Für so ein Mumpitz ist mir meine Lebenszeit zu schade :D

Es amüsiert mich aber wie der AMD Garde hier der Arsch auf Grundeis geht und man krampfhaft versucht den Leuten sämtliche Nvidiatechniken und Hardware schlecht zu reden :D
 
Zuletzt bearbeitet:
ThePlayer schrieb:
Da bin ich mit nicht so sicher. Klar die Argumentation macht Sinn. Aber wozu war dann der Versuch mit dem GPP vor paar Jahren gut?
GPP wurde ja viel zu heiß hochgekocht. Nvidia wollte seine Partner dazu bewegen AMD und Nvidia unter unterschiedlichen Markennamen firmieren zu lassen.
ThePlayer schrieb:
Ich finde Nvidia ist doch jetzt schon Monopolist mit einem Marktanteil von über 75% ist man es. Wenn ich die letzten Zahlen noch richtig im Kopf habe war Nvidia doch bei über 80%.
Sie sind sogar bei 90% aktuell und im Q1 werden es sicherlich kurzfristig noch mehr.
 
Rollkragen schrieb:
Ich denke, AMD hat da tatsächlich Potenzial und wird absolut unterbewertet. Ich erinnere mich noch immer daran, wie Intel AMD vorgeführt hat, und auf einmal hat sich das Blatt deutlich gewendet.
Nvidia ist nicht Intel.

Und Intel ist schon lange nicht mehr das Intel, das sich gegen die großen durchgeboxt hat.
1737202617175.png

Intel hatte bis 2000 einen unglaublichen Erfolgslauf hingelegt, aber das Platzen der Dot-Com Blase hat die Aktie nicht gut überstanden. Nach 2000 hat Intel sich noch im Server-Markt durchgesetzt. Alle Versuche in anderen Märkten als CPU für PCs und Server Fuß zu fassen sind gescheitert. Im Embedded Markt hat Intel es zugelassen, dass sich Arm breit macht.

Die Aufwärtstendenz von 2010 bis 2020 beruht IMO daher dass Intel seine Marktdominanz ausgekostet hat und dass Intel massiv Aktien zurückgekauft hat. Und dieses Auskosten hat AMD den Markteintritt mit Zen erleichtert.

Aber schauen wir Mal was die neue Woche bringt. Bei Intel gibt es momentan viele Gerüchte über eine Übernahme. Deshalb ist gestern auch der Aktienkurs kräftig gestiegen.

Und gerade im Gaming Markt wartet niemand auf einen Konkurrenten von Nvidia. Die Masse der Gamer will Nvidia. Wirklich offen für Konkurrenzangebote sind nur wenige. Und da Nvidia die Kosten im Griff hat und die Top Chips in den Gaming GPUs auch in Profikarten verbauen kann gibt es keinen einfachen Weg.

zeedy schrieb:
Warum macht man die Trennung der Architektuten nach Vega jetzt wieder rückgängig? Damals hatte man doch eingesehen, dass eine für Spieleleistung optimierte Architektur sowohl kosten- als auch energieeffizienter ist.
Weil es eine Fehlentscheidung war. Die wurde übrigens schon eine Weile im HPC und AI thematisiert. Aber dafür interessieren sich die Gaming interessierten Websites und Portale nicht. Und als Laie lese ich zwar die Kommentare, muss aber viel Aufwand reinstecken um zu verstehen was gemeint ist und worauf es rausläut.

Ich fand es sehr gut, dass AMD mit RDNA endlich die Hardwareleistung auf die Straße bekommen hat. AFAIU war die Umstellung von Wave64 auf Wave32 der Schlüssel die Hardware besser auszulasten. Bei Games gab es wohl Probleme die Arbeit auf 64 Threads (AMD: work-item) zu verteilen. Wenn nicht alle 64 Threads Arbeit verrichten, dann wird die Hardware nicht ausgelastet. RDNA braucht nur 32 Threads um die Hardware voll auszulasten.

Es würde mich sehr interessieren ob CDNA mit Wave32 nicht auch besser fahren würde. Wave(front) heißt bei CUDA Warp und eine Warp hat 32 Threads.

Ein wichtiger Punkt ist, dass RDNA Die Fläche spart, weil RDNA keine dezitierte Hardware für Matrixoperationen hat. Bei diesem Punkt ist es seit Ende 2022 absehbar, dass dies AMD auf die Füße fällt. Hier wird es interessant sein genau hinzusehen wie AMD bei RDNA 4 die AI Leistung steigert. Nur neue Datentypen oder neue auch Änderungen an der Hardware.

Prinzipiell war das Trennen so eine Entscheidung, die auf dem ersten Blick logisch und folgerichtig erscheint. Die sich jedoch, sobald man alle Konsequenzen erkannt hat, als falsch herausstellt.

Jack Huynh bei TH:
Wir haben es geforkt, weil man dann die Sub-Optimierungen und die Mikro-Optimierungen bekommt, aber dann ist es sehr schwierig für diese Entwickler, vor allem, weil wir unser Rechenzentrumsgeschäft ausbauen, also müssen wir es jetzt vereinheitlichen.

Die Trennung von RDNA und CDNA bedeutet: AMD hat beschlossen zwei inkompatible GPU-Architekturen zu entwickeln. Das hat es in den ersten Schritten ermöglicht, ein paar domainspezifische Optimierungen zu machen. Doch nachdem diese domainspezifische Optimierungen implementiert sind, geht es nicht weiter. Alle weiteren Performancesteigerungen betreffen beide Architekturen und müssen nun doppelt implementiert werden. Dies betrifft auch den Softwarestack der zwei inkompatible Architekturen abdecken muss.

Deshalb war AMD nicht in der Lage ROCm für RDNA bereitzustellen. Viele Leute im AI und HPC Umfeld beklagen diese Folge der Inkompatibilität. Denn damit ist es nicht möglich Software auf dem PC zu entwickeln und zu testen und dann auf den Servern auszurollen. Bei Nvidia geht das Problemlos.

Dass der Wechsel auf domainspezifischen Architekturen spätestens nach zwei oder drei Generationen keinen weiteren Vorteil bringt und sich dann die Nachteile bemerkbar machen ist ein allgemeines Phänomen. Da sich die Entwicklung der Transistordichte verlangsamt, hieß es, dass nun domainspezifische Archtekturen eine Chance hätten.

Raja Koduri hat erwähnt, dass jedes Jahr die Effizenz des GPU-Softwarestacks, um den Faktor 3 gesteigert wird (bezogen auf dieselbe Hardware). Das ist einer der Gründe warum so gut wie alle Start ups mit toller AI optimierte Hardware gegen die Wand laufen und AFAIU warum Intel Gaudi aufgibt.
 
Also das würde ja bedeuten das dann AMD bei 7 % und Intel dann bei rund 3% Marktanteile wäre. Mit so wenig kann man ja kaum was machen. Aber zum Glück retten Konsolen AMD bei gpu den Arsch(noch)
 
Zurück
Oben