stefan92x schrieb:
Von einem überlassen des Marktes für RDNA3 kann keine Rede sein, AMD wird RDNA3 möglichst schnell loswerden wollen.
Wenn jetzt die Leistung von der 9070 XT wirklich zwischen 7900 XT und 7900 XTX liegt, dann benötigt man beide Grafikkarten in der Form auch nicht mehr.
stefan92x schrieb:
Navi41 sollte ja diesem Konzept folgen (und wäre mit 144 CU, wie einem Eintrag im Linux-Treiber zu entnehmen war, ein echtes Monster geworden). Die Tatsache, dass die großen Chiplet-Designs gecancelt wurden, wird aber sicherlich ihre Gründe gehabt haben.
Was für Navi41/42/43 angedacht war, ist nur schwer nachzuverfolgen. Wäre es ein GCD+MCD gewesen, wären es zwei GCD gewesen ohne MCD.
Am Ende ist das aktuell alles Rätselraten, spannend, am Ende aber auch nur das.
stefan92x schrieb:
RDNA3 war ein gescheiterter Versuch, durch ein Chiplet-Design den nächsten Schritt zu gehen.
Die Probleme von RDNA 3 sind nicht wirklich im GCD + MCD-Aufbau zu suchen, der hatte zwar seine Nachteile, bei RDNA 3 gab es die Probleme aber an ganz andere Stelle.
eastcoast_pete schrieb:
Wenn ich das richtig verstanden habe, benötigt FSR4 die "KI" Kerne (wohl das Gegenstück zu Nvidias Tensor Kernen) damit die Berechnungen gemacht werden können, ohne groß allgemein Rechenleistung zu verbrauchen, die dann woanders fehlt.
Um mal eine Sache hier direkt klarzustellen, bevor es wieder anfängt, dass man zig Begriffe zusammen wirft und doch versucht unterschiede zu finden:
Egal ob man von AI-Core, Matrix-Core, Tensor-Core oder von TPU und Co: In der Regel wird hier immer das gleiche gemeint: Ein Kern, der Matrix-Operationen deutlich schneller und effektiver Ausführen kann. Nvidia nennt es Tensor-Core, bei AMD in CDNA wird es Matrix-Core genannt. Intel nennt es XMX (Xe Matrix eXtension). Alle machen das dasgleiche.
Die AI-Accelator in RDNA 3 wiederum sind keine KI-Kerne, sie bereiten die Daten nur so vor, dass man eine Matrix wesentlich effektiver auf den Vec-ALUs berechnen kann.
eastcoast_pete schrieb:
So sehr ich AMDs Ansatz "das machen wir in Software" bei FSR 1-3.1 gut fand, ist dedizierte Hardware meist sehr viel effizienter und effektiver.
Das ist so nicht richtig und vermischt hier zwei Probleme miteinander, die so aber nichts miteinander zutun haben.
Egal ob DLSS, FSR oder Intels XeSS oder jetzt eben FSR 4: Das alles ist Software. Weder DLSS, XeSS oder FSR werden in Hardware beschleunigt, berechnet oder in irgendweinerweise in Hardware ausgeführt!
Der Unterschied zwischen XeSS, DLSS und FSR 1 - 3.1 besteht darin, dass DLSS und XeSS auf die Hilfe eines Neuronalen-Netzwerkes zurückgreifen, während FSR bis 3.1 einen klassischen algorithmischen Ansatz verfolgt.
FSR 1 ist ein reiner algorithmischer Upscaler, FSR 2 und FSR 3 haben dazu eine temporale Komponente bekommen.
DLSS 1 war anfangs ein überwiegender KI-Upscaler, was damals grottig aussah - und DLSS 2 ist - SEHR STARK VEREINFACH(!!!) - jetzt ein "algorithmischer" Upscaler mit einem neuronalen Netzwerk und der temporalen Komponente.
AMD hat lange Zeit also versucht mit klassischen Methoden die Probleme zu lösen und ist da auch mehr oder weniger gut mit gefahren.
Was bei DLSS und XeSS in Hardware beschleunigt wird, ist das Neuronale Netzwerk, das ist aber nur ein Bestandteil der ganzen Kette. (Und wenn wir hier genau sind, wird nicht mal das neuronale Netzwerk wirklich in Hardware beschleunigt, sondern die Matrizen-Operationen.)
Mimir schrieb:
Für KI Berechnungen müsste man also mehr oder weniger viel Zeit auf den Shader Cores beschlagnahmen, was die performance natürlich drückt.
Kommt an der Stelle darauf an, was du wie genau meinst. Ein neuronales Netzwerk auf den Shadern laufen zu lassen funktioniert, und das sogar relativ gut. Kann man an Stable Diffusion und Co auch auf RDNA 2 und RDNA 3 gut sehen, gerade unter Linux, wenn man ROCm entsprechend anpassen kann.
Du hast aber natürlich recht, spezialisierte Matrix-Kerne können die Matrizen-Operationen deutlich schneller und effizienter ausführen. Bei FSR 4 ist dann die Frage, wie komplex das neuronale Netzwerk ist und ob am Ende dann die Berechnungszeit auf den Shadern die Berechnungszeit übersteigt, die man durch die Auflösungsverringerung erreicht.
Taxxor schrieb:
Nvidia wurde doch ständig dafür kritisiert dass sie ältere GPUs ausgeschlossen haben, ganz besonders beim Thema „FG nur auf 4000er“
Am Ende ist es immer eine Frage, in weiweit gewisse Limitierungen "künstlich" erzeugt wurden. Am Ende kann man da aber nur Mutmaßen, wirklich wissen kann man es nicht.
Sieht man sich jetzt FMF und FG im Vergleich an: FMF arbeitet vergleichbar "gut", benötigt die Optical-Flow-Accelator und Co dabei nicht. Jetzt ist die Frage bei FG aber, in wieweit das alles mit dem Blick auf die Optical-Flow-Accelator auch entwickelt wurde. Nur weil es auch ohne geht, bedeute es am Ende nicht, dass sie nicht notwendig sind für FG.
Etwas, was ich in letzter Zeit bei anderen Entwicklungen bei mir merke, wo auch die Diskussion auf kommt. Manchmal kann man einen komplizierteren Weg gehen, der auch geht und ältere System auch mit nimmt, oder man geht den kürzeren neuen Weg, der Arbeit spart. Und da muss ich selbst so fair sein: Wenn die Entwickler bei Nvidia FG als auch jetzt MFG mit Blick auf die neue Technik von eben Ada oder nun Blackwell entworfen haben, dann ist das ihr gutes Recht. Ich selbst kann da nicht verlangen, dass Sie es auch "umständlich" versuchen.
Das ist zwar für uns als Kunden vielleicht nicht immer optimal.