News KI-Upsampling: AMD will FSR 4 auch auf Radeon RX 7000 zum Laufen bringen

Um da technisch mal etwas Licht rein zu bringen:

Die meisten "KI" Modelle nutzen eine Matrix-Matrix Multiplikation mit reduzierter Genauigkeit in der Ausführung. Das kann wenn man floating points hat dann fp16 oder auch fp8 sein oder bei Integern halt sowas wie 4 und 8 bit Integer. Da kann man dann jeweils 2 / 4 / 8 Werte in einen standard Integer packen.

Was Nvidia mit den Tensors los getreten hat war, dass man die Matrizen schön über die ganze Wave (32 Threads) verteilt hat in einer bestimmten Form. Dann haben die Tensor Cores die Berechnung durchgeführt und am Ende hatte man die Ergebnismatrix wieder auf die Register verteilt. Was entfallen ist war ein aufwendiges zuführen der Daten in jeden Thread, man hatte einen kleineren Register-Count und - ganz wichtig: man konnte parallel auf den Normalen Cuda-Cores noch andere Rechnungen ausführen. Ein Tensor-Call auf Ampere stalled die Tensor Einheit für 8 oder 16 Zyklen - in der Zeit kann die normale Alu aber weiter Arbeit machen.

Bei AMD musste man sich nun etwas ran tasten. RDNA2 hat mit den v_dot - Befehlen auch schon Befehle eingebaut, die dazu geeignet sind so etwas wie eine Matrix-Matrix Multiplikation mit geringerer Genauigkeit recht schnell durchzuführen. Nur, dass hier jeder Thread die Daten, die er bearbeiten soll komplett zugeführt bekommen muss. Vergleicht man das mit den Turing und Ampere Tensoren, ist das nicht wirklich langsamer - die RDNA2s können sehr fix sein, aaaaber: es läuft halt auf den normalen Einheiten, erlaubt also nicht noch wirklich andere Berechnungen nebenbei.

RDNA3 baute nun darauf auf und hat aber Matrix Befehle eingeführt, die zwar etwas ekeliger zu programmieren sind (Ich mag das Register-Placement nicht so), aber grundsätzlich vom Look & Feel dem was Nvidia macht recht nahe kamen. Einziger Unterschied: es wird nach wie vor die normale Alu benutzt im Hintergrund, aber das Daten-Sharing ist nun ähnlich wie im grünen Team und viel schneller als RDNA2 ist es auch nicht - wenn man die Daten bei RDNA2 in den richtigen Registern vorher hatte.

Wie RDNA4 das nun löst ... gute Frage. Bekannt aus dem was bisher veröffentlicht ist, weiß man nur, dass es potenter sein soll und das es neue Matrix-Formate gibt. Möglich, dass man den Durchsatz angehoben hat oder die Taktzyklen reduziert hat, die eine Berechnung dauert. Ob man nun aber separate Chipfläche dafür abgestellt hat und nun erlaubt parallel noch was zu rechnen? Ich weiß es nicht, aber die Tatsache, dass man bei RDNA4 die Leistung für FSR4 wohl über hat, aber bei RDNA3 sich noch nicht sicher ist, ob das klappt - das ist schon ein Hinweis, dass in dem Bereich mehr gemacht wurde. Denn die reine Leistung der Compute Units is bei der 9070XT nun nicht wirklich gröber als bei 7800XT und 6800XT. Das lässt vermuten, dass hier mehr passiert ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aristotle, cbmik, sonic_blade und 31 andere
Taxxor schrieb:
1,5-1,7X in den 3 Games ohne RT und 1,5-1,6x in den 3 Games mit RT
https://technical.city/en/video/Radeon-RX-6950-XT-vs-Radeon-RX-7900-XTX

Hier kannst unter Gaming Performance schauen bei Performance in Popular games und 4k Ultra Preset da seh ich bei Cyberpunk 54% Vorsprung und bei Watch Dogs 58% und Cyberpunk 55%.

Das Call of Duty ist nicht vergleichbar da auf der Folie ne 2 dahinter ist also wohl der Nachfolger. Im schnitt sind das 1.5 + 1,5 + 1,7 = 4,7 / 3 = knapp unter 1,6 das kommt ziemlich genau hin 2 Spiele sind leicht besser wie auf der Folie eins leicht schlechter last sich alles durch anderen Patchstand oder andere CPU oder irgendwas erklären.

Also die Spiele wurden Cherry gepickt, sicher, das ist üblich das ist aber keine Lüge und "up to" ist auch an sich klar, ist es vielleicht leicht manipulativ sicher, das ist Marketing immer, aber ne dreiste Lüge denk nicht, man erfindet nicht 80% und macht nirgend ne Einschränkung hin? "we shrunk the 4090 to fit in this small laptop".

Er vergleicht sogar ne Laptop 5070 und behauptet die wäre auch so schnell wie die Desktop 5090, will er uns sagen das die Laptop 5070 und desktop 5070 identisch ist? Vermutlich nicht oder? Also nicht mal mit seinen Fakeframes kann diese Desktop 5060 ti dann die Desktop 4090 erreichen.

Er ist full of shit... tut mir leid.
 
  • Gefällt mir
Reaktionen: martin_m und Snoop7676
blackiwid schrieb:
man erfindet nicht 80% und macht nirgend ne Einschränkung hin?
blackiwid schrieb:
Das ist alles was auf der Folie ist
Die Einschränkungen siehst du auf den von mir geposteten Benchmark Folien.
Muss man halt schon ignorieren wollen und sich nur eine einzige Folie anschauen, statt die Folien mit belastbaren Zahlen.

Und wenn MFG so gut funktioniert, wie im DF Video zu sehen ist, dann ist die 5070 in den Spielen, die es bieten (75+) eben auch so schnell wie ne 4090.
Auch nichts anderes als Cherrypicking.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Taxxor schrieb:
Auch nichts anderes als Cherrypicking.
Er legt im Video ne Desktop 4090 auf nen Laptop mit ner 5070 Mobile drin... und behauptet die wär auch so schnell.

Also er will uns klar machen das die 115 Watt GPU gleich schnell ist wie das 250 Watt Desktop Modell mit so wie es aussieht nur 2/3 Cuda Cores... Also entweder ist irgendwas mit der Desktop dann kaputt wenn die nur so schnell ist wie die Mobile oder die Mobile ist nicht so schnell wie die Desktop 4090.

Er ist ein Vollpfosten auch die Aussage "ohh kommen wir alle zu unserem 10.000 Dollar PC heim" da ist die 5090 dann ja so billig im Vergleich dazu... der Typ muss wohl zu viel Crack rauchen...

Achja und wenn die Specs stimmen hat die Mobile nur 8gb die Desktop 12gb, das hindert sie wohl auch nicht dran die 4090 in Speed zu erreichen :D
 
  • Gefällt mir
Reaktionen: martin_m
blackiwid schrieb:
Er legt im Video ne Desktop 4090 auf nen Laptop mit ner 5070 Mobile drin... und behauptet die wär auch so schnell.
Was sie mit MFG ja vmtl auch ca wäre.

Von den Specs her dürfte ne 5070 Mobile etwas schneller als ne Desktop 4060Ti sein.
Die 4090 ist ~2,2x so schnell in 1080p, wo man bei nem Laptop sich wohl eher befindet.

Doppelte FPS mit MFG vs FG bedeuten 200% vs 220%, also ~90% der 4090 Desktop Performance.
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Quidproquo77
Hatsune_Miku schrieb:
Ich brauch es zwar nicht, aber es wäre traurig wenn RDNA3 nicht davon profitieren würde. Klar läuft es wohl mit RDNA4 besser, jedoch werden wohl kaum 7900XT/X besitzer auf die RDNA4 karten wlchseln. Das wäre ein Side/Downgrade.

Abwarten 😉
Wieso downgrade? Nicht unbedingt. Könnte auch xtx/4080 Leistung werden. Dazu fsr 4 und hoffentlich rt/pt Leistung der 4070ti mind.
 
  • Gefällt mir
Reaktionen: Holgmann75
Taxxor schrieb:
Doppelte FPS mit MFG vs FG bedeuten 200% vs 220%, also ~90% der 4090 Desktop Performance.
Wenn viele UE5 Spiele 8gb bei 1080p oft zu wenig Speicher ist, dann wird bei Bild das von 1080p auf 4k hoch gerechnet wird immer noch zu wenig speicher haben. Bei 12gb wird das Problem aber nicht auftreten (oder mal weniger)
Also selbst wenn diese UE5 Spiele dieses MFG unterstützen werden die Games nicht so schnell wie ne 4090 sein weil ihnen auch mit FSR der VRAM aus geht... willst mir etwa sagen das in Wirklichkeit Jensen nicht übertrieben hat mit seiner Aussage das die 5070 so schnell wie ne 4090 ist sondern untertrieben in Wirklichkeit ist sie sogar deutlich schneller?

Mit der Einordnung dieser Aussage stehst dann aber wohl sehr sehr alleine da... Gosh, darfst weiter Nvidia kaufen auch wenn er extrem manipuliert hat im Marketing und so stark überzeichnet hat wie bei irgendwelche Verkaufssendungen im TV auf dem Shopping Kanal, aber gut reden braucht man das doch nicht mehr...
 
blackiwid schrieb:
Das ist ungefähr so wie wenn man sagt du bist so alt wie jemand anders wenn man dein Alter in Hundejahren zählt.

Nö, wichtig ist was als FPS rauskommt, nicht wie gerechnet wird.

Sonst könnte man ja auch behaupten, dass die 4070er nur deshalb 30% langsamer als ne 4080er ist, weil Texturen komprimiert und nicht die Rohdaten verwendet werden. Ohne Komprimierung wäre die 80er viel viel schneller als die 70er. Interessiert aber nicht, da in der Praxis nunmal Komprimierung verwendet wird. Und das ist ja auch nur ne softwareseitige Optimierung, die keine "echten" Pixel zeigt, sondern nur komprimierte "Fakepixel".
 
Turrican101 schrieb:
Nö, wichtig ist was als FPS rauskommt, nicht wie gerechnet wird.
Und wenn das selbe Bild 2x ausgegeben wird, hast du auch doppelte FPS. Hilft das? Dafür braucht man nichteinmal rechnen ;)
 
  • Gefällt mir
Reaktionen: bad_sign und martin_m
blackiwid schrieb:
Wenn viele UE5 Spiele 8gb bei 1080p oft zu wenig Speicher ist, dann wird bei Bild das von 1080p auf 4k hoch gerechnet wird immer noch zu wenig speicher haben.
Bei nem 15" Laptop gehe ich weniger davon aus, das auf 4K hochgerechnet wird, sondern dass wir uns bei 1080p befinden + DLSS Quality + MFG.
Klar wird sie für 4K zu wenig Speicher haben, aber es wurde ja auch nicht gesagt in welcher Auflösung sie so schnell wie die 4090 sein soll.

Zur Medienkompetenz gehört halt auch, alles zu betrachen was man an Infos bekommt und dann kann man auch die Performance einer 5070, mit und ohne MFG, sehr gut abschätzhen.
 
Turrican101 schrieb:
Nö, wichtig ist was als FPS rauskommt, nicht wie gerechnet wird.
Na, dann, Lossless Scaling kann dir deine FPS easy mal verdreifachen! Da hat die 5070 keine Chance mehr die 4090 zu schlagen.
Besser wären 7€ noch nie angelegt gewesen! ;-)
 
  • Gefällt mir
Reaktionen: eXe777, Czk666, martin_m und eine weitere Person
Taxxor schrieb:
Klar wird sie für 4K zu wenig Speicher haben, aber es wurde ja auch nicht gesagt in welcher Auflösung sie so schnell wie die 4090 sein soll.
Sie soll gleich schnell sein, aber in kleineren Auflösungen sind auch Upscaler schlechter, in 4k kann (wohl bei sehr sehr ausgewählten Single player games) die Grafik besser sein, aber wenn man 720p oder noch niedriger als Ausgangsprodukt her nehmen muss, verreckt dir irgendwann auch DLSS.

Wenn Bildinformationen in diesen lowres infos einfach basal gar nicht dargestellt mehr werden kann man sie auch nicht schärfer zeichnen sie verschwienden dann.

Dazu kommt das Laptops auch HDMI anschlüsse und daran kann man auch wieder 4k Monitore Anschließen zumal die ja auch mitlerweile bei Lowend CPUs also z.B. den arschlahmen IGP beinhaltetenden Qualcom Geräten häufig verbaut sind.

Aber du kannst dir das gern zurecht reden, Werbung ist nur ein neueres Wort für Propaganda, so hat das früher geheißen Propaganda impliziert auch eine Gewisse Menge an Täuschung, sicher es ist hart objektiv die Grenze zwischen geziehlte Manipulation und dreiste Lüge zu ziehen, ich habe dargestellt warum ich hier die Grenze ziehe, du bist da sehr schmerzfrei, gibt auch Leute die schauen sich gerne Stundenlang diese Verkaufssendungen an und sind mit deren Produkte happy.

Ich glaub ich hab nen guten Case gemacht warum ich denke das es ins absolut unseriöse gekippt ist, natürlich ist die Hardware trotzdem ganz gut, das widerspricht sich ja nicht nur halt deutlich schlechter wie aus meiner Sicht suggeriert.

Und aus meiner subjektiven Sicht ist es ein Intelligenztest ob man glaubt das die 5070 oder 5070 Mobile so schnell ist wie die 4090 oder nicht... Weiter streiten seh ich kein Sinn mehr, was müsste ich aufzeigen du selbst sagst das selbst mit Fake Frames in Best Case mit allen Tricks die 5070 Mobile nur 90% erreicht die Behauptung war aber gleich schnell 100% nicht fast gleich schnell.

Alleine das ist eine harte Lüge vielleicht eine kleine Lüge aber ohne wenn und aber eine Lüge.

Du kannst das jetzt noch weiter schön reden, aber bitte halt mich raus sonst fühl ich mich gezwungen dich auf die Liste zu packen, da ich kein bock auf etwas das sich für mich wieder subjektiv wie Gaslighting anfühlt habe. Du hast natürlich das Recht das nicht als Lüge zu sehen/empfinden, hätte ich 2000 Euro in ne Nvidia Karte investiert würd ih das vielleicht auch anders sehen.

Wäre ja auch nicht die erste Firma die im Marketing mit Lügen arbeitet... ist nicht der Weltuntergang... aber wenn man AMD ans Kreuz Nagelt wenn ihre Arbeits-CPUs nicht alle Gaminganforderungen zu 100% erfüllen dann applaudiere ich nicht wenn Nvidia die Leute anlügt nur weil ihre Lügen leichter zu durchschauen sind und die Leute sich drauf weniger verlassen oder die Lügen weniger glauben.

Btw die meisten Notebooks mit 4070 haben WQXGA (106) wenn wir die 16:9 und 16:10 varianten gruppieren haben wir sogar 2560x ... mit 147 vs 1920x ... mit 80 dies wird sich weiter nach oben verschieben mit der nächsten Generation besonders mit ner Karte die so schnell wie ne 4090 jetzt ist offenbar :D
 
Zuletzt bearbeitet:
Ich verstehe echt eine Sache nicht, amd wird stark kritisiert , das erst nicht fsr4 nur für 9000 kommt und bei NVIDIA hört man kaum was, außer das eine rtx 5070 so schnell ist wie die 4090… was ein Witz ist, weil die roh Leistung ein Witz ist… gegenüber das was man da zu Verkaufen scheint
 
@Taxxor Du scheinst sehr überzeugt von der 5070 zu sein.
Warum verkaufst du dann die 4090 nicht und kaufst zumindest eine 4070ti mit 16GB Vram, die sollte ja die 4090 in Grund und Boden stampfen? :-)
 
@Caramelito Recht simpel, ich habe einfach keinen Nutzen für MFG, weil ich keine 100+ FPS brauche und unter 160 als Ziel-FPS macht MFG wenig Sinn, wenn man dann mit ner Basis Framerate von unter 40 arbeitet.
Daher würde ich MFG eh nie mit mehr als Faktor 2 nutzen, was dann genau das FG ist, was ich bereits habe.
Und somit wäre in meinem Fall nur die 5090 ein Upgrade und das ist ein zu kleines Upgrade
 
Zuletzt bearbeitet:
Blackfirehawk schrieb:
@Taxxor interessant fand ich auch das neue Transformer model von DLSS upscaling in dem Video.. was teils nochmal ordentlich die Bildqualität von DLSS boostet..
FSR4 muss erstmal an das normale DLSS3 upscaling ran kommen... DLSS4 upscaling ist next Level.

Und das ganze soll sogar per Treiber überschreibbar sein
Welches model verwendet AMD für FSR4?
 
Easy1991 schrieb:
Ich verstehe echt eine Sache nicht, amd wird stark kritisiert , das erst nicht fsr4 nur für 9000 kommt und bei NVIDIA hört man kaum was
Warst du zur Vorstellung von DLSS3 und FG nicht anwesend?

pipip schrieb:
Welches model verwendet AMD dür FSR4?
Woher soll man das wissen? AMD hat ja noch so gut wie gar nichts dazu gesagt
 
@Taxxor
habe ich dich gefragt?

Wieso frage ich das so provokant, weil AMD ebenso bereits neuere Modelle für FSR4 verwenden könnte…
 
pipip schrieb:
habe ich dich gefragt?
Hab das @Taxxor im Zitat als Zitatkopf gelesen, aber schnell gemerkt und daher auch auf "Wohler soll man das wissen" geändert^^
 
Taxxor schrieb:
@Caramelito Recht simpel, ich habe einfach keinen Nutzen für MFG, weil ich keine 100+ FPS brauche und unter 160 als Ziel-FPS macht MFG wenig Sinn, wenn man dann mit ner Basis Framerate von unter 40 arbeitet.
Daher würde ich MFG eh nie mit mehr als Faktor 2 nutzen, was dann genau das FG ist, was ich bereits habe.
Und somit wäre in meinem Fall nur die 5090
Warum dann nicht einfach auch sagen, dass die Aussage von Nvidia BS ist?
Klar auf die Werte einer 4090 wird man mit Biegen und Brechen kommen. Aber schön spielbar ist das Ganze dann nicht.

Ich hatte auf meiner 4090 und später 4080 in jedem Game FG ausprobiert und immer ausgeschaltet. Einfach nicht angenehm/weich zu spielen.

Und auf meinem 4070 Laptop war das komplett ungenießbar.

Was mache ich mit FG wenn ich am besten 60+ und bei MFG+ (Feeling muss sich dann erstmal beweisen) 40+ erreichen soll, damit es sich lohnt? 60 nativ sind besser als 120 FG Punkt. Und 40 nativ vs MFG muss sich zeigen.. Für mich zumindest war FG ungenießbar, obwohl es oft gelobt wurde.

MFG wird bestimmt ähnlich. Vor allem mit <5070ti usw..
 
  • Gefällt mir
Reaktionen: Wanderwisser
Zurück
Oben