Taurus104 schrieb:
Man wird FSR3 wenn es für RX6000 kommt sicherlich auf den Shadern ausführen.
Wenn man genau ist, wird FSR3 selbst auf der RX7000 auf den Shadern ausgeführt. Aber man muss AMD an der Stelle durchaus zugestehen, dass sie Wissen, wie sie ihre Vec-ALUs effektiv mehrfach verwenden und damit auch Transistoren sparren. Der "AI-Kern" bereitet die Daten so auf, dass diese passend in die Vec-ALU kommen und die Matrix auch effektiver berechnet werden. Klar, eigene Tensor-Kerne wären schneller, aber die Leistung ist durchaus beachtlich.
Linmoum schrieb:
Gerade bei Teillastbetrieb sind die Unterschiede gewaltig und ob du 100W+ mehr oder weniger hast, macht sich definitiv deutlich bemerkbar.
Es gibt durchaus Unterschiede zwischen Ada und RDNA 3 im Teillastbereich, nur sind diese in der Regel nicht ganz so gewaltig. Ich habe viele Teillastszenarien auf der RTX 4090 und der RX 7900 XTX getestet und kenne die Schwächen von RDNA3 sowie die Schwächen von Ada sehr gut und weiß bei beiden Karten, was diesen schmeckt und nicht schmeckt.
Die "extreme" im Teillastbetrieb, mit einer doppelt so hohen Effizienz wie die 7900 XT (Für die Gramatik-Schlauberger, die jetzt auchschreien wollen: Nein, hier gehört kein Als hin, sondern das Wie, weil der eigentliche "Vergleich" auf dem gleichen Level ist - mit einer so hohen Effizien wie die 7900 XT, das "doppelt" verändert daran nichts.) kann man provozieren, ist aber nicht unbedingt die Regel.
Und ja, es gibt immer noch Probleme im Dual-Monitor-Setting und Co, nur bessert es sich da auch und in der Regel ist Ada in absoluten Zahlen nich nennenswert effizienter als RDNA3. Im Desktop-Betrieb "vollständiges" Idle komm ich für eine 7900 XTX auf 8 - 11 W, für die RTX 4090 auf 18 W. Beim Arbeiten sind es 36 W zu 25 W. 11 W Unterschied. Bei YouTube-Videos sind es mit 54 W zu 25 W dann mehr, aber auch von den 100 W+ weit entfernt.
Ich hab mir aber über die Jahre angewöhnt,für alles was nicht "Spiele" ist aber andere Hardware zu verwenden, die effizienter ist.
Taxxor schrieb:
Und das hier spricht wohl auch für sich
Es ist interessant bei deinen Beispielen, wie viel ein "schlechter" Denoiser das Bild noch verfälscht. Ich bin das jetzt die Tage auch mal durchgegangen und weiß auch, wie es zu dem von dir in einigen Beiträge vorher genannten Problem kommt, dass der Lichtkegel weitgehend auch um das Auto heller ist.
Interessant, wie da auch Rauschwikrunge und Co mit rein spielen. Der "DLSS"-Denoiser ist für mich an der Stelle wirklich ein "Game-Changer" oder "Killer-Feature", dass einen massiven Mehrwert bietet. FG ist für mich (meine Meinung) eine nette Spielerrei, ich hab es in Cyberpunk 2077 jetzt auch getestet
Taxxor schrieb:
Hier z.B. der Lichtwurf in der entsprechend realistischen Farbe und nicht einfach nur weiß.
Ich werde echt dazu noch mal ein Artikel machen. Bald hab ich Urlaub.
Intruder schrieb:
in wie weit haben mehr FPS oder "schickeres Bild" Nachteile in Multiplayer??
In dem Fall geht es eher darum, dass FG die Vorteile von NVIDIA-Reflex durchaus "aufbraucht". In gewissen Spielen - nicht allen - ist die Reaktionszeit sehr wichtig und in diesen kann FG "von Nachteil" sein. In anderen Spielen kann FG aber helfen die Bewegung zu glätten, das kann das Spielgefühl stark verbessern, wenn man empfindlich auf "unrunde" Animationen reagiert.
Am Ende muss man FG aber testen, ob es einem zusagt. Ich hab gemerkt, dass ich sehr empfindlich auf FG reagiere und kann es daher nicht aktivieren.
Akkulaus schrieb:
Wow. Ansprüche echt niedrig bei dir.
Warum muss man das Empfinden von anderen ständig herunter würdigen, nur weil andere etwas anders wahrnehmen.
Akkulaus schrieb:
Ich will Nativ zocken und keine KI die das alles Hochrechnet etc.
Ich könnte hier jetzt auch schreiben, dass du scheinbar keine Ansprüche hast, weil es genug Spiele gibt, die mit DLSS und bedingt auch FSR deutlich an Bildqualität gewinnen können.
Dass jetzt in letzter Zeit leider Spiele auf den Markt gekommen sind, die DLSS/FSR als "so kommen wir auf 60 fps kommen" genutzt haben, ist bedauerlich, gleichzeitig stehen langsam nun auch 8k-Monitore in den Startlöchern. Diese Pixelmengen sind selbst bei Rasterization kaum mehr von Grafikkarten zu stemmen. Mit weiteren Verbesserungen ist es quasi unmöglich.
In FHD, WQHD kann man darauf "verzichten" muss es aber nicht und in 4K ist es hilfreich. Es hat natürlich immer, teils immer noch "Probleme", aber das wird immer besser.
Akkulaus schrieb:
Raytracing braucht echt fast niemand. Ist einfach nur Spielerrei aktuell.
RT konnte man 2018 und 2019 als Spielerei bezeichnen. Viele - auch hier im Forum - haben seit dem immer angenommen, dass es ja eigentlich nur für ein paar "Effekte" reicht und volle PathTracer ja noch "Jahre" entfernt sind und diese Behauptung gab es sogar noch bis vor kurzem, da es bis vor einigen Monaten quasi nur Quake 2 RTX und Minecraft RTX gab - sehr "simple" Engines - und das ja nur da funktioniert und man für ein modernes Spiel ja noch 2 - 3 Generationen warten muss, bis das in FHD "darstellbar" wäre. (Etwas überspitzt von mir.)
Und was passierte jetzt? CD Projekt Red hat eines der aktuell grafisch besten Spiele einem Path Tracer spendiert, der zeigt, dass selbst mit "modernen" Engines PathTracer möglich sind und es dazu nicht mehr "Highend" benötigt, sondern Highend der letzten Generation reicht.
Dazu kommt, dass viele "Effekte", die nun mit RT "möglich" sind, selbst bei normalen Rasterizer massiv an Leistung kosten würden - Echtzeitspiegelungen - weil diese erst in eine Textur gerendert werden müssten und daher den Mehrbedarf an Rechenleistung stark anteigen lässt.
Ja, RT ist noch nicht angekommen und es wird noch dauern, aber aus dem Status Spielerei ist es raus. Die Entwickler lernen immer besser mit RT umzugehen und da AMD auch mit der Hardware nun auf dem Markt ist, merkt man das auch. Klar, AMD ist bei RT "schwächer", das ist für uns als ganzes aber gut, weil die Entwickler "optimieren" müssen und das auch machen. Wenn ich nun sehe, wie neuere RT-Spiele damit umgehen und wie "effizient" die Effekte teilweise umgesetzt werden, weil man eben auch eine schwächere Implementation beachten muss, können wir in der nächsten Konsolengeneration dann durchaus auch bereits mit vollen PathTracern rechnen.