News FidelityFX Super Resolution: DLSS-Konkurrenz ab 22. Juni für AMD- und Nvidia-GPUs

Taxxor schrieb:
Aber von 1440p auf 720p sind ja deutlich mehr als +41% FPS drin, das passt von der Performance sehr viel eher zu 1080p
Ja, von der Performance passt es nicht. Ich glaube das 1060 Godfall Beispiel muss man wohl ignorieren. Da stimmt etwas nicht.
 
rentex schrieb:
Ach je, gibt noch zuviel NV und Intel Freunde hier😁
Man kann die katastrophale Marketingpolitik (z.B. gekaufte 3090 Berichterstattung bei Linus TT und Marcus Brownley oder die absurden Ampere Slides) und die ANTI Gamer Preismodelle Nvidias verurteilen, aber die Technologie per se wertschätzen, das differenzieren und damit die Innovation und Weiterentwicklung von Features, die unser Spielerlebnis verbessern durch grafische Immersion, dennoch gut finden.

Da ist seit Jahren Nvidia der größte Treiber, egal ob man da 200 Puls bekommt oder nicht. Realitätsverweigerung der genannten Facetten, um anti nvidia postings zu craften, fällt unter kognitive Dissonanz.
Edit: Und hier kann man dann gerne applaudieren, dass AMD nachzieht (siehe dei erfolgreiche RNDA2 Generation auf Augenhöhe mit Ampere!) , um Nvidia nicht das Feld zu überlassen. Denn ohne AMD hätten auch die Nvidia Jünger irgendwann Schmerzen.

Das ist das Gesamtbild.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Innocience, Volvo480, cbmik und eine weitere Person
rentex schrieb:
Ach je, gibt noch zuviel NV und Intel Freunde hier😁
Sagt der, der nvidia das Geld für das margenträchtigste Gaming Produkt in den Rachen geschoben hat..
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Innocience, McTheRipper und 4 andere
@Laphonso
foo_1337 schrieb:
Sagt der, der nvidia das Geld für das margenträchtigste Gaming Produkt in den Rachen geschoben hat..
Und das zum damaligen Zeitpunkt SEHR gerne😘
 
  • Gefällt mir
Reaktionen: Laphonso
rentex schrieb:
Und das zum damaligen Zeitpunkt SEHR gerne😘
Das bedeutet, dass nvidia damals noch fortschrittlich und gut war, nun aber ganz böse ist?
 
  • Gefällt mir
Reaktionen: Innocience, McTheRipper und ThePlayer
rentex schrieb:
Ach je, gibt noch zuviel NV und Intel Freunde hier😁
Hast doch selbst die Nvidia Karte schlechthin, also im Sinne von Kohle Richtung Team Green geworfen?!

Zum Thema FSR, also irgendwie war klar, dass AMD jetzt einen auf Samariter macht, nach dem Motto: "Wir sind soooo nett, weil wir die Konkurrenz unterstützen!" :D Sie müssen sich ja hinter irgendwas verstecken, denn das Produkt ist eher meh. Diese Schlitzohren.... ^^
 
Zuletzt bearbeitet von einem Moderator:
ZeroStrat schrieb:
Hast doch selbst die Nvidia Karte schlechthin, also im Sinne von Kohle Richtung Team Green geworfen?!
foo_1337 schrieb:
Das bedeutet, dass nvidia damals noch fortschrittlich und gut war, nun aber ganz böse ist?

Böse? Geld in Richting Team Green geworfen.
NV und Intel waren schon immer "unkoschere" Firmen...seid ihr so jung, oder leidet ihr unter Demenz?!
Und by the way: Ich kann auch Firmen kritisieren, deren Produkte ich erworben habe. Es ist ja genug Zeit seit Release vergangen😉
Ich lese stellenweise, sehr großen Frust aus euren Kommentaren...keine Karte abbekommen? Schade💁‍♂️
 
  • Gefällt mir
Reaktionen: Khalinor
rentex schrieb:
NV und Intel waren schon immer "unkoschere" Firmen...seid ihr so jung, oder leidet ihr unter Demenz?!
Wut? Liest du auch, was du schreibst? :D Schon immer unkoschere Firmen... Aber selbst schön ne fette RTX 3090 im Gehäuse schurbeln haben!
 
  • Gefällt mir
Reaktionen: Innocience, McTheRipper, ThePlayer und 2 andere
rentex schrieb:
Böse? Geld in Richting Team Green geworfen.
NV und Intel waren schon immer "unkoschere" Firmen...seid ihr so jung, oder leidet ihr unter Demenz?!
Wollen wir Deinen Haushalt mal nach Nestle Produkten untersuchen und hast Du jemals Milka Schokolade gegessen? Was trägst Du für Klamotten?
Alles "koscher"?

Bitte einfach zurückrudern, denn diese "Argumente" führen immer ins scheinheilig Lächerliche, sorry, rentex.
 
  • Gefällt mir
Reaktionen: foo_1337
rentex schrieb:
Ich lese stellenweise, sehr großen Frust aus euren Kommentaren...keine Karte abbekommen? Schade💁‍♂️
Ich glaube so gut wie jeder, der hier mit dir bisher geschrieben hat, besitzt eine 6800XT/6900XT oder 3080/3090 ^^
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, foo_1337 und Laphonso
habla2k schrieb:
Schön wie alle gut finden, dass es open Source ist, nur wo werden die meisten es nutzen? Auf ihren nvidias. :D
Der grösste Vorteil den hier AMD hat ist, dass das ganze auch auf der PlayStation und XBox läuft. Damit lassen sich sicher so einige Spieleentwickler locken FSR einzusetzen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, ChrisMK72, MehlstaubtheCat und 2 andere
Teralios schrieb:
Der "neuronale"-Teil des Algorithmus läuft auf den Tensore-Cores, es gibt aber auch Teile, die normal auf den Shadern ablaufen.

Das ist aber an der Stelle vollkommen irrelevant. Auch wenn NVIDIA ja betont, dass RT-Kerne, Shader, TC usw. alle ja gleichzeitig laufen können: Das tuen sie aber nicht! Ich hab mir jetzt genug Diagramme zur Verteilung der Rechenleistung auf Ampere-Karten und auch die Karten davor angesehen, auch mit DLSS1.0, DLSS2.0 und 2.1 und wann welche Rechenwerke wie aktiv sind im Frame und oh wunder: Sind die RT-Cores am arbeiten, bricht INT+FP - also die Shader - stark ein und werden nicht stark beansprucht und zum Ende hin, wenn DLSS ausgeführt wird, haben weder RT-Cores noch die Shader viel zutun, sondern die Hauptlast liegt auf den TCs.

Und bei DLSS kann man sagen, dass ca. 80 % auf den TCs laufen, 20 % auf den Shadern als INT-Operatonen, weil das Bild ja auch skaliert werden muss.

Also, dass die Radeons "nur" Shader haben, ist da kein Problem, weil die Aufgaben ohnehin nach einander ablaufen.
Selbstverständlich läuft nicht alles auf den Tensor Cores.
Deswegen hab ich ja geschrieben "der Großteil". Und wenn das was du mit deinen 80% sagst grob hinhaut, dann würde ich das doch mal als den Großteil betrachten.

Hast du zufälligerweise einen Link zu den Folien, von denen du da sprichst?
Ich frage mich nämlich gerade wie du darauf kommst, dass das alles immer sequentiell abläuft.
Evtl. redest du von der Renderpipeline? Und ja da gibt es sequentielle Stufen, die jeder Frame durchläuft nur hat sich das über die Zeit immer mehr aufgeweicht.
Heut ehast du eine massiv parallele Abarbeitung der Pipeline.
Anderen falls wäre die komplette Implementierung der Tensor Cores und sämtliche Ressourcen, welche Nvidia in deren Umsetzung gesteckt hat mehr oder minder komplett vergeudet, da du die selbe Berechnungen ebenfalls mit stink normalen MAC-Shadern machen kannst.
Nebenbei ... ich bin in der Grafik-programmierung jetzt nicht so tief drin, aber zumindest bei GPGPU Computing lassen sich die Einheiten parallel ansteuern und dementsprechend kannst du das über Compute Shader auch in der Grafikpipeline umsetzen.

Kann sein dass die Sachen nicht optimal genutzt werden, das will ich nicht in Abrede stellen, aber es ist besser als nix und damit mehr als was AMD momentan zu bieten hat.
Sollte AMD eine bessere Software Implementierung hinbekommen und NVidia es komplett verkackt haben, dann ja mag sein, dass die AMD Implementierung besser sein kann. Aber gerade was Software angeht traue ich AMD nicht besonders viel zu.
 
surtic schrieb:
Der grösste Vorteil den hier AMD hat ist, dass das ganze auch auf der PlayStation und XBox läuft. Damit lassen sich sicher so einige Spieleentwickler locken FSR einzusetzen.
Das muss erstmal von der Qualität her überzeugen, bevor das breit implementiert wird. Ich hoffe, dass AMD das schnell verbessern kann.
 
Zuletzt bearbeitet von einem Moderator:
fox40phil schrieb:
Es gibt eine Umfrage, bei der man seine top 3 der gewünschten Games für FidelityFX Support angeben kann:
https://explore.amd.com/en/technologies/radeon-software-fidelityfx-super-resolution/survey
Habe gevotet:
  • Red Dead Redemption 2
  • Horizon Zero Dawn
  • Elex 2^^

Btw, hatten wir das schon? https://twitter.com/Rajaontheedge/status/1399964541291622407

Intel/Koduri hat Interesse und wird sich AMDs Fidelity Super Resolution anschauen, außerdem versuchen sie sich definitiv entlang des offenen Ansatzes auszurichten, um den Software-Entwicklern die Arbeit zu erleichtern.
 
  • Gefällt mir
Reaktionen: LukS, Onkel Föhn, fox40phil und eine weitere Person
@Laphonso @Taxxor @foo_1337
Seid ihr jetzt die heiligen drei Könige oder Heute, kollektiv mit dem falschen Fuß aufgestanden?
😂 amüsant😉
 
SimsP schrieb:
Anderen falls wäre die komplette Implementierung der Tensor Cores und sämtliche Ressourcen, welche Nvidia in deren Umsetzung gesteckt hat mehr oder minder komplett vergeudet, da du die selbe Berechnungen ebenfalls mit stink normalen MAC-Shadern machen kannst.
Die Tensor Cores sind ja nicht nur sinnvoll wenn sie Berechnungen parallel zu den Shader Cores ausführen. Die Tensor Cores sind bei der DL-Inferenz sicherlich 4-8mal schneller als die CUDA Cores und nehmen dabei nur einen Bruchteil der Leistung auf.
 
Laphonso schrieb:
Dank Nvidias Vorstoß konnten wir ohne Ghosting und Tearing zocken via GSync, Nvidia hat uns Raytracing in die Games gebracht , Nvidia hat uns den besten streaming encoder geliefert, Nvidia hat uns ML + AI benefits in das Gaming gebracht.
Wirklich? Ich dachte immer es wird ein neuer Standard geschaffen. Nvidia prescht dann immr vor, G-Sync=AdaptivSync, RTX=DXR, DLSS=DirectML oder habe ich was verpasst die letzten Jahre? Ach so ja Direct Storage habe ich vergessen. Da hat Nvidia bei der Ampere Präsentation so getan als ob sie es erfunden hätten.
Und AMD hält sich immer an den Standard gibt dem ganzen nur einen Marketing Namen und oft ist das ganze auch noch offen.
 
  • Gefällt mir
Reaktionen: Slayn, Onkel Föhn, .Snoopy. und eine weitere Person
ThePlayer schrieb:
Sämtliche DirectX Spiele mit RTRT waren schon immer DXR. Da gab es nichts proprietäres. Und ja, nvidia hat hier tatsächlich sehr eng mit MS zusammengearbeitet.
Da es seitens Vulkan nix gab und auch nichts am Horizont war, hat nvidia hier was eigenes gebaut. Aber komplett offen, obwohl es gerne als proprietär bezeichnet wird.
ThePlayer schrieb:
DirectML hat damit wenig zu tun. Es ist ein generalistischer Ansatz und ein Use-Case wie DLSS wäre nur einer von vielen.

Du hast CUDA/OpenCL vergessen ;)
 
  • Gefällt mir
Reaktionen: ThePlayer
Freiheraus schrieb:
Intel/Koduri hat Interesse und wird sich AMDs Fidelity Super Resolution anschauen, außerdem versuchen sie sich definitiv entlang des offenen Ansatzes auszurichten, um den Software-Entwicklern die Arbeit zu erleichtern.
Ich bin mir ziemlich sicher, dass FSR eine offene Schnittstelle sein wird mit API. Es muss nicht ausgeschlossen sein, dass zukünftig sonstige Beschleuniger für Berechnungen integriert werden können. Es heißt auch seitens AMD, die Treiber sind offen und muss von jeweiligen Hersteller angepasst werden.
Und auch jene die verzweifelt im jeden Satz Tensor Core einbauen um die "Überlegenheit" von NV gegenüber den Rest der Welt hervorzuheben. Xilinx baut selbst derartige Beschleuniger, sowie Tesla, Facebook, Google und Co.
 
  • Gefällt mir
Reaktionen: ThePlayer, .Snoopy. und Freiheraus
pipip schrieb:
Und auch jene die verzweifelt im jeden Satz Tensor Core einbauen um die "Überlegenheit" von NV gegenüber den Rest der Welt hervorzuheben. Xilinx baut selbst derartige Beschleuniger, sowie Tesla, Facebook, Google und Co.
Es hat niemand behauptet, dass AMD keine ML Cores entwickeln könnte. Nvidia hatte nur die Weitsicht früh darauf zu setzen und hat mit DLSS eine sinnvolle Anwendung dafür gefunden. AMD wird sicher nachziehen.
Es wird ja hier auch nur die aktuelle Situation bewertet. Es hat auch niemand behauptet, dass das langfristig so bleiben wird.
 
Zurück
Oben