Ja, von der Performance passt es nicht. Ich glaube das 1060 Godfall Beispiel muss man wohl ignorieren. Da stimmt etwas nicht.Taxxor schrieb:Aber von 1440p auf 720p sind ja deutlich mehr als +41% FPS drin, das passt von der Performance sehr viel eher zu 1080p
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News FidelityFX Super Resolution: DLSS-Konkurrenz ab 22. Juni für AMD- und Nvidia-GPUs
Laphonso
Vice Admiral
- Registriert
- Jan. 2012
- Beiträge
- 6.492
Man kann die katastrophale Marketingpolitik (z.B. gekaufte 3090 Berichterstattung bei Linus TT und Marcus Brownley oder die absurden Ampere Slides) und die ANTI Gamer Preismodelle Nvidias verurteilen, aber die Technologie per se wertschätzen, das differenzieren und damit die Innovation und Weiterentwicklung von Features, die unser Spielerlebnis verbessern durch grafische Immersion, dennoch gut finden.rentex schrieb:Ach je, gibt noch zuviel NV und Intel Freunde hier😁
Da ist seit Jahren Nvidia der größte Treiber, egal ob man da 200 Puls bekommt oder nicht. Realitätsverweigerung der genannten Facetten, um anti nvidia postings zu craften, fällt unter kognitive Dissonanz.
Edit: Und hier kann man dann gerne applaudieren, dass AMD nachzieht (siehe dei erfolgreiche RNDA2 Generation auf Augenhöhe mit Ampere!) , um Nvidia nicht das Feld zu überlassen. Denn ohne AMD hätten auch die Nvidia Jünger irgendwann Schmerzen.
Das ist das Gesamtbild.
Zuletzt bearbeitet:
F
foo_1337
Gast
Sagt der, der nvidia das Geld für das margenträchtigste Gaming Produkt in den Rachen geschoben hat..rentex schrieb:Ach je, gibt noch zuviel NV und Intel Freunde hier😁
F
foo_1337
Gast
Das bedeutet, dass nvidia damals noch fortschrittlich und gut war, nun aber ganz böse ist?rentex schrieb:Und das zum damaligen Zeitpunkt SEHR gerne😘
Z
ZeroStrat
Gast
Hast doch selbst die Nvidia Karte schlechthin, also im Sinne von Kohle Richtung Team Green geworfen?!rentex schrieb:Ach je, gibt noch zuviel NV und Intel Freunde hier😁
Zum Thema FSR, also irgendwie war klar, dass AMD jetzt einen auf Samariter macht, nach dem Motto: "Wir sind soooo nett, weil wir die Konkurrenz unterstützen!" Sie müssen sich ja hinter irgendwas verstecken, denn das Produkt ist eher meh. Diese Schlitzohren.... ^^
Zuletzt bearbeitet von einem Moderator:
rentex
Commander
- Registriert
- Juli 2004
- Beiträge
- 3.000
ZeroStrat schrieb:Hast doch selbst die Nvidia Karte schlechthin, also im Sinne von Kohle Richtung Team Green geworfen?!
foo_1337 schrieb:Das bedeutet, dass nvidia damals noch fortschrittlich und gut war, nun aber ganz böse ist?
Böse? Geld in Richting Team Green geworfen.
NV und Intel waren schon immer "unkoschere" Firmen...seid ihr so jung, oder leidet ihr unter Demenz?!
Und by the way: Ich kann auch Firmen kritisieren, deren Produkte ich erworben habe. Es ist ja genug Zeit seit Release vergangen😉
Ich lese stellenweise, sehr großen Frust aus euren Kommentaren...keine Karte abbekommen? Schade💁♂️
Z
ZeroStrat
Gast
Wut? Liest du auch, was du schreibst? Schon immer unkoschere Firmen... Aber selbst schön ne fette RTX 3090 im Gehäuse schurbeln haben!rentex schrieb:NV und Intel waren schon immer "unkoschere" Firmen...seid ihr so jung, oder leidet ihr unter Demenz?!
Laphonso
Vice Admiral
- Registriert
- Jan. 2012
- Beiträge
- 6.492
Wollen wir Deinen Haushalt mal nach Nestle Produkten untersuchen und hast Du jemals Milka Schokolade gegessen? Was trägst Du für Klamotten?rentex schrieb:Böse? Geld in Richting Team Green geworfen.
NV und Intel waren schon immer "unkoschere" Firmen...seid ihr so jung, oder leidet ihr unter Demenz?!
Alles "koscher"?
Bitte einfach zurückrudern, denn diese "Argumente" führen immer ins scheinheilig Lächerliche, sorry, rentex.
Taxxor
Fleet Admiral
- Registriert
- Mai 2011
- Beiträge
- 20.664
Ich glaube so gut wie jeder, der hier mit dir bisher geschrieben hat, besitzt eine 6800XT/6900XT oder 3080/3090 ^^rentex schrieb:Ich lese stellenweise, sehr großen Frust aus euren Kommentaren...keine Karte abbekommen? Schade💁♂️
surtic
Commander
- Registriert
- Dez. 2007
- Beiträge
- 2.276
Der grösste Vorteil den hier AMD hat ist, dass das ganze auch auf der PlayStation und XBox läuft. Damit lassen sich sicher so einige Spieleentwickler locken FSR einzusetzen.habla2k schrieb:Schön wie alle gut finden, dass es open Source ist, nur wo werden die meisten es nutzen? Auf ihren nvidias.
Selbstverständlich läuft nicht alles auf den Tensor Cores.Teralios schrieb:Der "neuronale"-Teil des Algorithmus läuft auf den Tensore-Cores, es gibt aber auch Teile, die normal auf den Shadern ablaufen.
Das ist aber an der Stelle vollkommen irrelevant. Auch wenn NVIDIA ja betont, dass RT-Kerne, Shader, TC usw. alle ja gleichzeitig laufen können: Das tuen sie aber nicht! Ich hab mir jetzt genug Diagramme zur Verteilung der Rechenleistung auf Ampere-Karten und auch die Karten davor angesehen, auch mit DLSS1.0, DLSS2.0 und 2.1 und wann welche Rechenwerke wie aktiv sind im Frame und oh wunder: Sind die RT-Cores am arbeiten, bricht INT+FP - also die Shader - stark ein und werden nicht stark beansprucht und zum Ende hin, wenn DLSS ausgeführt wird, haben weder RT-Cores noch die Shader viel zutun, sondern die Hauptlast liegt auf den TCs.
Und bei DLSS kann man sagen, dass ca. 80 % auf den TCs laufen, 20 % auf den Shadern als INT-Operatonen, weil das Bild ja auch skaliert werden muss.
Also, dass die Radeons "nur" Shader haben, ist da kein Problem, weil die Aufgaben ohnehin nach einander ablaufen.
Deswegen hab ich ja geschrieben "der Großteil". Und wenn das was du mit deinen 80% sagst grob hinhaut, dann würde ich das doch mal als den Großteil betrachten.
Hast du zufälligerweise einen Link zu den Folien, von denen du da sprichst?
Ich frage mich nämlich gerade wie du darauf kommst, dass das alles immer sequentiell abläuft.
Evtl. redest du von der Renderpipeline? Und ja da gibt es sequentielle Stufen, die jeder Frame durchläuft nur hat sich das über die Zeit immer mehr aufgeweicht.
Heut ehast du eine massiv parallele Abarbeitung der Pipeline.
Anderen falls wäre die komplette Implementierung der Tensor Cores und sämtliche Ressourcen, welche Nvidia in deren Umsetzung gesteckt hat mehr oder minder komplett vergeudet, da du die selbe Berechnungen ebenfalls mit stink normalen MAC-Shadern machen kannst.
Nebenbei ... ich bin in der Grafik-programmierung jetzt nicht so tief drin, aber zumindest bei GPGPU Computing lassen sich die Einheiten parallel ansteuern und dementsprechend kannst du das über Compute Shader auch in der Grafikpipeline umsetzen.
Kann sein dass die Sachen nicht optimal genutzt werden, das will ich nicht in Abrede stellen, aber es ist besser als nix und damit mehr als was AMD momentan zu bieten hat.
Sollte AMD eine bessere Software Implementierung hinbekommen und NVidia es komplett verkackt haben, dann ja mag sein, dass die AMD Implementierung besser sein kann. Aber gerade was Software angeht traue ich AMD nicht besonders viel zu.
Z
ZeroStrat
Gast
Das muss erstmal von der Qualität her überzeugen, bevor das breit implementiert wird. Ich hoffe, dass AMD das schnell verbessern kann.surtic schrieb:Der grösste Vorteil den hier AMD hat ist, dass das ganze auch auf der PlayStation und XBox läuft. Damit lassen sich sicher so einige Spieleentwickler locken FSR einzusetzen.
Zuletzt bearbeitet von einem Moderator:
Freiheraus
Lt. Commander
- Registriert
- Nov. 2017
- Beiträge
- 1.241
Habe gevotet:fox40phil schrieb:Es gibt eine Umfrage, bei der man seine top 3 der gewünschten Games für FidelityFX Support angeben kann:
https://explore.amd.com/en/technologies/radeon-software-fidelityfx-super-resolution/survey
- Red Dead Redemption 2
- Horizon Zero Dawn
- Elex 2^^
Btw, hatten wir das schon? https://twitter.com/Rajaontheedge/status/1399964541291622407
Intel/Koduri hat Interesse und wird sich AMDs Fidelity Super Resolution anschauen, außerdem versuchen sie sich definitiv entlang des offenen Ansatzes auszurichten, um den Software-Entwicklern die Arbeit zu erleichtern.
Die Tensor Cores sind ja nicht nur sinnvoll wenn sie Berechnungen parallel zu den Shader Cores ausführen. Die Tensor Cores sind bei der DL-Inferenz sicherlich 4-8mal schneller als die CUDA Cores und nehmen dabei nur einen Bruchteil der Leistung auf.SimsP schrieb:Anderen falls wäre die komplette Implementierung der Tensor Cores und sämtliche Ressourcen, welche Nvidia in deren Umsetzung gesteckt hat mehr oder minder komplett vergeudet, da du die selbe Berechnungen ebenfalls mit stink normalen MAC-Shadern machen kannst.
ThePlayer
Captain
- Registriert
- Aug. 2011
- Beiträge
- 3.189
Wirklich? Ich dachte immer es wird ein neuer Standard geschaffen. Nvidia prescht dann immr vor, G-Sync=AdaptivSync, RTX=DXR, DLSS=DirectML oder habe ich was verpasst die letzten Jahre? Ach so ja Direct Storage habe ich vergessen. Da hat Nvidia bei der Ampere Präsentation so getan als ob sie es erfunden hätten.Laphonso schrieb:Dank Nvidias Vorstoß konnten wir ohne Ghosting und Tearing zocken via GSync, Nvidia hat uns Raytracing in die Games gebracht , Nvidia hat uns den besten streaming encoder geliefert, Nvidia hat uns ML + AI benefits in das Gaming gebracht.
Und AMD hält sich immer an den Standard gibt dem ganzen nur einen Marketing Namen und oft ist das ganze auch noch offen.
F
foo_1337
Gast
Sämtliche DirectX Spiele mit RTRT waren schon immer DXR. Da gab es nichts proprietäres. Und ja, nvidia hat hier tatsächlich sehr eng mit MS zusammengearbeitet.ThePlayer schrieb:RTX=DXR
Da es seitens Vulkan nix gab und auch nichts am Horizont war, hat nvidia hier was eigenes gebaut. Aber komplett offen, obwohl es gerne als proprietär bezeichnet wird.
DirectML hat damit wenig zu tun. Es ist ein generalistischer Ansatz und ein Use-Case wie DLSS wäre nur einer von vielen.ThePlayer schrieb:DLSS=DirectML
Du hast CUDA/OpenCL vergessen
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.411
Ich bin mir ziemlich sicher, dass FSR eine offene Schnittstelle sein wird mit API. Es muss nicht ausgeschlossen sein, dass zukünftig sonstige Beschleuniger für Berechnungen integriert werden können. Es heißt auch seitens AMD, die Treiber sind offen und muss von jeweiligen Hersteller angepasst werden.Freiheraus schrieb:Intel/Koduri hat Interesse und wird sich AMDs Fidelity Super Resolution anschauen, außerdem versuchen sie sich definitiv entlang des offenen Ansatzes auszurichten, um den Software-Entwicklern die Arbeit zu erleichtern.
Und auch jene die verzweifelt im jeden Satz Tensor Core einbauen um die "Überlegenheit" von NV gegenüber den Rest der Welt hervorzuheben. Xilinx baut selbst derartige Beschleuniger, sowie Tesla, Facebook, Google und Co.
Es hat niemand behauptet, dass AMD keine ML Cores entwickeln könnte. Nvidia hatte nur die Weitsicht früh darauf zu setzen und hat mit DLSS eine sinnvolle Anwendung dafür gefunden. AMD wird sicher nachziehen.pipip schrieb:Und auch jene die verzweifelt im jeden Satz Tensor Core einbauen um die "Überlegenheit" von NV gegenüber den Rest der Welt hervorzuheben. Xilinx baut selbst derartige Beschleuniger, sowie Tesla, Facebook, Google und Co.
Es wird ja hier auch nur die aktuelle Situation bewertet. Es hat auch niemand behauptet, dass das langfristig so bleiben wird.
Ähnliche Themen
- Antworten
- 185
- Aufrufe
- 22.020
F
- Antworten
- 82
- Aufrufe
- 13.880