News FidelityFX Super Resolution: DLSS-Konkurrenz ab 22. Juni für AMD- und Nvidia-GPUs

McSchott schrieb:
AMD möchte wohl als die eher Guten und gönnerhaften "Rebellen" verstanden werden während Nvidia indirekt als typischer sperriger Weltkonzern verstanden werden soll der für jeden Pup extra kassieren möchte.

Wenn es AMD gelingen würde Nvidia vom Thron zu stürzen dann wäre das mit deren sharing- Grosszügigkeit aber wohl auch vorbei.

Den "Rebellen" sollte man jetzt schon nicht unterschätzen. Der nutzt inzwischen auch die "Waffen der Weltkonzerne". Siehe Vorstellung 6800M.

Jeweils mit der mobilen 5900HX:
Asus Rog Strix mit RX 6800M bei 160W inkl. CPU und GPU mit Flüssigmetall vs.
Asus Rog Strix Scar mit RTX 3080 bei 130W; Flüssigmetall nur auf der CPU

Die Powerlimits stehen nicht im Disclaimer. Da wird nur das Notebookmodell genannt. Zum Glück gibt es Reviews. Auch Notebookcheck hat den Benchmark schon unter die Lupe genommen:

Dennoch zeigt sich ein klares Bild: Die Radeon RX 6800M im Asus ROG Strix G15 kann es trotz einer TGP von über 160 Watt gerade so mit der GeForce RTX 3080 im Asus ROG Zephyrus G15 aufnehmen, die selbst mit Dynamic Boost nur mit 100 Watt betrieben wird. Nvidias Flaggschiff kann im MSI GE76 Raider mit einer TGP von 155 Watt aber einen deutlichen Vorsprung zeigen.

Die vorgestellten Modelle sind auch so schon interessant. Vorherige AMD Benchmarks waren ziemlich zuverlässig. Eigentlich vollkommen unnötig jetzt so eine Show abzuziehen. Dann noch das Partnerprogramm für Notebooks "AMD Advantage" aka AMD Inside inkl. Zertifizierung... Voraussetzung: u. a. AMD CPU und GPU.

Wer weiss, wo hier bei FidelityFX SS getrickst wurde.
 
Zuletzt bearbeitet:
Zwiebelsoße schrieb:
Da ist nicht viel Kontext nötig. Nvidia stellte 2018 die mit Abstand schnellste Grafikkarte für 999 US Dollar vor.
Ich gehe mit dem Meisten, das du gesagt hast, d'accord, aber die UVP der 2080 Ti ist laut Nvidia 1259€, also immer noch mehr, als AMD zwei Jahre später verlangt. Gleichzeitig ist der Preis für Nvidias Topmodell auf 1499€ hochgegangen, AMDs Wucher ist also nur auf 66% des Niveaus der Konkurrenz. Das meinte ich mit Kontext
Zwiebelsoße schrieb:
q.e.d. lieber Colindo.^^
Na, na, er hat noch nicht gesagt, dass FSR viel besser (oder überhaupt gut) ist. Bleiben wir bei den Aussagen, die hier unterstellt wurden.
Ergänzung ()

NguyenV3 schrieb:
Die vorgestellten Modelle sind auch so schon interessant. Vorherige AMD Benchmarks waren ziemlich zuverlässig.
AMD hat immer mal wieder so Ausrutscher in den Präsentationen. 2019 der PCIe 4.0-Benchmark, der nur den Durchsatz gemessen hat, was für Spiele nicht relevant ist. Letztes Jahr die neue Berechnung der IPC, die nicht mehr nur Anwendungen sondern auch Spiele (und dadurch Latenzen) beinhaltet.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße
Laphonso schrieb:
Ich habe zu Cberpunk 4 Bilder präsentiert, anhand derer ich zeigen konnte, dass man durch via GE frei Haus gelieferten Schärfefilter keinen Unterschied mehr zwischen nativ und DLSS 2.0 Quaility in Cyberpunk sieht.
Ich erinnere mich sehr gut an Deinen "Test". Du hast schlicht gepfuscht, da Nativ + Schärfefilter komplett fehlte.

OT: Der Blurr Wars geht in die nächste Runde. Zumindest gibt es in Zukunft einen weiteren Grund Einsteigerkarten noch höher zu bepreisen, denn immerhin können die jetzt schneller. BQ war gestern.
 
DrFreaK666 schrieb:
Du verzichtest also in Zukunft auf am höchsten aufgelöste Texturen, damit die Spiegelungen im Wasser höher aufgelöst sind im Vergleich zur Konkurrenz??
OK... o_O
Und Du stellst Dir im Umkehrschluss 4K Monitor hin, wählst die hochauflösende Grafik, nur um dann niedrig aufgelöste, fehlerhafte und teilweise gänzlich fehlende Effekte "genießen" zu dürfen?


Na da hast Du ja mal wirklich viel gewonnen, wenn Dein gesamter Bildschirm flirrt, warpt und wabert, weil die Effekte eben nicht sauber durchberechnet werden (können).
 
Nett, aber mehr auch nicht. Qualitativ nicht konkurrenzfähig. Aber immerhin läuft es ja mit einem gewissen Aufwand überall.
 
Laphonso schrieb:
Die DLSS hater werden in 2 Wochen böse erwachen ;)
Wird dir das nicht langsam zu blöd?

Wenn jemand DLSS nicht irgendwie hochjubelt, sind es bei dir DLSS Hater. Es gibt für DLSS gute Beispiele und schlechte Beispiele, dabei kann man doch trotzdem neutral bleiben.
 
  • Gefällt mir
Reaktionen: Benji18, jonderson und sven_011
aldaric schrieb:
Wenn jemand DLSS nicht irgendwie hochjubelt, sind es bei dir DLSS Hater.
Wir lesen seit 2,5 Jahre von Zwang und Nvidia "Bestechung" für Devs, über Pixelmatsch, über Schrott , über Texturenmüll, über Grafikfail, und wer das gut findet ist Nvidia Opfer und erkennt nicht die Sinnlosigkeit. Alles im Kontext DLSS.
Das ist in Deinem Wortschatz "nicht hochjubeln"? Ich nenne das hate und pures Abwerten, weil es von Nvidia kommt. Und bekam zahlreiche "Daumen hoch" und Likes in diesen Threads.

Wir hatten hier und dort auch noch einen ganz anderen Duktus, aldaric, einfach mal die Threads seit Anfang 2019 durcharbeiten.

Ende Juni haben wir ja nun endlich Bewegung in dem Segment.
 
  • Gefällt mir
Reaktionen: foo_1337
Wenn ich in Cyberpunk z.B. mal RT testen will, dann stelle ich einfach die Auflösung von 1440p auf 1080p runter, damit ich wenigstens nicht ganz so miese FPS habe.

Der FPS Zuwachs ist dabei mit 40-50% genau so hoch wie das, was man hier mit der 1060 in 1440p und FSR Quality sieht. Aber die Bildqualität ist nach meinem Empfinden mit einfachem Runterstellen auf 1080p nicht wirklich schlechter als das.

Wäre das nur ein erster Teaser und Release weiterhin gegen Ende des Jahres, sähe die Sache etwas anders aus, aber da es schon in 3 Wochen auf den Markt kommt, wird sich da wohl auch erst mal nichts dran ändern.
Ergänzung ()

Hier hat jemand auf reddit übrigens mal nachträglich mit FFMPEG CAS auf die Vergleichsvideos angewandt und davon Screenshots erstellt, etwas was man als User eigentlich auch Ingame tun können müsste.

https://www.reddit.com/r/Amd/comments/nqh1sn/fsr_could_improve_a_lot_when_used_in_combination/


Ich hab mal bem ersten Bild einen ähnlichen rangezoomten Vergleich erstellt wie die, die hier schon zu sehen waren.


Original
original.jpg


+CAS
cas.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwiebelsoße, DannyA4 und foo_1337
Novasun schrieb:
AMD - weil - AMD kümmert sich nach dem Kauf um seine Kunden - Check

nV - nope...

Ich habe ewig drauf gewartet, dass AMD richtiges VESA adaptive sync via HDMI auf meiner Vega 64 verfügbar macht um es auf meinem OLED TV nutzen zu können. Hat AMD mittlerweile vor über 2 Jahren versprochen und nie gebracht. Hat mich echt frustriert. Ich musste dann Freesync Support via CRU auf meinen LG C9 modden, was tun Glück funktioniert hat. Aber bleib mir mit "AMD supportet seine Kunden so toll" bitte fern.
 
Laphonso schrieb:
Wir lesen seit 2,5 Jahre von Zwang und Nvidia "Bestechung" für Devs, über Pixelmatsch, über Schrott , über Texturenmüll, über Grafikfail, und wer das gut findet ist Nvidia Opfer und erkennt nicht die Sinnlosigkeit. Alles im Kontext DLSS.

Vielleicht würde es helfen, wenn du nicht alles subjektiv lesen würdest und es als allgemeine Aussage in jedem zweiten Post hinstellst?

Das ist ja fast so schlimm, wie deine Behauptung über die Benachteiligung von nVidia, weil man DLSS im Architekturvergleich nicht genutzt hat. Da hast du auch 100 mal den gleichen Post abgesetzt. Deswegen behaupte ich aber nicht, dass es das ganze Forum seit einem Jahr behauptet.
 
  • Gefällt mir
Reaktionen: Benji21 und Colindo
.Sentinel. schrieb:
Und Du stellst Dir im Umkehrschluss 4K Monitor hin, wählst die hochauflösende Grafik, nur um dann niedrig aufgelöste, fehlerhafte und teilweise gänzlich fehlende Effekte "genießen" zu dürfen?...

Meinst du mit fehlende Elemente schärfere Texturen? Dann ja. Texturen machen immer noch den größeren Teil der Grafik aus. Verwaschene Texturen kann man nicht mit Spiegelungen kaschieren.
Und dass die Radeons auch gut mit RT performen, zeigt Metro Exodus Enhanced. Man muss sich nur Mühe geben.

Was soll das RE 2 Remake Video eigentlich, das zwei Jahre alt ist? Hast kein Spiel gefunden, das noch älter ist?
 
Zuletzt bearbeitet:
Colindo schrieb:
Ich gehe mit dem Meisten, das du gesagt hast, d'accord, aber die UVP der 2080 Ti ist laut Nvidia 1259€, also immer noch mehr, als AMD zwei Jahre später verlangt.
Das betrifft aber nur die Founders Edition.
 
  • Gefällt mir
Reaktionen: Colindo
DrFreaK666 schrieb:
Meinst du mit fehlende Elemente schärfere Texturen?
Fehlende oder falsche Effekte, damit ist offensichtlich RT gemeint.

DrFreaK666 schrieb:
Und dass die Radeons auch gut mit RT performen, zeigt Metro Exodus Enhanced. Man muss sich nur Mühe geben
Metro ist ganz gut auf AMD optimiert, aber auch hier ist die Performance nicht besser als gedacht.
Die 3080 liegt in 4K 30% vor der 6800XT, genau da wo man sie erwartet. Und in Szenen, wo RT stärker benutzt wird, werden aus den 30% auch mal schnell 50%.

Dazu kann der 3080 Nutzer eben auch aus den 41fps mit DLSS Balanced mal eben 70fps machen, während der 6800XT Nutzer auf seinen 32FPS sitzen bleibt.
 
Taxxor schrieb:
Fehlende oder falsche Effekte, damit ist offensichtlich RT gemeint...

Mir schon klar. Da ich aber gerne Mods nutze, sind mir mehr VRAM wichtiger und Texturen werden in Zukunft nicht weniger benotigen.
Aber wenn jemand schärfere Details bei Spiegelungen will statt bei Texturen, dann soll er eben eine RTX-Karte nutzen.

Das ist aber jetzt zu OT
 
piccolo85 schrieb:
Ich habe ewig drauf gewartet, dass AMD richtiges VESA adaptive sync via HDMI auf meiner Vega 64 verfügbar macht um es auf meinem OLED TV nutzen zu können. Hat AMD mittlerweile vor über 2 Jahren versprochen und nie gebracht. Hat mich echt frustriert. Ich musste dann Freesync Support via CRU auf meinen LG C9 modden, was tun Glück funktioniert hat. Aber bleib mir mit "AMD supportet seine Kunden so toll" bitte fern.
Ja auch bei AMD gab es leider Teile die nicht wussten was sie sagen... Wobei ich davon ausgehe, das AMD zu beginn davon ausging, dass sie es hin bekommen. Nur bei Vega (so später die Vermutung) ging einiges nicht, was hätte gehen sollen... Es gab noch mehr wo man von ausging es kommt noch was - was nie kam.

Das dumme ist nur das Firmen Fehler heute nicht zu geben (meistens). Ist aber auch klar - in USA kostet das dich gleich Geld...
Trotzdem supportet AMD seine Kunden - und im Moment GAMER. Auch wenn ich es selbst erst als Werbeslogan von SUE sah... Aber sie ist es die im Zweifel sagen würde - nein dafür nehmen wir kein Geld in die Hand... Aber genau das Gegenteil macht AMD...
Und offene Standards sind halt auch im Sinne des Kunden - und Ihrem Onkel drückt sie so ja ziemlich einen rein... Sie wertet damit die alten GPU`s massiv auf...
 
Novasun schrieb:
und Ihrem Onkel drückt sie so ja ziemlich einen rein... Sie wertet damit die alten GPU`s massiv auf...
Naja, abwarten. Wenn es im Endeffekt so ist wie @Taxxor schreibt und man kaum einen Unterschied zwischen FSR und manueller Auswahl der niedrigeren Auflösung sieht, stimmt das nur bedingt in Hinblick auf alte GPUs wie die 1060.
Ergänzung ()

Novasun schrieb:
Trotzdem supportet AMD seine Kunden
Welcher Hersteller macht das nicht? Das liest sich so als wäre AMD der Heilsbringer und alle anderen sind der Vampir, der seine Kunden ausbluten lässt. Edit: Natürlich 'der das Blut aus den Kunden saugt' :D
 
Novasun schrieb:
Trotzdem supportet AMD seine Kunden - und im Moment GAMER. Auch wenn ich es selbst erst als Werbeslogan von SUE sah... Aber sie ist es die im Zweifel sagen würde - nein dafür nehmen wir kein Geld in die Hand... Aber genau das Gegenteil macht AMD...
Und offene Standards sind halt auch im Sinne des Kunden - und Ihrem Onkel drückt sie so ja ziemlich einen rein... Sie wertet damit die alten GPU`s massiv auf...
Das ist ja nicht alles. Rückwärtskompatibilität ist bei AMD gegenüber Intel und nvidia bedeutend besser. Gerade während der Dominanz der ix-Serie hat intel regelmäßig neue Plattformen rausgebracht die dann schlichtweg nicht mehr rückwärtskompatibel waren: Kaputtes Mainboard hieß also entweder überteuerte Gebrauchtware oder neuen Prozessor kaufen. Die AMD-Treiber haben ja meist auch für recht alte Karten noch jahrelang Verbesserungen parat, und während man auf Linux für nvidia-Karten definitiv propietäre Treiber braucht arbeitet AMD schon lange an den OpenSource-Linux-Treibern für AMD-Hardware mit.

Das alles gibt halt ein Gesamtbild bei dem AMD bedeutend besser wegkommt.
 
  • Gefällt mir
Reaktionen: jonderson
Ich weiß nicht ob es hier hingehörte aber es hat mit dlss zutun. https://www.pcgameshardware.de/Nvid...alve-via-Steams-Proton-auch-zu-Linux-1373204/

ob es jetzt daran liegt das AMD seine Dlss Alternative bereit hat und open gpu ist, oder es Gerüchte gibt das Valve ein Handheld rausbringt, oder das Nvidia sichtlich nemüht ist dlss unter die Leute zubringen. Auf jeden Fall wird in Partnerschaft valve/Nvidia dlss über Proton realisiert. So das auch linux User über Proton in Genuss kommen sollen.
 
Northstar2710 schrieb:
Ich weiß nicht ob es hier hingehörte aber es hat mit dlss zutun. https://www.pcgameshardware.de/Nvid...alve-via-Steams-Proton-auch-zu-Linux-1373204/

ob es jetzt daran liegt das AMD seine Dlss Alternative bereit hat und open gpu ist, oder es Gerüchte gibt das Valve ein Handheld rausbringt, oder das Nvidia sichtlich nemüht ist dlss unter die Leute zubringen. Auf jeden Fall wird in Partnerschaft valve/Nvidia dlss über Proton realisiert. So das auch linux User über Proton in Genuss kommen.
Mit propietären Nvidia-Treibern, genau.

Man benutzt eigentlich kein Linux, um sich dann doch wieder propietäre Treiber ins System zu holen. Bei AMD kannst Du im ganzen System ohne nonfree-Treiber auskommen. Bei Nvidia ist das unmöglich.

Ich hab grad noch mal bei steam nachgeschaut, war mir ziemlich sicher, als ich das letzte mal nachgeguckt hab, waren die unter Linux genutzten GPUs klar mehr (dediziert) AMD oder eben (integriert) Intel (die meisten, die Linux benutzen, benutzen's nicht zum Spielen und generell sind wohl Linux-Nutzer beim Upgraden sehr viel langsamer als Windows-Nutzer, schließlich unterstützt Linux jeden Toaster). Seltsamerweise wird das für Mai 2021 nicht mehr ausgegeben: Die beliebtesten GPUs für Macs sind angegeben (AMD HD 8800), bei Windows angegeben (GTX 1060), nur bei Linux wird's irgendwie nicht mehr angezeigt. Naja.
 
Zurück
Oben