Bericht Raytracing und DLSS: RTX 2070, 2080 und 2080 Ti im Techdemo-Benchmark

Ich habe immer stärker das Gefühl, dass NVidia einfach nur einen Claim für Raytracing im Gaming-Segment abstecken wollte, natürlich um AMD zuvorzukommen, aber möglicherweise auch weil sie erwarten, das AMD auf diesem Spielfeld sehr stark sein wird. Ich mag den Gedanken, dass sich AMD's Architektur vielleicht dadurch auszeichnen könnte, sowohl Raytracing- als auch klassische Rasterisierungs-Verfahren zu beherrschen, ohne dedizierte Cores für Raytracing zu benötigen, die in Rasterisierungs-Szenarien nichts beitragen und nur Chipfläche wegnehmen. Etwaige Schwächen in Rasterisierungs-Verfahren steht vielleicht ein kleinerer, weniger komplexer und daher günstigerer Chip gegenüber, der sich ingesamt besser und günstiger zwischen beiden Welten bewegen kann. Das wäre doch mal ein schöner Twist. Aber mit Blick auf die Verfügbarkeit und Performance von Spielen, die Raytracing verwenden, dauert es wohl noch mindestens zwei Jahre, ehe der Kampf um die Raytracing-Zukunft wirklich beginnt.
 
  • Gefällt mir
Reaktionen: AwesomSTUFF
Geht es eigentlich noch um Spiele und Spielen ? ^^
 
  • Gefällt mir
Reaktionen: Recharging
Habe ich etwas überlesen oder nimmt CB wirklich keine Stellung zu den erreichten Bildqualitäten gegenüber Nativem 4K? Überraschend ist eine sehr hohe Leistungssteigerung in einer absolut linear und gleich ablaufenden Szene mit DLSS wie in dem Techdemos natürlich nicht. Ich gehe sogar so weit, dass diese Technik in Online Multiplayer Shootern, mit immer wechselnden Szenen, die sich kaum wiederholen auch keine großen Vorteile bieten wird. Also wie CB schon schreibt, alles eigentlich nichts aussagekräftig. Warten wir mal BFV ab. Das wurde ja immerhin verschoben, damit die Implementierung und die Leistung der Nvidia Features noch besser wird. Da die Frostbite Engine insgesamt eine sehr gute Leistung zur Bildqualität zeigt, sollte das schon einen deutlichen Fingerzeig aufgeben.
 
Ich finde vor Allem das DLSS ziemlich spannend. Antialiasing ist ja nun schon lange ein Thema, bei dem es auch immer wieder in Richtung Performance geht was aber oft wirklich prägsam zum Gesamtbild eines Spiels beiträgt. Insofern schon ein Feature was "man mitnehmen kann".

Bei RT war ja irgendwo klar, dass es nach den Ergebnissen auf der 2080Ti nicht allzuviel von den kleineren Pendants zu erwarten galt, dennoch hege ich die Hoffnung, dass die Entwickler der Games die kommenden 2-5 Jahre nutzen um den Einsatz des Features zu optimieren. Ich denke dabei gerne an die goldene Konsolen-Ära zurück wo man teils nicht geglaubt hat dass zwei Spiele für ein und dieselbe Hardware gemacht wurden weil sie so krasse Unterschiede in der Präsentation hatten (zB Spiele aus den Anfängen einer Konsole VS. Spiele kurz vor EoL). Meiner Meinung nach ist RT eben nicht wie 3D ein vorübergehender Hype, da es schon seit ich mit PCs zu tun habe die Königsklasse des renderns war und es eine Frage der Zeit war bis es zu uns Costumern kommt. Nicht zuletzt ist der Mehrwert halt auch einfach gegeben und durch fehlende Ansätze in der Rasterisierung nicht anders umsetzbar.
 
sverebom schrieb:
Ich mag den Gedanken, dass sich AMD's Architektur vielleicht dadurch auszeichnen könnte, sowohl Raytracing- als auch klassische Rasterisierungs-Verfahren zu beherrschen, ohne dedizierte Cores für Raytracing zu benötigen, die in Rasterisierungs-Szenarien nichts beitragen und nur Chipfläche wegnehmen

was treibt dich zu dieser Annahme? Wie fix sind denn die AMD Karten bei Deep Learning unterwegs, gibts da auch fertige Toolkits um so etwas zu ermitteln? zB Tensor Flow Training, oÄ.

Keine Ahnung was AMD in diesem Segment so unternimmt oder ob man das quasi Nvidia überlassen hat.

Edit:
https://www.amd.com/de/graphics/servers-radeon-instinct-deep-learning

Stimmt, dafür war ja Instinct da. Fällt das unter Compute Benchmarks?
Ergänzung ()

http://blog.gpueater.com/en/2018/03/20/00006_tech_flops_benchmark_2/
1539943627453.png


das Einzige was ich so auf die Schnell hinsichtlich TensorFlow Performance finden konnte.

Edit:
https://www.anandtech.com/show/12673/titan-v-deep-learning-deep-dive

Ausführliches Deep Learning Zeuch aber Nvidia only.
Ergänzung ()

Damit die Tensor Kerne wohl auch zum Einsatz kommen (zumeist ja eh nur CUDA) muss man wohl auch folgendes beachten

1539944907156.png


was ja auch Sinn macht da es quasi ne fix verdrahtete dafür weniger flexible Multiplikation von Matrizen ist. Man kann also nicht einfach eine beliebige FP16 / FP32 Sache für hernehmen.
 
Zuletzt bearbeitet:
Ganz ehrlich, was ich da sehe reißt mich nicht von den Füßen. Also, wenn DAS der große neue Kaufgrund seien soll dann werde ich das mal geflissentlich überspringen. Erinnert mich irgendwie an den Hype um 3D Fernsehen und solche Scherze... Mehr FPS in Ü1080p Auflösungen hätten mich da eher hinterm Sofas hervorgelockt.
 
  • Gefällt mir
Reaktionen: Oceanhog
  • Gefällt mir
Reaktionen: Bu][e
wohl den meisten hier geht es so. Umso erstaunlicher doch dass sich Nvidia getraut hat nicht nur stumpf die Rasterizing Power zu pushen, imho geht die Tensor + RT Fläche ganz schön ins Geld. Man rechnet wohl wohl schwer damit dass man diesen Schritt irgendwann gehen musste und sich der frühe Einstieg bezahlt macht.

Das ging schon bei Computing mit Cuda, Gameworks, Deep Learning usw super für Nvidia auf, denke auch hier.
 
Zero_Point schrieb:
DLSS also (vorerst) nur für UHD und ohnehin nur bei ausgewählten Spielen. Damit dürfte sich das Feature für die meisten erledigt haben.

.....

Damit ist die 2070 auch die unsinnigste Karte seit Jahren, da sie Features hat, die man in der Praxis nicht nutzen kann (für RT zu lahm und für DLSS ebenfalls, da UHD benötigt wird).

Das DLSS ausschließlich nur für UHD funktioniert, war mir bis vorhin noch nicht bewusst... damit ist DLSS auch für VR Geschichte und 4k Monitore interressieren mich eh nicht. Ich hole mir bald ein QWHD Monitor... ich hatte ja hoffnung gehabt das für 1440p DLSS wenigstens funktioniert, wenn schon nicht für VR... aber noch nicht mal das bekommt nvidia gebacken und G-Sync soll ja angeblich auch nicht mehr richtig funktionieren, was ein Saftladen.

Realtime Raytracing war eigentlich von anfang an nur gehypter Müll und DLSS jetzt leider auch...
 
  • Gefällt mir
Reaktionen: Zero_Point und russianinvasion
Coca_Cola schrieb:
Durch Raytracing werden die Spiele auch nicht besser.

Das ist richtig, auch wenn es erstmal auf einem anderen Blatt steht. ;)
Ergänzung ()

hroessler schrieb:
Ich gebe @Shoryuken94 absolut recht. Die Technikfeatures sind bestimmt nice, aber halt nicht existent. Auf der anderen Seite möchte Nvidia aber dafür jede Menge Talerchen sehen...iwie passt das dann doch net zusammen :D

greetz
hroessler

Es ist halt wie in allen Bereichen, wo man den Pionier-Kunden spielt. Du bezahlst erstmal viel für relativ wenig Leistung, hast aber früher als andere den Zugang zur neuen Technik. Man schaue sich nur mal die ersten E-Auto-Fahrer oder die ersten BMW-i3-/Tesla-Fahrer an.
 
BorstiNumberOne schrieb:
Es ist halt wie in allen Bereichen, wo man den Pionier-Kunden spielt. Du bezahlst erstmal viel für relativ wenig Leistung, hast aber früher als andere den Zugang zur neuen Technik. Man schaue sich nur mal die ersten E-Auto-Fahrer oder die ersten BMW-i3-/Tesla-Fahrer an.

Chinesische Autokonzerne bauen bereits seit Jahren preiswerte E-Autos für die Masse. Was BMW, Tesla und Co. in dem Bereich machen (auch preislich) ist ein schlechter Scherz.
 
Heute nutzlos und morgen veraltet, weil abgelöst durch Nachfolger. Suggeriere einen Mehrwert, der aber keinen praktischen Nutzen hat und verkaufe es als Zukunftstechnologie an Leute mit enthusiastischem Geldbeutel. Das ist wohl die hohe Kunst des Marketings.
 
@Retro-3dfx-User
Denk dir einfach eine Zahl unter 5 aus. Dafür muss man die nicht in die Tabellen aufnehmen. ;)
 
AssembIer schrieb:
Chinesische Autokonzerne bauen bereits seit Jahren preiswerte E-Autos für die Masse. Was BMW, Tesla und Co. in dem Bereich machen (auch preislich) ist ein schlechter Scherz.

Mit denen möchte aber auch keiner einen Unfall haben.
 
@BorstiNumberOne Dein Vergleich hinkt aber etwas. Die E-Autos sind ja immerhin elektrisch gefahren.

Eine RTX 2080ti für > 1200€ schafft RT in FHD(!!!) nicht einmal stabile 60 FPS(!!!). Das ist in vielen Szenarien einfach
unbrauchbar bis unterirdisch! Und DLSS ist ja bereits alles gesagt worden. Aktuell nur in bestimmte Auflösungen und
nur für bestimmte Games. In der Form auch hier für die meisten Szenarien unbaruchbar.

Den Gegenwert den Nvidia hier für seine RTX bietet ist ziemlich mau. Und ich hätte so gerne meine 980ti abgelöst!
Aber nicht für diese RTX-Generation und 800€ für ne 1080ti werde ich garantiert auch nicht bezahlen. Das Geld liegt
bereit, nur wollen weder Nvidia noch AMD mein Geld haben... :freak:

greetz
hroessler
Ergänzung ()

@MEDIC-on-DUTY Ich möchte mit gar keinem Auto einen Unfall haben...

greetz
hroessler
 
Phear schrieb:
@Retro-3dfx-User
Denk dir einfach eine Zahl unter 5 aus. Dafür muss man die nicht in die Tabellen aufnehmen. ;)

Bezweifel ich, um das zu wissen hätten sie diese einfach mit reinnehmen sollen, vermutlich wird die Vega64 auf 1080 niveau liegen aber bei dem Test wissen wir es nicht.

Die Masse an Shadern die bei Vega kaum ausgelastet werder wird schon für was gut sein und bei Computing sind sie ja weitaus flotter als die dickste normale NV Karte, wenn sie das per Treibern endlich mal gebacken bekommen wird es sich zeigen.

Auch habe ich mir die Videos nun X mal auf meinen 39,5er iiyama angeschaut @YT-4k ich sehe Optisch null unterschied außer das DLSS deutlich mehr FPS abliefert.
 
Seskahin schrieb:
Habe ich etwas überlesen oder nimmt CB wirklich keine Stellung zu den erreichten Bildqualitäten gegenüber Nativem 4K?
Zitat CB:
"KI hin oder her, die von nativer Auflösung mit Kantenglättung bekannte Qualität erreicht DLSS in Final Fantasy XV nicht überall auf dem Bild. Manche Objekte flimmern ein wenig stärker als in der nativen Auflösung mit TAA. TAA in Final Fantasy XV macht das Bild aber unscharf. Das Problem hat DLSS nicht. "
Kurz gesagt....in FFXV ist TAA mies und daher sieht DLSS besser aus....und hat eine bessere Leistung.
Gut für DLSS, aber fraglich ob sich das auch in Spielen fortsetzt, wo TAA nicht so viel Unschärfe reinbringt.


Zitat CB:
"Die Infiltrator-Techdemo funktioniert mit DLSS dagegen nicht so gut. Denn bei der UE4-Demo flimmern verhältnismäßig viele Objekte, die bei nativer Auflösung absolut ruhig dargestellt werden. Darüber hinaus wirkt das Bild auch weniger scharf als mit der nativen Auflösung. Der optische Eindruck nimmt mit DLSS also ab. "
Hier ist DLSS optisch schlechter und laut Digital Foundry in Optik und Performance vergleichbar mit 1800p+TAA.

Hier funktioniert DLSS zwar. Hat aber keinen Mehrwert zu klassischem upsampling.
Wenn sich dieser Trend in Spielen fortsetzt, ist die Technik sinnlos und ein ziemlicher flop.....viel Aufwand und Mehrkosten ohne mehr Nutzen.
 
  • Gefällt mir
Reaktionen: Seskahin
m.Kobold schrieb:
damit ist DLSS auch für VR Geschichte und 4k Monitore interressieren mich eh nicht. Ich hole mir bald ein QWHD Monitor... ich hatte ja hoffnung gehabt das für 1440p DLSS wenigstens funktioniert, wenn schon nicht für VR...
Kommt eventuellTM noch irgendwannTM. Aber die Auflösungsabhängig bleibt saublöd. Wenn du irgendwann auf 21:9 oder eine andere exotische Auflösung umsteigst, stehst du wieder vor demselben Dilemma.

Dabei wäre DLSS gerade bei Full HD interessant, Stichwort Notebooks. Zukünftige Modelle könnten davon profitieren, da bei 17" UHD einfach keinen Sinn macht außer man will Leistung unnötig verbraten.
 
Retro-3dfx-User schrieb:
ich sehe Optisch null unterschied außer das DLSS deutlich mehr FPS abliefert.
Du hast gerade den Sinn von DLSS notiert. Es läuft wesentlich besser und zeigt trotzdem dieselbe Qualität.

Es geht hier übrigens darum die Performance von DLSS + RT bei den neuen RTX Karten in Benchmarks darzustellen. Da interessiert weder eine 1080, noch eine Vega Karte. Bei RT sowieso nicht, weil die das nicht können bzw. halt mit Werten unter 5 FPS, worauf sich auch mein Post bezog. Den normalen Benchmark Wert kannst du dir aber grob ausmalen, wenn du dir die 1080 TI anschaust.
 
Zurück
Oben