News Nvidia RTX-Plattform: 21 Spiele sollen Raytracing und DLSS unterstützen

Alleine DLSS könnte schon ziemlich was an Performance bringen. Wenn ich es richtig verstanden habe, wird DLSS ja hauptsächlich über die Tensorcores berechnet.

Bei klassischem Super Sampling und andere AA Methoden benötigen viel Leistung. Wenn man allerdings die Kantenglättung auf die Tensorcores umlegen kann und die Shader nur das spiel berechnen müssen, hat man deutlich mehr Rechenleistung für das eigentliche spiel übrig. (Ähnlich als wenn man Anti Aliazing deaktiviert)

Wenn es sich durchsetzt könnte das wirklich einiges bringen
 
DocWindows schrieb:
Der gesamte Ansatz von RTX basiert auf DirectX 12, weil es DXR unter DX11 gar nicht gibt. Erst war es ein Problem dass nVidia (angeblich) auf DX11 setzt und jetzt ist es ein Problem dass sie auf DX12 setzen?

Lol, du glaubst doch nicht ernsthaft, dass sich Nvidia bei Raytracing an die DX 12 Vorgaben halten wird ? .....
Die werden irgendeinen Mist einbauen um AMD Karten und auch die eigenen GTX Karten langsamer zu machen.
Hat doch bei DX 11 auch ganz gut geklappt ! Schließlich geht da bei Nvidia ziemlich alles über den Treiber und Gameworks.... DX 11 hat Nvidia nur die Basis für Gameworks gegeben...

Die schaffen es aus einem offenen Standard einen geschlossenen Proprietären zu machen, die brauchen nur Zeit.

@Shoryuken94
Demnach ist DLSS vorerst ein exklusives Hardware gebundenes Feature für Nvidia Karten mit Tensor Kernen ? ..
 
Peinlich war eher, das die ganze Präsentation Show mit dem neuen Feature nicht überzeugen konnte und die Begeisterung die der Nvidia CEO Huang für sein eigenes Produkt an den Tag legte, nicht wirklich auf die Menschen in dem Saal/Halle übersprang.
.....mit Überzeugung hat das nichts zu tun, das Event war in D und hier wird nunmal nicht wegen jeder Kleinigkeit herumgegrölt. Hat man am Anfang gut gesehen und gehört, als ein paar (vermutlich) Amerikaner im Raum in überschwänglicher Art und Weise laut wurden, von der Masse aber recht schnell eingefangen wurden.

Ich fand die ganze Präsentation überaus angenehm, vor allem weil diese nicht ständig unterbrochen wurde durch einzelne die wegen jeder Kleinigkeit einen Orgasmus vortäuschen.
Was es am Ende bringt - keine Ahnung. Ich denke RT hat Potential. Ob es genutzt wird ist eine andere Frage....
 
aivazi schrieb:
Lol, du glaubst doch nicht ernsthaft, dass sich Nvidia bei Raytracing an die DX 12 Vorgaben halten wird ? .....
Die werden irgendeinen Mist einbauen um AMD Karten und auch die eigenen GTX Karten langsamer zu machen.

Die brauchen keinen Mist einzubauen, damit GTX und AMD-Karten langsamer werden. Die einzige Architektur die für Raytracing optimiert ist, ist nunmal derzeit Turing. Die älteren Architekturen sind überhaupt nicht auf RT vorbereitet. Sie sind komplett auf Rasterisierung ausgelegt.
darüberhinaus wüsste ich nicht warum sich nVidia nicht an die DXR Spezifikationen halten sollte. Sie haben sie doch zusammen mit Microsoft definiert.

aivazi schrieb:
Hat doch bei DX 11 auch ganz gut geklappt ! Schließlich geht da bei Nvidia ziemlich alles über den Treiber und Gameworks.... DX 11 hat Nvidia nur die Basis für Gameworks gegeben...

Gameworks IST DX11. Bis auf einige Ausnahmen die Physx verwenden, wie z.B. die APEX Effekte sind die Gameworkseffekte DX11 Shadercode. Das Problem ist nicht, dass die geschlossen wären, sondern dass sie auf nVidias Architektur optimiert sind und deshalb auf AMDs Architektur langsamer laufen.
 
Zuletzt bearbeitet:
pclovely schrieb:
Entweder spart das enorm Rechenleistung
Alles was mit Raytracing gemacht werden kann, entlastet die normalen Shader, die dann mehr fps liefern können. Dann müssen aber auch die RT-Cores mithalten können, sonst brechen die fps wieder ein. Die ersten Benchmarks werden es zeigen, Bf5 wird es wohl in der Beta schon drin haben, da können die Magazine ja mit und ohne Raytracing testen.
Ich finde diese Technik schon beeindruckend. Früher habe ich Raytracingbilder mit dem Amiga berechnet, das hat Stunden bis hin zu Tagen gedauert, das jetzt teilweise in Real Time zu sehen ist schon heftig. Auch die Schattendemo im neuen Tomb Raider sah imho klasse aus, allerdings ist hier auch die Frage, ob und inwiefern man die Schatten ohne RTX schlechter dargestellt hat als es möglich gewesen wäre. Die Performance ist allerdings immer noch eine black box, in den Demos hat es ja das ein oder andere Mal ordentlich geruckelt.
 
HerrRossi schrieb:
Alles was mit Raytracing gemacht werden kann, entlastet die normalen Shader, die dann mehr fps liefern können.
Kurz: Nein werden sie nicht. Dazu kommt noch die enorme zusätzliche Belastung der Speicher und Register. RT ist auch nicht RT. Würden alle Elemente mit Methoden und Qualität der typischen Renderprogramme berechnet, würde es noch immer ewig dauern.
 
xexex schrieb:
Suche jemanden, der dich feiert, wie diese Typen Raytracing feiern.

(Aber es sieht tatsächlich krass aus, dass muss man ihnen lassen :D)
 
noxon schrieb:
...aber in einem Spiel wie Rainbow Six Siege könntest du RTX auf diese Weise nicht implementieren ohne den Spielern mit RTX-Karten einen massiven Vorteil zu verschaffen.
Vllt. ist das ja die Absicht dahinter? Wer den Vorteil will, muss eben tief in die Tasche greifen...
 
Battlefield V - OK das wars für mich. cu Battlefield ich bleibe endgültig beim alten WoW.

keine lust auf neue Hardware wegen einem Game .... macht nichts wer weis wozu es gut ist !
 
TempeltonPeck schrieb:
Weiß nicht ob es schon gepostet wurde:

https://www.heise.de/newsticker/meldung/Raytracing-in-Spielen-Das-dauert-noch-4142061.html

Da kann ich wohl getrost noch eine Weile mit meiner 1080er auskommen.
Der Artikel ist ziemlicher Blödsinn. Da wird beschrieben wie lange es dauert Spiele komplett in Raytracing-Grafik zu berechnen, aber davon redet ja vorerst keiner.
Zuerst einmal will man herkömmliche Rasterizer-Technik um Raytracing-Technik erweitern in den Bereichen, wo Rasterizer-Techniken eh schon immer super schlecht geeignet waren. Licht und Schattenberechnungen zum Beispiel und das geht jetzt schon wunderbar, wie man an den ganzen Beispielen sieht, die bald veröffentlicht werden.

aivazi schrieb:
Lol, du glaubst doch nicht ernsthaft, dass sich Nvidia bei Raytracing an die DX 12 Vorgaben halten wird ? .....
Sag mal liest du auch, was die Leute die schreiben?
https://blogs.msdn.microsoft.com/directx/2018/03/19/gaming-with-windows-ml/
nVidia hat zusammen mit Micosoft an der Machine Leaning API von DX12 gearbeitet und jetzt behauptest du sturr und fest die hätten kein Interesse die zu nutzen?
Sinn und Sache der API ist es Entwicklern eine Möglichkeit zu geben die Hardware zu nutzen. Du wirfst hier APIs, Frameworks und Treiber wild durcheinander ohne zu wissen wovon du überhaupt redest.

Demnach ist DLSS vorerst ein exklusives Hardware gebundenes Feature für Nvidia Karten mit Tensor Kernen ? ..
Anders macht es wenig Sinn. Theoretisch könnte man es sicherlich auch per Software emulieren, aber wozu?
Wenn AMD eine Karte mit DXR Support herausbringt, dann wird das dort eventuell auch gehen. Genau so wie zum Beispiel FXAA. Das war damals beim Release auch erst einmal nur per Treiber auf nVidia Karten möglich und jetzt ist es in jedem Spiel implementiert.

HerrRossi schrieb:
Vllt. ist das ja die Absicht dahinter? Wer den Vorteil will, muss eben tief in die Tasche greifen...
Das Problem ist aber nicht neu und bisher entscheiden immer noch die Entwickler, wie sie ihr Spiel balancen.
Gerade in Multiplayer-Spielen wird ja immer darauf geachtet, dass man an den Settings nicht all zu sehr herumspielen kann um sich Vorteile gegenüber anderen Spielern zu verschaffen.

Aber ist schon schade irgendwie. Mir gefällt die Spiegel-Idee in R6S eigentlich ganz gut. Wäre echt ein geiles Gadget. Vielleicht kann man es ja auch mit herkömmlichen Mitteln umsetzen solange die Spieler alle noch keine DXR Karte haben. Mehrfache Viewports beherrscht allerdings nicht jede Engine und rechenaufwendig sind sie auch, weswegen Spiegel in Spielen ja auch so selten sind.
 
Zuletzt bearbeitet:
In Europa fallen die Ovationen ohne Benchmarks bisher verhalten aus, Raytracing scheint noch nicht auf dem Level zu sein wie erahnt und nV das darstellen will. Man lässt es sich trotzdem gut bezahlen.

Z.Z. werden die Demos analysiert und festgestellt, dass es einen Zeitversatz gibt (ruckeln) und daher Slow Motion gerne zum Einsatz kam um Framerateneinbrüche besser aussehen zu lassen. Dabei wurde Rechenleistung gespart indem man an umherfliegende Objekten Schatten nicht berechnete. Entweder war das Material noch nicht ausreichend präsentationsfähig oder man verwendete tatsächlich nur Rays in der Bildmitte/im optionalen Sichtfeld. Alle anderen Demos waren schon von anderen Events bekannt, die liefen auch auf einer P8000 nicht mit mehr als 22fps, was zu Pascal 1,7fps aber eine deutliche Steigerung wäre.

Das nVidia am Launchtag keine Benchmarks erlaubt ist einfach grottenschlechtes Marketing und erwägt den Verdacht das irgendwas nicht stimmt. Karten müssen ja ausreichend vorhanden sein.

Das große Problem ist der direkte Vergleich zur Pascalgen, bei nVidiakäufer zählte immer das fps vs $ Verhältnis für die längsten Balken, was muss ich für wie viel bezahlen. Da werden jetzt Enthusiasten (1080ti+) in Highend/Mainstream verbannt und man verlangt für Highend Enthusiastpreise. Da fühlt man sich natürlich paar Jahre zurück gebombt, wird sich aber ganz sicher daran gewöhnen müssen das minimale otpisch sichtbare Feature (ob sie gefallen oder nicht) einen Haufen Ressourcen fressen und damit kosten. Mit dem Anspruch an exellente Grafik steigen natürlich auch die Investitionen in dieses Hobby, klar, nur ist es jetzt so das Nvidia Titanpreise verlangt und das ist Prosumersegment.

Bisher ist nicht mal sicher ob Turing viel schneller wird als Pascal wenn er ohne RT unterwegs ist, der Größenzuwachs und an Shader/Einheiten liegt wohl nur an den Tensor/RT Cores die nV unter Cudacores mit aufführt.

@yummycandy
Danke für die Links.
 
Zuletzt bearbeitet von einem Moderator:
DocWindows schrieb:
Warum nicht? Bei den ganzen Renderingtricks die heutzutage verwendet werden, macht das Deep-Learning-basierte Vervollständigen des Bildes den Kohl auch nicht mehr fett. Es sei denn es funktioniert nicht richtig.
Genau der Punkt ist es auch, warum die Präsentation für mich so langweilig war. Sicher ist das technisch interessant, dass man jetzt auch Raytracing in Echtzeit machen kann. Aber mit den ganzen Tricks die man bisher angewendet hat, sah es doch auch schon nicht so schlecht aus. Die gezeigten vorher/nachher Vergleiche waren dann auch schon immer "ohne Tricks", sodass man überhaupt sehen kann was das nun bringen soll.
Durchsetzen wird es sich wohl. Schließlich muss man dann X Leute weniger bezahlen, die diese ganzen Tricks, Texturen und Beleuchtungseffekte programmieren, sondern wälzt das auf die Hardware und damit auf den Geldbeutel des Kunden ab :D Und wir dürfen uns darüber freuen, dass der explodierende Panzer über die Pfütze, zum Auto, zur Fensterscheibe, auf 3x3 Pixel für 2 Frames in die Augen unseres Mitspielers in BF5 reflektiert wird ^^
 
Wenn man sich das anschaut:
http://www.pcgameshardware.de/Grafi...ormance-in-Shadow-of-the-Tomb-Raider-1263244/

Und sich die 30 FPS @ 1080p einer 2080ti auf "der Zunge zergehen läßt", muss man kein Prophet sein, um zu wissen, dass sich das eher mit dieser Generation nicht durchsetzt!

Wer will schon seine Games in zuckeligen 30 FPS bei 1080p spielen, wenn kein flüssiges Spieleerlebnis aufkommt, egal wie toll die Ausleuchtung ist!
 
  • Gefällt mir
Reaktionen: MeisterOek, Zitterrochen, Steini1990 und eine weitere Person
Aus eigener Erfahrung, ich vermute es ist 720p, weil eben RT nur mit höchsten Offset wählbar ist (aber nicht von der Auflösung abhängig), denkbar ist man baut Qualitätsstufen ein (1-2-3-4) und Mischformen (Hybrid).

WQHD dürften das dann 30fps sein, das wirkt doch wie Steinzeit, wobei man solche Beleuchtungseffekte auch mit HDR Techniken hinbekommen hätte. Die Überblendungen im Bild deuten darauf hin.

TNT Ultra du hast uns wieder...
 
Grausam wie alle Nörgler ohne feste Infos gleich über alles herziehen. Tut mir ja leid, wenn euch euer Hobby zu teuer geworden ist. Early Adopter-Technik kostet halt mehr. Das war niemals anders, vor allem nicht ohne Konkurrenz in Sicht.

All das Geheule um AMD geht mir auch auf den Zeiger. Na dann lasst euren Retter endlich einmal gute Hardware herausbringen... oh, doch nicht ... Fehlanzeige. Vorher brauchen wir nicht anfangen zu reden!

Wartet erst einmal ab, wie sich die neuen Spiele anstellen. Mir hat gestern ein Verwandter Videos von den Gamescom Live-Demos geschickt und die sahen um Welten besser aus.

Habe selbst gesucht um ähnliches Material über Youtube zu finden: Beispiel hier (Kamera wackelt leicht!):

Ich will Spiele, die so ausssehen. Wenn RTX und die DLSS-Technik eben diese sogar in Echtzeit ermöglicht, warum beschweren? Sobald Entwickler die Möglichkeiten sehen, werden sie garantiert umschwenken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Volvo480, MeisterOek, indy1138 und eine weitere Person
Zurück
Oben