News Nvidia RTX-Plattform: 21 Spiele sollen Raytracing und DLSS unterstützen

DocWindows schrieb:
darüberhinaus wüsste ich nicht warum sich nVidia nicht an die DXR Spezifikationen halten sollte. Sie haben sie doch zusammen mit Microsoft definiert.
1534846092715.png


Die Frage wird sein, ob die Entwickler direkt mit DX12 und DXR arbeiten oder es sich einfach machen und schlichtweg GameWorks dafür nutzen werden. Im Moment gibt es ja keinen zwingenden Grund direkt DXR zu verwenden.
https://developer.nvidia.com/gameworks-ray-tracing
https://blogs.msdn.microsoft.com/directx/2018/03/19/announcing-microsoft-directx-raytracing/

Natürlich werden GameWorks Projekte später auch auf Intel oder AMD Grafikkarten laufen, sollten die beiden irgendwann mal Raytracing implementieren. Die Frage wird sein, wie gut sie dann laufen wenn GW nur auf die NVidia eigene Implementierung optimiert wird.
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Grausam wie alle Nörgler ohne feste Infos gleich über alles herziehen. Tut mir ja leid, wenn euch euer Hobby zu teuer geworden ist. Early Adopter-Technik kostet halt mehr. Das war niemals anders, vor allem nicht ohne Konkurrenz in Sicht.

All das Geheule um AMD geht mir auch auf den Zeiger. Na dann lasst euren Retter endlich einmal gute Hardware herausbringen... oh, doch nicht ... Fehlanzeige. Vorher brauchen wir nicht anfangen zu reden!

Wartet erst einmal ab, wie sich die neuen Spiele anstellen. Mir hat gestern ein Verwandter Videos von den Gamescom Live-Demos geschickt und die sahen um Welten besser aus.

Habe selbst gesuch um ähnliche über Youtube zu finden: Beispiel hier (Kamera wackelt leicht!):

Ich will Spiele, die so ausssehen. Wenn RTX und die DLSS-Technik eben diese sogar in Echtzeit ermöglicht, warum beschweren? Sobald Entwickler die Möglichkeiten sehen, werden sie garantiert umschwenken.
Du weißt aber schon, das wenn man mehr Lichtquellen ins Bild bringt, sich auch unter anderen Techniken die Ausleuchtung/Schattendarstellung ändert, oder? Das hat nV wirklich sehr schön inzeniert (genau daher applaudierte der Fanblock und der Rest fragte sich was er überhaupt mein), da fallen dann aber nur die Deppen drauf rein (die diese Aufschläge auch immer wieder mittragen) und für so blöd kann nV seine Käuferschaft nicht halten.

In dem Bild bewegt sich dann auch null, ein/zwei Objekte kostet nichts.
 
Zuletzt bearbeitet von einem Moderator:
yummycandy schrieb:
Das funktioniert wohl so: Gameworks <> RTX <-> DXR/Vulkan. Stand irgendwo auf den Dev-Seiten von nVidia.

RTX ist Hardware! Gameworks -> DXR/Vulkan -> RTX wäre richtig. Wobei Vulkan können wir zunächst einmal ausklammern, noch gibt es keine Unterstützung und wie gut Vulkan angenommen wird, konnten wir schon in vergangenen zwei Jahren sehen.
 
xexex schrieb:
Die Frage wird sein, ob die Entwickler direkt mit DX12 und DXR arbeiten oder es sich einfach machen und schlichtweg GameWorks dafür nutzen werden.

Wenn sie ihre Effekte alle selber programmieren wollen, brauchen sie Gameworks ja nicht. Dann fällt der Block eben weg. Man sieht hier ja schön wie Gameworks auf DX12 aufsetzt und wie RTX unterhalb von DX12 liegt.

Wenn ein anderer Hersteller (Intel oder AMD) sowas auch machen möchte, könnte er "seine" Effekte auch auf DX12 aufsetzen lassen, und unterhalb von DX12 eine eigene RTX-Schicht einziehen.
Das Problem für den Hersteller der das tun möchte wird nicht sein, dass nVidia oder Microsoft ihm Steine in den Weg legen, sondern dass er für das Gesamtvorhaben eine passende Chiparchitektur mit passenden Recheneinheiten und einer guten Pipeline braucht. Die API kommt da ganz zum Schluss. Das Problem ist der Block wo "Volta" drin steht.
 
pclovely schrieb:
Du weißt aber schon, das wenn man mehr Lichtquellen ins Bild bringt, sich auch unter anderen Techniken die Ausleuchtung/Schattendarstellung ändert, oder? Das hat nV wirklich sehr schön inzeniert (genau daher applaudierte der Fanblock und Rest fragte sich was er überhaupt mein), da fallen dann aber nur die Deppen drauf rein und für so blöd kann nV seine Käuferschaft nicht halten.

Ähm, so wie du es beschreibst, funktioniert Licht/Schatten nicht. Bisher mussten wir in Engines für jede Beleuchtung unzählige Lichtquellen künstlich erzeugen. Ich habe das selbst jahrelang in Unreal Engine gemacht. Ist eine Funzelarbeit, die nur für die spezielle Szene funktioniert.

Versuch du einmal einen Tag/Nacht-Wechsel in einer beliebigen ENgine deiner Wahl zu implementieren. Du wirst verrückt!

Wenn das jetzt in Echtzeit geht ohne den ganzen Aufwand, werden dir die Entwickler ein Loblied singen. Da ist nichts mit blöd oder "inszeniert". Als Designer stehen dir damit alle Möglichkeiten offen. Was glaubst du passiert in zukünftigen Titeln wie Alan Wake damals, wenn sie solche Technik haben.

pclovely schrieb:
In dem Bild bewegt sich dann auch null, ein Objekt kostet nichts.

Vielleicht erleuterst du uns, was du mit "Objekt kostet nichts" genau meinst. Das Bild muss immer noch rasterisiert werden.

Es geht nicht um die Objekte, sondern um die Lichtbrechung, Lichtverteilung und realistischer Schattenwurf und die simulierte Interaktion.
 
  • Gefällt mir
Reaktionen: indy1138 und xexex
canada schrieb:
Entweder sind >200 Watt zu viel oder nicht und nicht mal so oder so. Manchmal blickt man hier nicht mehr durch ...
ich würde sagen das ist relativ, ich würde das an Leistung pro Watt bzw. Effizienz knüpfen :)
Eine GPU die 200 Watt benötigt dafür aber auch Leistung "FPS" bringt (zbsp 100), ist besser als eine GPU die ebenfalls 200 Watt verbraucht aber weniger leistet (zbsp 50).
 
thehintsch schrieb:
Genau der Punkt ist es auch, warum die Präsentation für mich so langweilig war. Sicher ist das technisch interessant, dass man jetzt auch Raytracing in Echtzeit machen kann. Aber mit den ganzen Tricks die man bisher angewendet hat, sah es doch auch schon nicht so schlecht aus. Die gezeigten vorher/nachher Vergleiche waren dann auch schon immer "ohne Tricks", sodass man überhaupt sehen kann was das nun bringen soll.
Durchsetzen wird es sich wohl. Schließlich muss man dann X Leute weniger bezahlen, die diese ganzen Tricks, Texturen und Beleuchtungseffekte programmieren, sondern wälzt das auf die Hardware und damit auf den Geldbeutel des Kunden ab :D Und wir dürfen uns darüber freuen, dass der explodierende Panzer über die Pfütze, zum Auto, zur Fensterscheibe, auf 3x3 Pixel für 2 Frames in die Augen unseres Mitspielers in BF5 reflektiert wird ^^


Nur das du eben mit der alten Methode scheinbar jetzt an eine obere Grenze stößt. Scheinbar ist da nichtmehr soviel Wachstum in der Leistung möglich... denn wäre es das, hätten sie dieses genutzt. 4k läuft noch lange nicht rund und bedarf an höherer Rohleistung ist definitiv mehr als vorhanden, von HDR noch garnicht gesprochen oder VR.

Nvidia geht ja nicht umsonst das Risiko mit dem RT aktuell ein(ja das ist ein Risiko). Die sind dazu schon mehr oder minder gezwungen weil sie die aktuelle FPS Leistung nicht wie gewünscht gesteigert bekommen. Ist doch bei CPU´s das selbe. Da geht beim Takt scheinbar nicht mehr viel, also ist die Weiterentwicklung "mehr" Kerne.

So wechselt man eben auf eine Gesamt bessere Berechnungsmethode nutzt über die Hybridkarten beides. Ich denke das Wachstum der nächsten Generationen wird größtenteils nur noch über RT erfolgen. Dort wird man wahrscheinlich viel Potential sehen. Hybrid kostet einfach viel, ist immer so. Möglicherweise hätte man eine Zusatzkarte für reines RT rausbringen können, aber nach über 2 Jahren erwarten (und das nicht zu unrecht) die Kunden einfach was Gesamt neues.

Hintenraus glaube ich eh dass sie eine GTX 2060 mit 8gb für 300-350Euro raushauen, welche eine Leistung der 1080GTX bietet. Vielleicht geht es ja über dieses Link System auch wirklich wieder besser mit 2 Grafikkarten? Das allein reicht dann auch schon um AMD den Wind aus den Segeln zu nehmen. Und allein ein 2.1 HDMI Anschluss an einer 2060 gtx mit guter Leistung(PReis/Leistungsverhältnis ist ein Kaufargument.
Wir befinden uns eben seit gestern in einer Übergangsphase die einige Jahre dauern wird.

Ich sehe das Potenzial auch bei RT. Ich bin von RT wirklich sehr begeistert. Die erste Gen werd ich aber definitiv auslassen, wahrscheinlich auch die zweite. Das liegt aber eher an meinem Spieleverhalten was wirklich eingschlafen ist.

Die Früchte von RT werden Spieler wahrscheinlich erst in 3-4 Jahren ernten wenn Spiele spürbar und insgesamt besser aussehen werden. Die RTX Vorstellung gestern ist sowas wie ein 85" TV für 70.000Euro... die gibts und die muss es auch geben aber nur wenige wollen und können es sich leisten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
Hardware_Hoshi schrieb:
Vielleicht erleuterst du uns, was du mit "Objekt kostet nichts" genau meinst. Das Bild muss immer noch rasterisiert werden.

Es geht nicht um die Objekte, sondern um die Lichtbrechung, Lichtverteilung und realistischer Schattenwurf und die simulierte Interaktion.
Die Rasterisation RT Methode bildet Objekte in 2D Ebenen ab, was sehr wenig kostet und genau das hat er mit Hybrid RT angesprochen. Algorithmen berechnen dann den Farbwert jedes Pixels (das durch benachbarte Pixel beeinflusst werden kann) nach. Das kostet Rechenleistung und die Speicherung Ressourcen, wenn das nicht gemacht wird sieht es nicht überzeugend aus, z.Bsp. auch denn wenn man es nur auf bestimmte Bildinhalte anwendet und nicht Global.

Erleuchte dich selbst, RT macht es möglich.
 
Hardware_Hoshi schrieb:
Grausam wie alle Nörgler ohne feste Infos gleich über alles herziehen.
Aber ehrlich. Alles Kacke, Braucht doch keiner. Alles langsam. Geht auch ohne.
Was soll der Blödsinn eigentlich? All den Nörglern sollte später echt verboten werden die Spiele zu spielen, die von den neuen Techniken profitieren.

Anstatt, dass hier gerade mal wieder nur eine 30% schnellere Karte auf den Markt geschmissen wird, gibt es jetzt endlich mal einen Technologiesprung nach vorne und alles was hier passiert ist Genörgle und Gemeckere. Stattdessen sollte man sich vielleicht auch mal mehr mit dem Potanzial auseinanderzusetzen, dass daraus entsteht. Dann merkt man auch mal, dass da weitaus mehr möglich sein wird als nur Raytracing und DLSS.

Hey Leute. Wie haben jetzt Neuronale Netze in den GPUs HALLOOOOO!!!

All das Geheule um AMD geht mir auch auf den Zeiger. Na dann lasst euren Retter endlich einmal gute Hardware herausbringen... oh, doch nicht ... Fehlanzeige. Vorher brauchen wir nicht anfangen zu reden!
Habe fast den Eindruck es liegt wieder an so einer AMD vs nVidia Geschichte.
Als AMD Fan darf man ja nicht zugeben, dass nVidia hier was tolles auf den Markt gebracht hat.
Erst wenn AMD seine Karten rausbringt, dann wird's wahrscheinlich ein brauchbares Feature.

Hier wird immer so getan, als ob es was Schlechtes wäre, wenn nVidia in Zusammenarbeit mit Microsoft und Spieleentwicklern Entwicklungsarbeit in neue Features steckt. Dabei sind es doch wir als Gamer, die letztendlich davon profitieren.

EDIT (nach deinem Like. weiß nicht, ob du den Beitrag immer noch so toll findest. :)
xexex schrieb:
Die Frage wird sein, ob die Entwickler direkt mit DX12 und DXR arbeiten oder es sich einfach machen und schlichtweg GameWorks dafür nutzen werden. Im Moment gibt es ja keinen zwingenden Grund direkt DXR zu verwenden.
Gameworks ist ja letztendlich wieder nur eine Middleware wie jede Andere. Entwickler setzen ständig Middlewares für alles mögliche ein. Diese stammt von nVidia und im Gegensatz zu dem was viele meinen läuft die auf AMD Karten auch nicht zwangsläufig schlechter, zumal der Sourcecode von Gameworks offen liegt und vom Entwickler frei nach belieben verändert werden kann.
Die meisten werden aber dennoch auf normales DirectX zurückgreifen, weil sie nicht einfach die fertigen Effekte von nvidia nutzen wollen. Da wird sich zum aktuellen Zustand wohl kaum etwas ändern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
DocWindows schrieb:
Wenn sie ihre Effekte alle selber programmieren wollen, brauchen sie Gameworks ja nicht.

Das ist richtig! Die Frage ist wer etwas selbst programmieren will, wenn er viel schneller auf ein Toolkit zugreifen kann, vor allem wenn es derzeit sowieso nur einen Hersteller gibt.
 
noxon schrieb:
Als AMD Fan darf man ja nicht zugeben, dass nVidia hier was tolles auf den Markt gebracht hat.

Ja, 30 FPS auf FHD mit RayTracing auf einer 2080 Ti sind wirklich toll. Da musste ich nun wirklich lachen.
 
asgaard schrieb:
Battlefield V - OK das wars für mich. cu Battlefield ich bleibe endgültig beim alten WoW.

keine lust auf neue Hardware wegen einem Game .... macht nichts wer weis wozu es gut ist !
hahahah, also ich bin felsenfest davon überzeugt dass BF5 auch auf deiner 1080 laufen wird, genauso wie auch auf meiner 980ti ;)
 
@Hardware_Hoshi
Viedo was glaubst du, achte auf die Helligkeitsverläufe!

Das ruckelt mit 10fps vor sich hin.
 
Aldaric87 schrieb:
Ja, 30 FPS auf FHD mit RayTracing auf einer 2080 Ti sind wirklich toll. Da musste ich nun wirklich lachen.
Und du hast meinen Beitrag nachweislich nicht verstanden.

Abgesehen davon ist deine Kritik komplett aussagslos, da du nicht weiß wie hoch die Performance ohne Raytracing-Berechnungen ist.
Vielleicht läuft das Spiel ohne RT auch nur mit 30 fps, weil die Schatten- und Lichtberechnungen auf herkömmliche Art auch nicht effizienter sind. Schließlich sollen es Ultra-Settings sein und da laufen Spiele nunmal auch sehr langsam. Selbst gerastert.

@pclovely
Ich bin auch mal gespannt, wie das bei scnellen Bewegungen abläuft.
Das Neuronale Netz wird ja immer einige Zeit benötigen um das Bild korrekt zu berechnen und für schnelle Shooter wird das dann nicht funktionieren.
Zumindest nicht, wenn das NN nicht mindestens mit einer vielfachen Framerate der tatsächlichen Spielframerate rendert und dann nochmal in 64-facher Ausfertigung.
 
Zuletzt bearbeitet:
Zurück
Oben