News Nvidia RTX-Plattform: 21 Spiele sollen Raytracing und DLSS unterstützen

pclovely schrieb:
GameWorks verschlimmbessert sogar auf interner Hardware die Framerate extrem, einige Feature kosten dabei so viel das man das kaum versteht warum.
Der Huddy hat einfach einen an der Klatsche. Erst immer am labern, dass AMD benachteiligt wird, weil sie teilweise langsamer waren und jetzt wo sich rausstellt, dass AMD Karten mit Gameworks nicht mehr langsamer sind als nVidia Karten behauptet er, dass nVidia auch sich selbst verlangsamt nur um AMD eins auszuwischen. Ich glaub der hat zu viel geraucht, wenn du mich fragst.

Früher stand da eine schwarze Box und closed, von wegen man kauft alles ein, nee man knechtet für nVidia. Das will keiner mehr.
Heute ist es jedenfalls so, dass GameWorks für Entwickler OpenSource ist und sie den Code frei nach ihrem belieben ändern und optimieren können, wenn ihnen daran etwas nicht gefällt.
https://developer.nvidia.com/gameworks-source-github

franzerich schrieb:
Ganz blick ich da aber nicht durch... weil ich mir die Frage stelle "braucht's die Raytracing Kerne wirklich?". Raytracing-Berechnungen können ja grundsätzlich auch von den herkömmlichen Shaderkernen berechnet werden, oder nicht?
Die Sache ist die. Die professionallen Karten und auch die Chips für nVidias sonstige Anwendungen, wie zum Beispiel im Automotive Bereich benötigen Spezial-Kerne für Neuronale Netze.
Du als Gamer hast jetzt das Glück/Pech die selben Chips zu bekommen, vollkommen egal ob du damit was anfangen kannst oder nicht und nVidia muss jetzt versuchen diese Kerne so gut wie mögllich im Gaming-Bereich zu nutzen oder sie würden komplett brach liegen.
Alles in Allem ist es aber schon eine Glückssache. Nicht so sehr wegen dem Raytracing, sondern hauptsächlich wegen den Neuronalen Netzen, die jetzt möglich sind und damit der verbesserten KI, besser Physik in Spielen und ähnlichen Dingen.
Ich wette mit Neuronalen Netzen lassen sich auch sehr gut Flüssigkeiten simulieren und somit auch interaktiver Rauch, Feuer und all sowas.

Ich finde, dass nVidia das eigentlich als Hauptfeature hätte vorstellen sollen anstatt dem Raytracing. Zumindest hätten sie auch einige NN Demos vorstellen sollen, finde ich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MeisterOek, pclovely, KingL und 2 andere
Affe007 schrieb:
Mal schauen wie teurer die Partnerkarten werden und wann es die zu kaufen gibt. Bis dahin werd ich mir wohl verkneifen müssen Tomb Raider anzufangen :mad:

Du kannst auch mit deiner 1080 Schlomp Raider ohne Probs zocken. Mensch, übertreibt doch nicht immer so. Als wenn die Welt untergeht.
Und ob das nun so "supertoll" mit RX was auch immer aussieht, muss sich doch erst noch zeigen. Wie auch immer.
 
Gefühlt soviel wie DX12 Spiele. Diesbezüglich ist bis jetzt nichts zur neuen NV Generation zu lesen. Wird wohl nichts mit verbesserten DX 12 Fähigkeiten in Richtung hardware unterstützten AS und anderen Aspekten die AMD schon seit einigen Generationen unterstützt.
Man wird sehen wieviel Entwickler in der breiten Masse Raytracing genauso ignorieren oder halbherzig einsetzen wie es bei DX12 der Fall ist.
 
  • Gefällt mir
Reaktionen: Genscher und m.Kobold
franzerich schrieb:
Die machen jetzt Grafikkarten, die ungefähr so aussehen:
2304 Shaderkerne + 576 Raytracingkerne extra
Die sind nicht wirklich extra, sondern integriert. Es ist nur besser zu verstehen, wenn man von RT-Cores redet.
franzerich schrieb:
Was wäre aber, wenn die einfach stattdessen 2880 Shaderkerne einpflanzen würden? Wie groß wäre dann der Unterschied dann noch? Und irgendwo hab ich gelesen, dass die Shaderkerne mit Turing "programmiert" werden können, d.h. die könnten einfach einen Teil der gewöhnlichen Shaderkerne nur für Raytracing Berechnungen programmieren - wenn sie wollen. Wo genau ist dann jetzt noch der Sinn von extra Raytracingkernen? Mir kommt das alles immer mehr wie eine Farce vor, wo in Wirklichkeit die Erneuerungen verschwindend gering sind...
Stell dir das ganze wie zusätzliche Recheneinheiten vor, die optimiert sind, Berechnungen für Raytracing schneller auszuführen, als die Shader allein.

Btw. Lesenswert: https://www.gamersnexus.net/news-pc/3354-nvidia-turing-architecture-quadro-rtx-intel-gpu
 
xexex schrieb:
Ich sehe keinen Rost, ich sehe nur wie sich die Straße im Kühlergrill spiegelt, der auf Hochglanz poliert ist. Genauso übrigens, wie das Kopfsteinpflaster in dem Schwarz-Weiß Foto von damals.
Liegt vielleicht an dem Alphastatus? Hm, mir ist da zuviel "Glanz".
Lass mal laufen, rotes Auto, mit/ohne (ab 05:00). Straßenbahn, Hochglanzfenster und dreckige Seitenwand, Sommenhimmel, Wasser auf dem Boden, ja Hydrand oder so. Mag aber auch nicht nur an Nvidia liegen, sondern BF-V Utopie.

Alle schwitzen und glänzen jetzt , die Sachen auch, alles poliert und vercromt. Wers mag, o.k., mich interessiert eher die AI von Tensor, HFMA2 TFLops, mal sehen was das bringt. Das könnte ein ganz anderer Mehrwert sein als RT in Spielen. Die Effekte sind übertrieben.
 
  • Gefällt mir
Reaktionen: stoneeh
Neronomicon schrieb:
Du kannst auch mit deiner 1080 Schlomp Raider ohne Probs zocken. Mensch, übertreibt doch nicht immer so. Als wenn die Welt untergeht.
Und ob das nun so "supertoll" mit RX was auch immer aussieht, muss sich doch erst noch zeigen. Wie auch immer.
Natürlich ist das kein Weltuntergang aber wenn ich schon 1300 Schleifen raushau will ich auch was davon haben, zumindest mehr als die 20% Mehrleistung ohne RT.
 
Affe007 schrieb:
Natürlich ist das kein Weltuntergang aber wenn ich schon 1300 Schleifen raushau will ich auch was davon haben, zumindest mehr als die 20% Mehrleistung ohne RT.
Nunja, die Shader wurden ja auch verändert. Ich wäre mit Leistungseinschätzungen noch vorsichtig. Wobei natürlich keine 100% erwartet werden sollten.
 
Wenn es diese 20% Mehrleistung überhaupt gibt!
Es ist schon merkwürdig, dass keine Benchmarks zur Pascal gezeigt wurden, das läßt eher übles erahnen.
 
  • Gefällt mir
Reaktionen: Genscher
oh shit... jetzt brauch ich doch eine
 
Also das BF5 Raytracing sieht schon cool aus. Aber deswegen kaufe ich mir keine Karte für 1000 Kartoffeln

DAS ist eine echte Augenwischerei :)

Aber muss jeder für sich entscheiden. Die 1080Ti wird sicherlich noch bis 7nm ausreichen, denn dann gibt es bestimmt schon KI mit Deep-Injection-Stronzus proprietär in Grafikkühlern
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Genscher und DonL_
Für mich kommt dieses Raytracing sehr überraschend.
Ist es möglich auch alte Spiele wie z.B. Skyrim als "Skyrim RT" zu konvertieren?
Wenn das einfach geht, macht es Bethesda bestimmt, da Skyrim sich ja gut in allen möglichen Derivaten erneut verkaufen lässt (Skyrim HD, Skyrim VR).
Und dann könnte ich auch schwach werden ...
 
24% leistungssteigerung rein rechnerisch....
Und nein... rt kommt nur in neuen Spielen.
Da ich für meine 1080er noch schön was bekomme hol ich mir die 2080er, aber ti ist mir zu teuer, bzw möchte nicht so viel geld für was ausgeben.. nächstes jahr will intel einsteigen und amd bringt ca märz seine neuen...
Und schätze die nächsten nvidia werden dann auch nochmal nächstes jahr kommen...
 
  • Gefällt mir
Reaktionen: Genscher
Ich war gerade im Palladium in Köln wo NVidia an 2080TIs Tomb Raider, Metro, Hitman, Battlefield, Resident Evil 2 und Assetto Corsa spielen lässt.

Was mir aufgefallen ist:
Die 2080TI ist die einzige Karte vor Ort. 2080er gibt es nicht zu sehen.
Alle Spiele wurden nur in FHD gezeigt. Kein 4K, kein HDR.

Tomb Raider sah nicht besser oder schlechter als der letzte Teil aus. Die Grafikoptionen waren in der Demo jedoch nicht zugänglich. In den Cutszenen gab es Artefakte. Ggf. ist die Demo zu stark komprimiert. Für eine Tech-Demo jedoch recht merkwürdig.

BFV sah nett aus aber nicht Bahnbrechend. Raytracing hebt das Spiel definitiv nicht auf eine neue Ebene. Wirklich spielen war aber nicht drin, da der Event kaum besucht ist.

Hitman war recht solide. Auch hier keine großen Sprünge zum Vorgänger.

Resident Evil 2: ist ja nur ein Remake... Sieht ganz gut aus aber im Spiegel keine Reflexion.

Assetto Corsa sieht gewohnt gut aus, auch hier kein "wow-Effekt"


Metro: Ich war erschrocken! Das Spiel sieht gut aus. Far Cry gut. Nicht mehr! Die Demo lief in DX12 auf den "Sehr Hoch" Einstellungen ohne V-Sync okay mit ~60fps (in 1080p!). Nachdem ich die Einstellungen auf Ultra gestellt hab, brach die FPS ein. Ruckeln und Drops auf 38fps...

Keine Ahnung ob es an der "Demo" liegt aber auf einem Event, der die Karte vorstellt sollte das eigentlich nicht passieren.

Generell ist mit bei den Spielen Raytracing als Besonderheit nicht wirklich aufgefallen. Alle Spiele hätten so auch vor einem Jahr auf den Markt kommen können und die Performance in HD sollte auch von einer 1060-1070 stemmbar sein. Interessanter wäre es evtl gewesen, wenn NVidia hier auch Spiele auf 4k oder VR gezeigt hätte.


Btw.: Der Event ist sehr wenig besucht und die Registrierung ist auch noch vor Ort möglich. Wer also noch Zeit hat, kann sich auf den Weg zum Palladium und sich selbst ein Bild machen.
WhatsApp Image 2018-08-21 at 12.49.27.jpegWhatsApp Image 2018-08-21 at 15.04.45 (1).jpegWhatsApp Image 2018-08-21 at 15.04.45 (2).jpegWhatsApp Image 2018-08-21 at 15.04.45.jpeg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MeisterOek, bad_sign, Genscher und 4 andere
Bin mal auf DLSS gespannt wie gut das wirkt und performt und auch wie hoch die Verbeitung sein wird.
FXAA,SMAA,TAA und co. sind halt alles nur Kompromisse und eine hohe native Auflösung ( bzw. SSAA,MSAA) frisst halt extrem Performance.

Persönlich finde ich WQHD und TAA in BF1 @ Ultra schon als ganz guten standard mit dem ich leben könnte.

Was ich mir bei Intel vorstellen könnte wenn sie den wirklich in den Consumer Gaming Berreich was anbieten ist, dass Sie propitär ihre Igpus mit DX12 nutzen um AA oder ähnliches darauf auzulagern. Intel hat das Budget hier die Hersteller entsprechend zu unterstützen, sodass so etwas im jeweiligen Spiel umgesetzt wird.
 
noxon schrieb:
Alles in Allem ist es aber schon eine Glückssache. Nicht so sehr wegen dem Raytracing, sondern hauptsächlich wegen den Neuronalen Netzen, die jetzt möglich sind und damit der verbesserten KI, besser Physik in Spielen und ähnlichen Dingen.
Ich wette mit Neuronalen Netzen lassen sich auch sehr gut Flüssigkeiten simulieren und somit auch interaktiver Rauch, Feuer und all sowas.

Ich finde, dass nVidia das eigentlich als Hauptfeature hätte vorstellen sollen anstatt dem Raytracing. Zumindest hätten sie auch einige NN Demos vorstellen sollen, finde ich.
Das bringt es auf den Punkt, genau das ist was wir brauchen. Guter Post. Blinkie haben wir schon genug.
 
Also ich freu mich schon tierisch auf die RTX! Ich gehe nämlich von exorbitanten Hashraten aus und dafür sind die einfach nur Schnäppchen! :daumen:$
 
  • Gefällt mir
Reaktionen: Ice breaker
Die Raytracing Propaganda veranstaltung von nvidia hab ich nach 20min bullshit von der Lederjacke dann doch ausgeschaltet. Noch nie war eine Ngreedia veranstaltung so uninformative, kein wunder das die typen sich mit nen NDA abgesichert haben (das CB übrigens unterschrieben hat), kritik ist unerwünscht... wundert mich das keiner im Publikum bullshit geschriehen hat, da saßen wohl nur Lemminge die zu beschäftigt waren lautstark zu jubeln.

Da wurden doch absichtlich die Beispiele mit RTX off möglichst schlecht dargestellt.

Das erste beispiel mit den Beleuchteten Raum und den 3 Kugeln auf den Boden und die eine Transparente-Glaskugel war ja wohl der oberwitz überhaupt, als könnte man ohne Raytracing keine Glaskugel Transparent darstellen.

Kein Spieledeveloper wird freiwillig diese Low Level API's nutzen und umständlich seine Spiele dafür optimieren. Jede Wette das nvidia für die 21 Vorzeigetitel richtig viel Geld fließen lassen hat und sobald der Geldhahn zugedreht wird, wird auch Raytracing nicht unterstützt weil es günstiger ist Spiele mit DX11 zu programmieren.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: dersuperpro1337, MeisterOek, Genscher und 2 andere
Toni_himbeere schrieb:
Nur das du eben mit der alten Methode scheinbar jetzt an eine obere Grenze stößt.

Wir befinden uns eben seit gestern in einer Übergangsphase die einige Jahre dauern wird.

Ich sehe das Potenzial auch bei RT. Die erste Gen werd ich aber definitiv auslassen, wahrscheinlich auch die zweite. Das liegt aber eher an meinem Spieleverhalten was wirklich eingschlafen ist.

Die Früchte von RT werden Spieler wahrscheinlich erst in 3-4 Jahren ernten wenn Spiele spürbar und insgesamt besser aussehen werden.
Stimme dir da voll zu. Aktuell hat es mich eben noch nicht überzeugt. Die Demos waren sogar manchmal noch etwas buggy, wenn z.B. Reflexionen erst nach einiger Zeit auf Oberflächen aufploppten. Auch die Entwickler werden einige Zeit brauchen um die neuen Möglichkeiten gut auszunutzen. Vielleicht wollen wir es dann irgendwann auch gar nicht mehr missen. Gerade wenn ich an manche DirectX7/8 Spiele denke, wo Schatten und Beleuchtung noch vergleichsweise primitiv waren, sieht das Bild im Vergleich zu heute irgendwie fad aus. Da wünscht man sich dann schon Umgebungsverdeckung, glitzerndes Wasser usw. zurück ^^
 
  • Gefällt mir
Reaktionen: Genscher
besseresmorgen schrieb:
Die 2080TI ist die einzige Karte vor Ort. 2080er gibt es nicht zu sehen.
Alle Spiele wurden nur in FHD gezeigt. Kein 4K, kein HDR.

...

Metro: Ich war erschrocken! Das Spiel sieht gut aus. Far Cry gut. Nicht mehr! Die Demo lief in DX12 auf den "Sehr Hoch" Einstellungen ohne V-Sync okay mit ~60fps (in 1080p!). Nachdem ich die Einstellungen auf Ultra gestellt hab, brach die FPS ein. Ruckeln und Drops auf 38fps...

Danke für die Infos direkt von der Quelle! Ich muss mich mit Youtube begnügen, und muss sagen, die einzige RTX Anwendung in den gezeigten Demos, die mir gefällt, ist die Indoor Beleuchtung in Metro.
DLSS wirkt auch vielversprechend.

Zur Leistung: erschreckend, aber auch nicht verwunderlich. Die neuen Effekte werden Resourcenfresser sein, und erst ein paar GPU-Generationen später vernünftig laufen.

Ne wunderbare Sache für Nvidia. Die Argumente für neue Hardware sind ja mit den üblichen anspruchslosen Konsolenports schön langsam am schwinden gewesen.
Nun bringt man neue Chips raus, von denen von der Rohleistung her die neue Top-Karte wieder nicht für 4K @ durchgehend >60 FPS reichen wird, weil man statt mehr Shader/TMU/ROPs den Chip mit neuem Firlefanz vollgepackt hat. Letzteres ist aber ebenfalls nicht in einer Anzahl verbaut, die für ein flüssiges Spielerlebnis nötig wären - RTX / Deep Learning sind somit eine neue, weitere Komponente, die ein kontinuierliches aufrüsten nötig macht.

Nie wieder eine Karte von dem Verein! (Die letzten beiden waren eh ne grobe Ausnahme, da Mining-finanziert.)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Genscher
Zurück
Oben