News Nvidia RTX-Plattform: 21 Spiele sollen Raytracing und DLSS unterstützen

eLdroZe schrieb:
Ich war früher gegen nVidia, heute sieht das anders aus.
und was hat deine Meinung geändert? das nicht abzusehen ist, wann Nvidia endlich keine künstliche Bremsen für andere auslegt, weil die ganzen Käufer nur noch auf FPS Diagramme kucken und Nvidia wie auch Apple die Kassen füllen egal wie sie verarscht werden? Siehe 970 VRAM "Kommunikationsproblem" oder DX12 Funktionen, die gar nicht existieren.

ich find die ungeraden VRAM Zahlen sind wie immer komisch, warum kein 2^x ... wenn das nicht wie bei den 756 MB damals Probleme bringt, weil die games angenommen haben, sie hätten 1 GB
 
Zuletzt bearbeitet:
Wahnsinn, was sich hier an Miesepetern rumtummelt... ich bin beileibe kein Nvidia-Fan, aber was die hier zusammengeschustert haben, verdient ein bisschen Anerkennung. Man könnte fast von Zäsur sprechen - ab dieser Generation wird sich die Grafikwelt definitiv verändern. Generation 1 - und vermutlich auch die danach - wird natürlich mit den typischen Kinderkrankheiten zu kämpfen haben. Diese Architektur bzw. Technik wird jetzt jedoch für die nächste lange Zeit maßgebend werden. Man darf gespannt sein, wie AMD reagiert. Mit anderen Worten: in 5-10 Jahren kauf ich mir dann auch mal so ein Teil :D

Davon ab ist Raytracing keine "Verkünstelung", es ist die "realere" Form der Lichtsimulation, die entsprechend realistischere Bilder erzeugt. Jetzt verlangt es erst recht richtig guter Texturen und Materials, dies auch umzusetzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Neo1179, Wintermute, Transistor 22 und 4 andere
aivazi schrieb:
Die ARK Entwickler dazu bringen kein DX 12 Update zu bringen, weil DX 12 auf Nvidia immer noch nicht funktioniert ?

Hast du dafür einen Beweis oder ist das nur eine lustige Verschwörungstheorie?
aivazi schrieb:
Aber dafür mit Sinnlosem EXKLUSIVEM Deep Learning AA Mist ausstatten den keiner je brauchen wird....................

Warum sollte man das nicht brauchen können?
Wenn das von den Tensor Cores berechnet wird und die Shader/Compute somit entlastet werden können, kann das durchaus zu Effizienzgewinnen führen.

aivazi schrieb:
Wirklich grandios. Ich krieg immer mehr das Bedürfnis die Zuständigen bei Nvidia in einen Brunnen zu werfen.

Und das dämliche Gehate von einigen geht eindeutig zu weit und auf keine Kuhhaut mehr.
 
  • Gefällt mir
Reaktionen: Neo1179, Hardware_Hoshi, ZeusTheGod und 2 andere
Ich bin grundsetzlich gegen jede proprietäre Technologie. Egal ob die den Markt theoretisch voranbringen könnte oder nicht. Somit kann mir RTX komplett gestohlen bleiben und ich hoffe das die Implementierung in jedem Spiel nur halbgar sein wird wie damals bei PhysX.
Wenn das Ganze wenigstens das Pendant von DX12 nutzen würden wäre es ja nicht so schlecht. Aber so ist das einfach eine Katastrophe. In spätestens 10 Jahren wird PC spielen nichts anderes sein als heute bei den Konsolen.
NVIDIA mit 100% Anteil bei Gaming Karten und die Spiele funktionieren auch nur noch auf diesen.
Somit macht es dann keinen Unterschied mehr ob man eine Konsole hat oder einen PC da die Abgeschlossenheit genau gleich ist. (Bis auf den Zusatznutzen des PCs abseits von Gaming)
 
Zuletzt bearbeitet:
duskstalker schrieb:
abgesehen davon, ist das raytracing von nvidia schon relativ überzeugend. das problem an der sache ist halt, dass der quark proprietär bis zum anschlag ist. das ist software + hardware.

Richtig, Microsoft, Directx12 ist proprietär, Nvidias RTX ist hingegen nur deren Lösung für Raytracing unter Directx12. AMD hat darauf aber genauso Zugriff und wird das eben auf deren Weise berechnen.
Der Radeon Treiber wird auch in Bälde Microsofts DXR unterstützen, wie performant, wird man sehen müssen.

Bevor du uns wieder dein Unwissen präsentierst, könntest du vielleicht erst einmal die Zusammenhänge grob recherchieren.
 
  • Gefällt mir
Reaktionen: Neo1179, Hardware_Hoshi und ZeusTheGod
NVIDIA The Money Makers.
So jetzt müssen wir uns alle schnell die neuen Karten kaufen um in den genuss der neuen supergrafik zu kommen.
Ihr habt euch gerade eine 800€ 1080ti gekauft , egal.
 
  • Gefällt mir
Reaktionen: Piter73
Ludwig55 schrieb:
Hast du dafür einen Beweis oder ist das nur eine lustige Verschwörungstheorie?

Was hätte Nvidia damals von DX 12 gehabt ? Nichts, weil die Konkurrenz profitiert !
Was hat Nvidia von einem proprietären AA Technik die an ihre Software und Hardware gebunden ist ?
höhere Verkaufszahlen die nur dazu dienen das Nvidia Ökosystem zu vergrößern und ALLEN Konkurrenten absolut ausnahmslos zu schaden.

Das ist auch keine Theorie sondern FAKT, dass das ARK DX 12 Update wegen Nvidia verzögert wurde. Der letzte Stand war Oktober 2016 und seitdem kam kein Update mehr bezüglich ARK und DX 12.
Nur Content Updates, aber keine neue API. Es gab nichtmal mehr ein Statement, die haben das einfach Totgeschwiegen.

Stattdessen haben sie es geschafft Ansel und DLSS einzubauen... Spricht das keine Bände für dich ??

Warum sollte man das nicht brauchen können?
Wenn das von den Tensor Cores berechnet wird und die Shader/Compute somit entlastet werden können, kann das durchaus zu Effizienzgewinnen führen.

Dieses Raytracing Zeug ist doch selbst eine super Sache gegen die ich absolut gar nichts habe, sobald es aber Proprietär wird, hat man nichts davon.
Deswegen hatte ich auch nie Physx, kein G-Sync oder den damaligen Nvidia 3D Mist, den die sich haben einfallen lassen... Es geht nur darum imaginäre Vorteile in die Hardware zu bauen und das stößt mir richtig sauer auf.

Edit: Es gibt doch noch mindestens 20 Hampel hier im Forum die der Felsenfesten Überzeugung sind, dass G-Sync gegenüber Freesync irgendwelche Vorteile hat. Obwohl es Dutzende Tests gibt, die höchstens einen unterschied im Milisekunden Bereich nachweisen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne, Ginmarr, Karl S. und 2 andere
@Ludwig55 Du kannst dir sicher sein das sich NVIDIA mit RTX nicht genau an die DX12 Schnittstelle halten wird. Das haben sie schon bei DX11 nicht gemacht und bei Gameworks wurden auch immer künstliche Bremsen für die Konkurrenz eingebaut, mit null Mehrwert für die Spieler. Kein Gameworks Spiel hat besser ausgesehen als Spiele ohne Gameworks.

RTX wird höchstwahrscheinlich einfach in ihren Gameworks Katalog implementiert und so ausgelegt das es nur auf ihren Karten performant läuft. Das ist zwar logisch, aber für den PC-Gaming Markt der Weg in den Untergang.
 
  • Gefällt mir
Reaktionen: Karl S., Piter73 und aivazi
aivazi schrieb:
Aber dafür mit Sinnlosem EXKLUSIVEM Deep Learning AA Mist ausstatten den keiner je brauchen wird....................
Ja hast recht. 4K Monitore und VR haben wirklich keine Zukunft. Wer braucht da schon hohe Auflösungen die man mit geringem Rechenaufwand erzielen kann? Kein Mensch. Checkerboard Rendering ist da genau so eine sinnlos Erfindung.

Und was hast du für ein Problem mit deinem EXKLUSIV? DirectML ist ein Teil von DX12. Damit kann jeder das so implementieren wie er es gerne möchte.
FXAA war damals auch eine AA Implementation von nVidia und wurde auch zusammen mit einer neuen Grafikkarte vorgestellt. Das heißt also noch lange nicht, dass DLAA exklusiv ist und selbst wenn, dann gibt es ohnehin nicht nur eine Lösung DL Upscaling zu betreiben. Genau wie bei AA Algorithmen wird es nachher eine ganze Reihe von Algorithmen geben und einige Entwickler werden sogar ihre ganz individuellen Verfahren schreiben anstatt irgendwelche vorgefertigten zu nehmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeusTheGod und Ludwig55
aivazi schrieb:
Was hätte Nvidia damals von DX 12 gehabt ? Nichts, weil die Konkurrenz profitiert !

Ach und du kannst dir nicht vorstellen dass bei einer geringeren Directx12 Verbreitung und der Schwierigkeiten diesbezüglich, schau dir mal BF 1 damit an, es einfach zu Problemen was die Umsetzung anbelangt, geführt hat und man sich deshalb entschied es noch nicht oder nicht einzuführen?
Ist eine Verschwörungstheorie denn wirklich so naheliegend? Ich denke kaum.

Was hat Nvidia von einem proprietären AA Technik die an ihre Software und Hardware gebunden ist ?

Was hatte AMD vom proprietären Mantle, Shader Intrinics in Wolfenstein/Doom, RapidPackedMath, Primitive Shader?
AMD hatte auch schon desöfteren eigene AA Techniken, die es bei Nvidia nicht gab, also "proprietär".
Was soll das Problem daran sein, kannst du das bitte logisch ausführen?
Weil du es einfach nicht magst, oder gibt es da konkrete Argumente dafür?

Dieses Raytracing Zeug ist doch selbst eine super Sache gegen die ich absolut gar nichts habe, sobald es aber Proprietär wird, hat man nichts davon.

Es ist Teil der Directx12 DXR API und proprietär, aber ausgehend von Microsoft und nicht von Nvidia.
AMD beherrscht das genauso, sie brauchen dafür nur einen neuen Treiber.
Die Bestrebungen von DXR in Directx12 gab es schon vor 2 Jahren mit AMD, Nvidia und MS im Boot.
Nebenbei wird das ganze auch untere Vulkan laufen.

 
Ludwig55 schrieb:
Wenn das von den Tensor Cores berechnet wird und die Shader/Compute somit entlastet werden können, kann das durchaus zu Effizienzgewinnen führen.
Man muss klar bedenken das es eine virtuelle Technologie ist, die in Echtzeit das Bild realitätsnäher darstellen kann. Man darf es damit aber auch nicht übertreiben, weil es dann unnatürlich aussehen kann.

Ich würde mal sagen an den Preisen tut sich noch was, seit 14. ist nV-Aktie um 18$ gefallen, scheint so als meinen die Analysten die Preise sind zu hoch und man verkauft so zu wenig. Langzeitbewertungen nur noch auf Mittel.

Die Lieferbarkeit von "Bigmama" ist anfänglich sicher auch noch nicht gegeben. Streiten muss man sich deshalb nicht.

RT ist nicht proprietär sondern Nvidias Schnittstelle kann es sein. DxR ist d3d12 und wie NVDLA sind dazu Dokumentationen auf GitHub einzusehen, mit Open Lizenz und offener Community.

Closed ist eher dieser Bereich: https://developer.nvidia.com/gameworks-ray-tracing
 
Zuletzt bearbeitet von einem Moderator:
Dekstar schrieb:
Ich bin mir auch ziemlich sicher, dass die Szenen stark pro Raytracing "optimiert" wurden. Die Szenen ohne Raytracing sollten bewusst deutlich schlechter aussehen, obwohl sie ohne Raytracing nicht so schlecht (keine Reflexionen) aussehen hätten müssen. Also: "Trau keiner Statistik, die du nicht selbst gefälscht hast."
Sieht man gut hier, das hat BF1 als Vorgänger schon besser mit der Glasspiegelung herkömmlichen Technik hin bekommen.
 

Anhänge

  • snip_20180821002207.png
    snip_20180821002207.png
    2,6 MB · Aufrufe: 807
  • Gefällt mir
Reaktionen: Dekstar
Steini1990 schrieb:
@Ludwig55 Du kannst dir sicher sein das sich NVIDIA mit RTX nicht genau an die DX12 Schnittstelle halten wird.

Was verstehst du denn unter einer Directx12 Schnittstelle?
Warum sollten sie sich daran denn nicht halten? Und wo werden sie das nicht tun?

Steini1990 schrieb:
@Ludwig55 Das haben sie schon bei DX11 nicht gemacht und bei Gameworks wurden auch immer künstliche Bremsen für die Konkurrenz eingebaut, mit null Mehrwert für die Spieler. Kein Gameworks Spiel hat besser ausgesehen als Spiele ohne Gameworks.

Da fällst du leider auf Desinformanten herein, die sich ihr Zerrbild der Realität zurechtbiegen.
Künstliche Bremsen für die Konkurrenz existieren nicht, es gibt nur unterschiedliche Lösungen für ein und dasselbe Problem.
Und wenn kein Spiel ohne Gameworks schlechter ausgesehen hat als mit, ist das lediglich deine persönliche Meinung und entspricht keinem Faktum, aber man bräuchte alleine nur mal HBOA+ nennen, was unter objektiven Gesichtspunkten bereits eine realistischere Umgebungsverdeckung bietet, Turv oder Godrays mal gar nicht erwähnt.

RTX wird höchstwahrscheinlich einfach in ihren Gameworks Katalog implementiert und so ausgelegt das es nur auf ihren Karten performant läuft.

Was zu beweisen wäre, auch bezüglich Gameworks.
Vorher sind das alles ungelegte Eier, Verschwörungstheorien oder Stammtischgelaber.
 
  • Gefällt mir
Reaktionen: ZeusTheGod und noxon
Ludwig55 schrieb:
Ach und du kannst dir nicht vorstellen dass bei einer geringeren Directx12 Verbreitung und der Schwierigkeiten diesbezüglich, schau dir mal BF 1 damit an, es einfach zu Problemen was die Umsetzung anbelangt, geführt hat und man sich deshalb entschied es noch nicht oder nicht einzuführen?
Ist eine Verschwörungstheorie denn wirklich so naheliegend? Ich denke kaum.

Das der Marktführer mit mehr Anteilen eine API nichts annehmen will, die der Konkurrenz Vorteile beschert ist also eine Verschwörungstheorie ?? Das ist ziemlich logisch, aber eben Scheiße, weil es dem Kunden nichts bringt.
Nur eben Nvidia. Der Kunde hat nichts davon. Gar nichts, was war nochmal diese freie Marktwirtschaft ? inzwischen ist man ja in den Fängen Nvidias...

Was hatte AMD vom proprietären Mantle, Shader Intrinics in Wolfenstein/Doom, RapidPackedMath, Primitive Shader?
AMD hatte auch schon desöfteren eigene AA Techniken, die es bei Nvidia nicht gab, also "proprietär".
Was soll das Problem daran sein, kannst du das bitte logisch ausführen?
Weil du es einfach nicht magst, oder gibt es da konkrete Argumente dafür?


Dir ist klar, dass aus Mantle, Vulkan geworden ist ? also wurde aus einer "proprietären" API eine offene namens Vulkan ?
Oder eben HUMA such dir irgendeine Technik aus. AMD macht das zumindest zugänglich für die Öffentlichkeit. Selbst HBM ?????? also wirklich. Nvidia hat von HBM wahrscheinlich inzwischen mehr profitiert als AMD selbst, obwohl die das mit Micron entwickelt haben.
Nvidia fördert nur proprietäre Techniken und die eigenen Ökosysteme, wenn man darauf steht, soll man sich eben von ihnen Geiseln lassen.

Zeige mir bitte ein Gegenbeispiel, bei dem eine Nvidiatechnik im nachhinein offen wurde.
Selbst Tress FX haben die geklaut und als Hairworks mit 64 Facher Tesselation neuinterpretiert.
Die haben einfach überhaupt keine Scheu.

Also nenne mir mal bitte ein Konkretes Beispiel, bei dem Nvidia dem Markt geholfen und nicht geschadet hat...

Ergänzung ()

canada schrieb:
Sieht man gut hier, das hat BF1 als Vorgänger schon besser mit der Glasspiegelung herkömmlichen Technik hin bekommen.

Für diese Option gibt es in GTA 5 eine Kantenglättungsoption für Reflexionen, ebenso wie eine Detailstufe für Reflexionen, das ist einfach ein Überzogenes Nvidia Beispiel, mit der Reflexionsstufe -1 unter Niedrig. Um zu zeigen, dass ihr neues Feature funkelt.
 
  • Gefällt mir
Reaktionen: joomoo, Piter73, Dekstar und eine weitere Person
Wenn AMD über EGPU Rendering auch auf Cuda Feature zugreifen darf, kann nicht alles nur rein nV proprietär sein. Sonst würden sie das nicht tun.

Jetzt wird jeder sehen das er was zurecht gebastelt bekommt, damit man den Markt mit RT pusht. NVidia machte den Anfang. Bis d3m RT kommt werden alle fertig sein. Dann werden wir sehen.

Eigene Benchmarks wird man sowieso optimieren bis auf Teufel komm raus damit alles rund läuft und es gut aussieht. Die sind nichts wert um zu bemessen wer wo steht.
 
canada schrieb:
Sieht man gut hier, das hat BF1 als Vorgänger schon besser mit der Glasspiegelung herkömmlichen Technik hin bekommen.
Abgesehen davon dass die Reflexionen entweder stark gefakt waren (Cubemaps, Screenspace) oder dass die Reflexion nur auf einer planaren Fläche funktioniert hat.
 
DeusoftheWired schrieb:
Ein Gefühl sagt mir, daß je stärker Exklusivmerkmale wie diese in den Vordergrund gestellt werden, umso schwächer der Anreiz durch Benchmarkergebnisse sein wird.
Geht mit genauso, keine Vorabinfos mit wieviel (Mehr)Leistung die Karten unterwegs sind. Zuviel Stellenwert auf spezielle Futures und zuwenig auf die tatsächliche Leistung. Die "Vorbesteller" werden sich noch wundern, wie wenig Leistung diese überteuerten Karten haben werden.

Allein die Tatsache, dass sich der Takt wohl in ähnlichen Regionen wie die alte Generation befindet, lässt Böses erahnen...
 
  • Gefällt mir
Reaktionen: Dark Matter
Nai schrieb:
Abgesehen davon dass die Reflexionen entweder stark gefakt waren (Cubemaps, Screenspace) oder dass die Reflexion nur auf einer planaren Fläche funktioniert hat.
Ist auch abhängig von der Engine, sieh es dir bei RotTR mal an, die Foundation Engine beherrscht schon Physically Based Rendering, so wie viele andere Engines auch.

Teile der Beleuchtung und Schatten werden nicht mehr dynamisch dargestellt, sondern backend z.Bsp. mit Image Based Lighting und das sieht wirklich gut aus, wenn die Power vorhanden ist und wirkt auch auf Oberflächen. Adaptives Tommapping und andere Feature tragen dabei auch zur "Aufhübschung" bei. Es gibt also auch schon Ansätze der Entwickler mit adaptivem Tone-Mapping, volumetrische Beleuchtung, Screen Glare, SSAO, Screen Space Reflection, Post-Processing, Colour-Grading, Motion Blur und Tiefenschärfe. Sicher auch einiges das nV mitentwickelt hat.

Die Entwickler schlafen auch nicht. Mal sehen was dort RT bringt. RTX ist backend.
 
MechWarrior 5: Mercenaries (Piranha Games)
Mist, hoffentlich wird die 2060 eine RTX :D

Der Rest der Liste ist Trippel-A Quark.
 
Zurück
Oben