News Nvidia RTX-Plattform: 21 Spiele sollen Raytracing und DLSS unterstützen

@m.Kobold
Wäre eventuell sinnvoll gewesen länger als 20min zuzuschauen. Dann hättest dir den Post sparen können und eventuell verstanden was Raytracing macht. ;)
Was das übrigens mit der NDA zu tun haben soll, darfst du gerne ausführlich hier erläutern.
 
eLdroZe schrieb:
Wie alle wieder heulen weil nVidia Fortschritt und neues bringt, was halt exklusiv ist. Ja, sie wollen sich eben mit Eigenheiten vom Markt abheben.

Nichts für ungut aber proprietäre Technik ist kein Fortschritt.
Im Gegenteil, das behindert sogar den Fortschritt.

Fortschritt kommt immer von den anderen: Mantle, HSA, Freesync .....
Nvidia geht der Fortschritt doch am A.. vorbei.
Oder, um es mit dem Worten von Linus zu sagen "F*** NVidia !"
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil
@Phear
Vielleicht hast du Raytracing nicht verstanden, ich schon... und ich bin überhaupt nicht beeindruckt von den Techdemos und den Spielen die das unterstützen.

Ich will mir keine neue Ti für VR kaufen, die nur für gekaufte nvidia Titel Leistung bringt.
Aber du kannst ja gerne das Raytracing hypen bis zum umfallen, wenn es dich glücklich macht.
 
  • Gefällt mir
Reaktionen: Ice breaker
Faust2011 schrieb:
Bei MSAA kann ein Entwickler nichts beeinflussen. Das ist einfach ein Algorithmus, der entscheidet, ob denn nun eine Kante ein Pixel "stark genug überdeckt" oder nicht und damit letztlich darzustellen ist oder eben nicht.

Bei DLSS wäre für mich dann eher die Frage, wer hier das neuronale Netzwerk trainiert. Liegen Trainingsdaten dann im Nvidiatreiber? Oder passiert das on-the-fly? Oder braucht man gar einen Live Internetverbindung zum Nvidia-Server währende des Spielens? Letzteres wäre für mich ein absolutes No-Go :o:rolleyes:

Das mit dem DLSS hab ich mich auch gefragt ob man quasi in der Cloud rendern lässt. Wäre für mich auch ein no go weil wenn jeder das nutzten würde könnte ich mir vorstellen das nvidias Server das nicht mehr stemmen werden. Naja ich werde einfach abwarten wie immer und erst kaufen wenn es sinnvoll für mich ist.
 
Wenn jetzt keine Titan kommt dann dürfte die nächste in 7nm sein. Aber ich würde mir da keine Hoffnung machen dass vor Q3 2019 iwas kommt.
 
Ja genau.
Die supersampeln in der Cloud. Das ist Sinn der Sache die Tensor Kerne lokal in die GPU zu packen. :rolleyes:

@Hauwexis
Raytracing funktioniert auch heute schon wunderbar
http://roar11.com/2015/07/screen-space-glossy-reflections/

Allerdings ist es ein Postprocessing-Effekt und das hat zur Folge, dass es nicht mehr funktioniert, sobald es nicht mehr auf dem Monitor zu sehen ist. Alle Objekte die du nicht mehr siehst erzeugen also keine oder merkwürdige Reflektionen mehr.
Das hingegen funktioniert mit "richtigem" Raytracing wie es jetzt mit DXR möglich ist. Damit könntest du zum Beipsiel Reflektionen einer Person in Objekten erkennen, die sich von der Seite annähert noch bevor sie im sichtbaren Bereich des Bildes erscheint.
Momentan ist das nicht der Fall. Da merkst du erst, dass sich etwas von ser Seite nähert, wenn es bereits auf dem Monitor sichtbar ist. Erst dann siehst du auch dessen Reflektionen in den Objekten.
Das ganze hat letztendlich gameplaytecnische Implikationen und dient nicht nur zur grafischen Verbesserung.
 
Zuletzt bearbeitet:
m.Kobold schrieb:
Die Raytracing Propaganda veranstaltung von nvidia hab ich nach 20min bullshit von der Lederjacke dann doch ausgeschaltet. Noch nie war eine Ngreedia veranstaltung so uninformative,

So kam es mir auch vor. ich hab noch länger zugeschaut und es kam mir vor wie eine Marketing Veranstalltung. Ein Endloses bla bla von "irgendwas geilem".
Ich musste ja lachen, wo nach der Star Wars Demo keiner geklatscht hat und der Herr erst die Leute aufgefordert hat zu klatschen nach...das war doch woah...:freaky::D
 
  • Gefällt mir
Reaktionen: MeisterOek, McTheRipper, Ice breaker und 2 andere
yummycandy schrieb:
Gemunkelt wird, daß die schneller kommt als man denkt.

Gemunkelt wurde vieles!
Noch die letzten Monate haben die Nvidia Jünger steif und fest behauptet, dass die neue Generation mind. 50% Mehrleistung zur jetzigen Pascal Generation haben wird.
Ich lasse mich am 20. September überraschen, würde aber Geld darauf verwetten, dass es nichtmal 20% werden ohne Raytracing!
 
50% zu was ist die Frage und wenn NV nicht über 25% der Fläche einfach so versenkt hätte...

NV schaft es bei mir im Moment die grottige Vega-vorstellung deutlich zu unterbieten. Bliebt nur zu hoffen, dass 7nm bei AMD richtig läuft und die Grafikabteilung nach dem Kahlschlag für ZEN wieder Mittel bekommt.
 
  • Gefällt mir
Reaktionen: yummycandy und Krautmaster
LOLinger78 schrieb:
Nichts für ungut aber proprietäre Technik ist kein Fortschritt.
Im Gegenteil, das behindert sogar den Fortschritt.

Wieso? Weil sie ihr eigenes Ding durchziehen und ihre Technik nicht kostenlos jedem zur Verfügung stellen? Würdest du ganz bestimmt auch nicht machen wenn du quasi Marktführer wärst.

Euch nervt es doch nur das ihr euch zwischen zwei Dingen entscheiden müsst. Mir ist es egal, ich kaufe das was mich gerade am meisten Anspricht, AMD oder nVidia, wurscht, gibt ja nicht arg viel mehr Auswahl. Und wenn bei AMD die Leistung nicht stimmt, kaufe ich nVidia. Und wenn ich schon nVidia habe, kann ich auch deren Vorteile nutzen. Kostet zwar etwas mehr aber dafür läuft (zumindest bei mir) alles mehr als gut. ;) WQHD@144Hz@G-Sync = Beste was ich je zuhause hatte.

Das war mit meinen ATI/AMD Karten davor nicht immer der Fall und ich war vor der 1070 IMMER ein ATI/AMD Mensch.
 
Das ganze erinnert mich an die nvidia effects.. gras und hair. Na und wie viele Spiele haben es... Und seine Monopolstellung dermaßen auszunutzen finde ich schon dreist.
Nächstes jahr will Intel im Grafikkartenbereich starten und amd bringt ca märz seine neuen.
Vom wirtschaftlichen her bin ich gespannt wie viele sich die gtx 2080ti kaufen. Anfangs die freaks (wie bei handy auch), nur dann. Wenns blöd hergeht bleiben sie am Lagerbestand sitzen. Denn es ist fraglich wer so viel ausgibt, da nächstes Jahr die nächste Generation kommt (auch bei nvidia die 7nm). Ob sie sich diesmal nicht zu weit herausgelehnt haben.
Mal zu den Spielen... Viele heutige haben noch immer humane systemvoraussetzungen, da die breite maße keine ti hat und die spielehersteller natürlich ihr produkt verkaufen möchten. Bisher hab ich immer auf die turf effects verzichtet. bei rt wirds wohl auch so sein, der ressourcenhunger wird enorm sein.
Ich denke es ist besser diese generation auszulassen, und sehen was das nächste jahr bringt, denn das wird wieder spannender.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stoneeh und m.Kobold
Neronomicon schrieb:
So kam es mir auch vor. ich hab noch länger zugeschaut und es kam mir vor wie eine Marketing Veranstalltung. Ein Endloses bla bla von "irgendwas geilem".
Ich musste ja lachen, wo nach der Star Wars Demo keiner geklatscht hat und der Herr erst die Leute aufgefordert hat zu klatschen nach...das war doch woah...:freaky::D

Ja genau, das mit der Star Wars Demo war geil wo keiner klatschen wollte... (großaufnahme vom Publikum und voll Tote Hose) da mußte ich auch lachen. Ich wette die haben dort extra solche Leuchttafeln mit "Applaus" aktivieren müssen damit dann doch geklatscht wird.
 
DonL_ schrieb:
Gemunkelt wurde vieles!
Noch die letzten Monate haben die Nvidia Jünger steif und fest behauptet, dass die neue Generation mind. 50% Mehrleistung zur jetzigen Pascal Generation haben wird.
Ich lasse mich am 20. September überraschen, würde aber Geld darauf verwetten, dass es nichtmal 20% werden ohne Raytracing!

24% ;)
 
LOL. Bei der Metro Demo ändert sich durch die Bewegung der Kamera die Position des Sonnenlichts ??? und man selber wirft gar keinen Schatten, das Sonnenlicht müsste unterbrochen werden wenn man vorbei läuft. Was für ein unrealistischer Quark ist das denn. Ich hau mich weg :lol::lol:.
 
  • Gefällt mir
Reaktionen: MeisterOek und stoneeh
habe mir jetzt nicht den Thread komplett angeschaut und auch nicht alle Artikel dazu gelesen. Dieses Ray Tracing. Geht dies auch auf den aktuellen Pascal Karten, oder geht das nur auf den neuen? Ist dies Hardwareabhängig oder Software? Weil ja DX12 konnten ja auch ältere Karten obwohl es offiziell nicht so angepriesen wurde.
 
@m.Kobold
Ich hype gar nichts. Ich bewerte das Gesehene, warte Tests ab und entscheide dann.
Nur immer in so einer aggressiven Art Sachen zu unterstellen (ohne Beweise wohlgemerkt) bringt halt nicht ganz so viel. Aber gut. Wenn du das CB Forum als dein kanalisierendes Element für deine Wutausbrüche benötigst, sei dem so. Zwei Posts von dir und darin so Unterstellungen wie "Nvidia kauf die Entwickler.", "Die NDA sorgt für Verheimlichung von Informationen.", "Raytracing bringt bei der Entwicklung von Spielen nichts.".
Wenn dir anscheinend interne Informationen diverser Entwickler und Nvidia selber vorliegen, teile die doch mit uns. Bringt mehr als darüber in Beiträgen zu fluchen.
 
  • Gefällt mir
Reaktionen: indy1138, xexex und Ice breaker
Botcruscher schrieb:
50% zu was ist die Frage...

Eben, aber es kommt eben von immer den gleichen wieder von denselben Behauptungen kommen was andere behauptet haben sollen dabei hängt es von so vielen Faktoren ab. ^^

Allein 7 oder 10 oder 12 nm macht einen riesen Unterschied, und wenn die Konkurrenz pennt packt der in Führung liegende Marktteilnehmer erstmal weniger Brötchen drauf als nötig, zu gesalzenen Preisen.
Wäre Vega für 600 Euro auf 1080 TI Niveau, wegen mir auch jetzt und nicht zum Release, dann sähe die Sache jetzt preislich auch wieder anders aus. Wenn ich 20% vorn bin wird mir die nächste Gen die nochmal 30% draufpackt auch für den höheren Preis aus den Händen gerissen.

Nvidia geht da wohl auf Tuchfühlung was man verlangen kann für 50% Mehrleistung zur Konkurrenz (intern wie externe Konkurrenz).

Schade dass von AMD nichts kommt und noch nichtmal irgendwas vielversprechendes angekündigt ist. Bisher gibt's nur das "erstmal 7nm Mittekklasse" Gerücht aber keiner weiß wie eine neue Gen aussehen kann, auch von den Specs. Kann AMD 6000 neue NCU Shader auslasten? Sieht aktuell auch nicht danach aus. Springt man auf Raytracing auf? Denke weniger, was auch ne Chance sein kann.

Naja, scheint als steht und das bevor was bei den CPU von Intel und AMD lange der Fall war. Abspeisen des Konsumenten mit Häppchen + gesalzen Preise wenn man doch mal mehr will (sowas wie dann ne 3000 euro Titan in 7nm).
 
Zurück
Oben