Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsDXR mit GeForce GTX: Pascal und Turing ohne RT-Cores können jetzt Raytracing
Vor ca. 20 Jahren war mal ein Artikel in einer Spielezeitschrift über Raytracing. In Zeiten von 486/Pentium mit den ersten 3D-Karten hat eine Berechnung EINES Bildes noch Stunden gedauert.
Damals konnte sich niemand vorstellen, dass heute so etwas in Echtzeit auf einem PC möglich sein wird.
Ob das jeder braucht, ist mal dahin gestellt. Aber es ist möglich, für die, die es wollen/brauchen.
Die StarWars Reflections Demo habe ich mir mit meiner GTX 1070 und im Schnitt mit 9 FPS angehschaut und ich finde es sieht zum aus, Sorry! Was einfach der erbärmlichen FPS Zahl geschuldet ist, viel interessanter wäre es, was möglich wäre an einer Treiberoptimierung, um auch mit Pascal Grafikkarten eine einigermaßen Spielbare Framezahl zu generieren. Da dies aber nicht im Interesse von Nvidia ist, weil man ja unbedingt den Absatz der Turing Grafikkarten forcieren will, wird man das wohl niemals erfahren!
Ich fände es auch toll wen ich wie Super-Man fliegen könnte. Die Pascal ist nie für Raytracing in Echtzeit konzepiert worden. Und jeder der ein bischen Ahnung von PC Hardware hat weiß doch das man mittels einer Software-Emulation niemals an die Geschwindigkeit von spezieller nur dafür konzepiert Hardware ran kommt. Und du brauchst mindestensa die Leistung einer 2060 um RT in Games auf ein "Spielbares" (30fps) eher zumutbares Verhältniss zu bekommen. Turing ist dafür konzepiert worden, und die 2060 hat 30 nurdafür spezialiserte Recheneinheiten die nichts anderes machen als pro Frame die erforderliche Strahlenberechnbung. Du brauchst die RTX Cores um auf Spielbare Frames zu kommen. Genau dafür waren sie Konzepiert. Du kannst keinen Treiber machen der die gleichen ergebnisse wie Hardware erziehlt.
Bevor ihr hier rumtrollt und eure Verschwörungtheorien verbreitet, beschäftigt euch doch bitte etwas mit der Technoligie. Warum warten wir 20 Jahren auf Raytracing wen es einfach eine Softwarelösung gäbe? Denkt doch bitte Logisch nach. Wen RT in Echtzeit so easy wäre, dann würde es doch AMD schon längst anbieten. Man vergrößert den Chip, was ihn im endefekt auch wieder teuerer macht, mit Kernen die man nicht braucht. Auch die AMD GPUs werden nicht ohne dafür vorgesehene Recheneinheiten auskommen. Weil sonst hätten wie doch schon seit 20 Jahren Raytracing.
Also dafür, dass die Framraten so deutlich schlecht ausfallen, fühlt es sich so an als wäre meine GTX 1080 keine Leistungsstarke Grafikkarte aund ih habe sie erst seit einem halben Jahr und habe 600€ hingeblättert..
Selbst schuld wenn du vor nem halben jahr 600€ für eine 1080 bezahlst hast xD
Für die 1080 hatte ich mitte 2017 435€ bezahlt^^
verstehe manche leute hier nicht.. selbst mit den für Raytracing optimierten Turing Karten ist Raytracing nur grenzwertig nutzbar..und da wundern sich jetzt hier einige wirklich dass das auf dem Vorgänger dann noch zwei ecken schlechter läuft?
das Feature ist schön und mit meiner GPU auch kein Problem.
Jedoch versucht meine Frau RTX mit ihrer 1070 zu aktivieren in BF5, natürlich der aktuelle Treiber der Grünen drauf, aber das Menü in der erweiterten Grafik bei BF5 verweigert es. Irgendeine Idee was sie/wir noch machen können?
das Feature ist schön und mit meiner GPU auch kein Problem.
Jedoch versucht meine Frau RTX mit ihrer 1070 zu aktivieren in BF5, natürlich der aktuelle Treiber der Grünen drauf, aber das Menü in der erweiterten Grafik bei BF5 verweigert es. Irgendeine Idee was sie/wir noch machen können?
Häufiges Problem ist das fehlende Oktober Update von Windows 10 welches DXR erst implementiert.
Ansonsten dx12 aktivieren, dx11 kann kein dxr aber das weisst du sicher mit deiner 2080ti.
Viele Grüße!
Und bei Texten sollte man nicht irgendwas hinzuinterpretieren, was dort nicht steht... Sorry, aber wo kosten die RT/Tensor Cores 40-50%?
Der Zuwachs durch diese Einheiten ist sehr gering - die Fläche dieser durch mehr Shader zu tauschen bringt nichts. Das belegt die GV100 GPU eindeutig.
Das was du da oben als "besser" titulierst - und wo ich fragte, was da jetzt besser sein soll ist einzig das weglassen der RT/Tensor Cores - denn du wolltest ja doch trotzdem Turing-Arch haben.
Damit sind es offenbar also keine 40-50% sondern eher was um die 20 (im Verhältnis zu den Shadern) - respektive vllt 10-15% im Verhältnis zur kompletten Chipfläche.
Also jetzt nochmal die Frage - was ist daran jetzt besser?
Wenn dich diese Art Hardware nicht interessiert - kauf doch einfach nicht? Warum muss man da mit komischen Argumenten versuchen zu diktieren, was da gemacht werden soll - wenn man es doch eh nicht selbst bezieht?? Versteh ich nicht...
Beyazid schrieb:
Und das mit den Statistiken ist auch so eine Sache. Pascal ist ein Maxwell-Refresh und verkaufte sich wie geschnitten Brot wohingegen Turing sich abmüht als neue Gen. Also das Gegenteil zu deinen Statistiken.
Nö - auch hier nicht zu viel in die Aussage reininterpretieren.
Der Wink zu 7nm hätte dir doch klar aufzeigen können, dass die Aussage auf die Fertigung gemünzt war?
Maxwell -> Pascal war nachweislich ein Prozesswechsel auf 14/16nm. Turing bleibt aber in der Generation 12/14/16nm - muss also durch andere Vorzüge punkten, was ihm sichtlich schwer fällt, weil obenraus einfach die Leistungsaufnahme einen Mehrwert verhindert. Dazu gesellen sich hohe Kosten. Aber gerade der Umstand, dass es eben keine neue Generation im neuen Prozess mit langzeit-Erwartungen ist erlaubt mMn genau solche Späße. 7nm kommt auch bei NV - vllt dieses Jahr - vllt nächstes Jahr. Abwarten... Turing ist da wohl einfach nur der Testbalon.
Wer es jetzt schon will - der kauft. Wer nicht? Halt nicht...
Solange man keinen direkten vergleich hat ist das eh nur Phantasie.
Aber es war schon immer so, wer vergleicht ist schnell unzufrieden.
Ich finde meine Grafik sieht geil aus und das wird auch so bleiben.
Wobei ich sagen muss mit dem neuen Treiber 425.XX sieht es wirklich irgendwie
besser aus als vorher 👍
Trotz der "netten Geste" Raytracing auch auf Pascal freizuschalten, finde ich es gefrotzelt, dass Raytracing nicht auf allen GTX Pascal Grafikkarten freigeschalten wird. Wenn ich sehe, dass Battlefield 5 auf "Standardeinstellungen", 1920x1080, und aktiviertem Raytracing auf einer gtx 1060 immer noch 35-40fps darstellen kann, dann wäre diese Performance auch auf einer gtx 1050Ti möglich, wenn man die Auflösung auf 1280x720 zurückschraubt. Die Behauptung "Die Karten sind zu schwach" stimmt so einfach nicht. Es würde Nvidia sicher nicht schaden, wenn Besitzer dieser Karten auch reingucken könnten wie das aussieht.
(Edit: da diese "Beschwerde" hier nichts bringt, hab ich es im offiziellen Nvidia Forum nochmal ausformuliert. Mehr kann man eh nicht machen...)
Und jeder der ein bischen Ahnung von PC Hardware hat weiß doch das man mittels einer Software-Emulation niemals an die Geschwindigkeit von spezieller nur dafür konzepiert Hardware ran kommt.
Nein! Die RTX 2060 und 2070 kannst Du getrost vergessen, viel zu sehr aus Kostengründen beschnitten, so wird man Raytracing nie im Markt etablieren können. Bevor ich mir solche Grafikkartenkrüppel kaufe, nur um erahnen zu können, wie Raytracing sein könnte, fahre ich lieber in Urlaub und genieße reale Wirklichkeit! Gibt ja genügend unkundige User/Käufer, denen es nichts ausmacht eine Menge Geld auf den Tisch zu legen und als Beta-Tester zu fungieren!
lynx007 schrieb:
Bevor ihr hier rumtrollt und eure Verschwörungtheorien verbreitet, beschäftigt euch doch bitte etwas mit der Technoligie.
Was hat das mit trollen zu tun? Das Ziel welches hier Nvidia mit der implementierung von Raytracing im Treiber für die Pascal-Chips beabsichtigt, ist so offensichtlich, das selbst der Blinde unter den Einäugigen, das durchschaut hat! Vielleicht hast Du nur selbst nicht wirklich die Ahnung und erkennst nach langer Zeit des grünen Wartens, die Realität nicht mehr!
lynx007 schrieb:
Warum warten wir 20 Jahren auf Raytracing wen es einfach eine Softwarelösung gäbe?
Also ich habe keine 20. Jahre auf Raytracing gewartet, liegt wohl an den Prioritäten die man sich setzt!
lynx007 schrieb:
Denkt doch bitte Logisch nach. Wen RT in Echtzeit so easy wäre, dann würde es doch AMD schon längst anbieten. Man vergrößert den Chip, was ihn im endefekt auch wieder teuerer macht, mit Kernen die man nicht braucht. Auch die AMD GPUs werden nicht ohne dafür vorgesehene Recheneinheiten auskommen. Weil sonst hätten wie doch schon seit 20 Jahren Raytracing.
Das hätte ich mir in Deinem Post auch gewünscht, nur viel Logisches kann ich da nicht lesen, aber viel von Nvidia Marketing, das sich in der Brain.exe festgebrannt hat. Natürlich hat man den Chip vergrößert, irgendwo muss ja die zusätzliche Hardware untergebracht werden. Ob man aber allein damit die absurden Preise rechtfertigen kann, das soll doch jeder selbst entscheiden.
Jedem der sich ein wenig mit der Materie Raytracing auskennt, war doch klar, was man bei einer Pascal Grafikkarte mit Raytracing [lassen wir mal die GTX 1080Ti außen vor!] erwarten kann, genau, gar nichts! Allerdings bezweifle ich doch stark, bei einem ruckelnden Video oder Game, welches mit 9 bis 30 FPS bei einer Pascal Grafikkarte und Raytracing On läuft, man jetzt irgendwelche Kunden überzeugen kann, wie toll dieses neue Feature Raytracing ist. Das deswegen jetzt die User / Kunden reihenweise sich eine Turing zulegen, glaube ich auch nicht!
Ja Raytracing kann einen Mehrwert darstellen, nur die derzeitige Hardware kann das Potenzial noch nicht ausschöpfen, weil die Leistung der Grafikkarten dafür noch zu gering ist. Daher ist derzeit Raytracing ein schönes Gimmick, aber nicht mehr, Raytracing wird erst in den nächsten GPU-Generationen überzeugen können, die Frage wird nur sein, ob sich dann auch noch die breite Masse diese Grafikkarten leisten können. Denn die Preise für die nächsten Raytracing-GPUs werden sicherlich nicht billiger, sondern wohl teurer!
Hier gibt es Benchmarks von HW luxx.
Es bleibt dabei, Pascal ist für DXR nicht wirklich geeignet.
Die Einstellung DXR Mittel würde mich noch interessieren.
Hier gibt es Benchmarks von HW luxx.
Es bleibt dabei, Pascal ist für DXR nicht wirklich geeignet.
Die Einstellung DXR Mittel würde mich noch interessieren.
Wenn ich mir die verschiedene Benchmarks der DXR-Test so anschaue, ist der Performanceunterschied zwischen Ultra/Hoch und Mittel irgendwo zwischen 20-50% Einzuordnen. Ganz grob dürfte man unter Mittel im Schnitt also um die 35% mehr Performance haben. Wie gesagt, das ist nur grob, vermittelt aber schon mal eine Vorstellung, wo es hingehen könnte.
Haste Recht. Mein Monitor kann nur FHD, daher interessiert mich das natürlich eher. Hätte ich dazu schreiben sollen.
Vielleicht macht CB ja auch noch eigene Benchmarks?!
Selbst schuld wenn du vor nem halben jahr 600€ für eine 1080 bezahlst hast xD
Für die 1080 hatte ich mitte 2017 435€ bezahlt^^
verstehe manche leute hier nicht.. selbst mit den für Raytracing optimierten Turing Karten ist Raytracing nur grenzwertig nutzbar..und da wundern sich jetzt hier einige wirklich dass das auf dem Vorgänger dann noch zwei ecken schlechter läuft?
War auf Mindfactory schon der günstigste Preis der Karte... Ich glaube die Preise waren alle so hoch die günstigste Karte lag bei 520... glaube das war Die Zeit als das ganze Bitcoin gefarme so im Hype war
Ja Raytracing kann einen Mehrwert darstellen, nur die derzeitige Hardware kann das Potenzial noch nicht ausschöpfen, weil die Leistung der Grafikkarten dafür noch zu gering ist.
Ja- Aber genau das wissen wir doch noch garnicht. Die ersten Softwaretitel mit RT wie Battlefield 5 haben im Gegensatz zur ersten Raytracing Implementation um die 100% an Performancesteigerung hingelegt (mit DLSS), bei gleichzeitiger Steigerung der Raytracing- Qualität.
Wer sagt denn, dass die Architektur da nicht noch mehr auf dem Kasten hat (Denoising durch Tensor- Cores, Mesh Shader, variable rate shading)?
Derzeit sind die Entwickler und Programmierer dabei die absoluten Grundlagen zu schaffen, wie man RT halt nicht völlig schlecht implementiert. Wir sind aber weit weit davon entfernt, hier an Grenzen oder an einem Optimum zu schrammen.
Man muss sich nur mal den GDC Vortrag bzw. das Interview von Nixxes zu Gemüte führen, wo sie davon Sprechen, welche Herausforderung es war RT in Shadow of the tomb raider zu integrieren.
Da gibts im letzten Drittel eine Passage wo sie ausführlich drüber sprechen, wie viel besser das alles laufen könnte, wenn sie mit dem inzwischen angehäuften Wissen einen Titel von Grund auf für RT entwickeln könnten.
Man darf nie vergessen, dass alle bis jetzt erschienenen Lösungen darauf basieren, dass sie einem bereits schon fast durchentwickelten Spiel im Nachhinein angeflanscht wurden und das mit nur rudimentärem wissen, was gut funktioniert und was nicht.
Somit ist es meines Erachtens eher so, dass die Entwickler nun, da sie mit Turing fast alle neuen Möglichkeiten erhalten haben, die sie sich gewünscht haben, erste einmal beginnen müssen, das Potenzial überhaupt erst zu aktivieren und nicht mit Einzelfunktionen an der Oberfläche zu kratzen.
Sebastian Aaltonen:
Turing has every single feature that was in my SIGGRAPH 2015 GPU-driven rendering talk wish list slide... except globally ordered prefix sum.
Oder anders ausgedrückt, schau Dir an, was die Entwickler aufgrund der völlig extravaganten Architektur Anfangs für Spiele auf der PS3 gebracht haben und was da aber für ein Feuerwerk zum Schluss auf der Maschine abgebrannt wurde, als man herausgefunden hat, wie das Ding "tickt".
Wir stehen da noch ganz am Anfang der Evolution einer deutlich weiterentwickelten Grafikpipeline mit vielen neuen Möglichkeiten. Folglich ist da noch lange nicht das letzte Wort in Sachen möglicher Performance gesprochen.
LG
Zero
Ergänzung ()
so_oder_so schrieb:
Wieso bügelt ne kleine 1660Ti eine 1080Ti beinahe weg ohne RT Cores?
Das würde ja bedeuten, dass sie den Zweck, für welche sie integriert wurden nicht erfüllen.
Die Fakten sprechen da eine deutlich andere Sprache. Wie kommst Du also auf die schiefe Ebene?
Wo hast Du denn das her?
Eine RT Einheit ist ein fixed- Function Block (und dementsprechend performant), der zur Erschaffung der seiner Aufgabe entsprechenden relevanten Daten eingesetzt wird.
Ja- Aber genau das wissen wir doch noch garnicht. Die ersten Softwaretitel mit RT wie Battlefield 5 haben im Gegensatz zur ersten Raytracing Implementation um die 100% an Performancesteigerung hingelegt (mit DLSS), bei gleichzeitiger Steigerung der Raytracing- Qualität.
Das belegen eigentlich alle bisherigen Ergebnisse und Benchmarks, klar kann man das ignorieren, sicherlich lässt sich hier und da vielleicht noch etwas mehr an Leistung rausholen, aber große Sprünge sind da doch Wunschdenken!
ZeroZerp schrieb:
Derzeit sind die Entwickler und Programmierer dabei die absoluten Grundlagen zu schaffen, wie man RT halt nicht völlig schlecht implementiert. Wir sind aber weit weit davon entfernt, hier an Grenzen oder an einem Optimum zu schrammen.
Liegt aber nicht nur allein an den Programmieren der Spieleschmieden, das hängt auch stark von der genutzten Engine ab, die verwendet wird, wie gut sich Raytracing umsetzen lässt.
ZeroZerp schrieb:
Man muss sich nur mal den GDC Vortrag bzw. das Interview von Nixxes zu Gemüte führen, wo sie davon Sprechen, welche Herausforderung es war RT in Shadow of the tomb raider zu integrieren. Da gibts im letzten Drittel eine Passage wo sie ausführlich drüber sprechen, wie viel besser das alles laufen könnte, wenn sie mit dem inzwischen angehäuften Wissen einen Titel von Grund auf für RT entwickeln könnten.
Tja, hätte hätte Fahrradkette, natürlich könnte man alles besser entwickeln, aber nur davon zu sprechen bringt dem Kunden nichts, man muss es halt auch umsetzen und da stößt man aus verschiedenen Gründen schnell an seine Grenzen!
ZeroZerp schrieb:
Man darf nie vergessen, dass alle bis jetzt erschienenen Lösungen darauf basieren, dass sie einem bereits schon fast durchentwickelten Spiel im Nachhinein angeflanscht wurden und das mit nur rudimentärem wissen, was gut funktioniert und was nicht.
Das mag sein, dürfte aber den Kunden letztlich wenig interessieren, das zeigt eigentlich nur, dass man zu früh auf diese neue Technik gesetzt hat, man hätte vielleicht doch noch zwei oder drei Jahre Vorlauf Zeit gebraucht!
ZeroZerp schrieb:
Somit ist es meines Erachtens eher so, dass die Entwickler nun, da sie mit Turing fast alle neuen Möglichkeiten erhalten haben, die sie sich gewünscht haben, erste einmal beginnen müssen, das Potenzial überhaupt erst zu aktivieren und nicht mit Einzelfunktionen an der Oberfläche zu kratzen.
Das mag ja alles stimmen, aber der Kunde wünscht sich ein fertiges Produkt, welches dann auch in ausreichender Vielfalt in Games genutzt werden kann, das ist aber derzeit nicht möglich und somit zahlt man viel Geld für ein teures Feature, was sich nur in wenig Games nutzen lässt. Da ist es schon Sinnvoll auf die nächste Ratraycing GPU Generation zu warten, wenn die Leistung deutlich besser ist und auch die Auswahl der Games in einem annehmbaren Bereich auf dem Markt vorhanden ist!