News Raytracing ohne RTX: Nvidia Pascal erhält DXR‑Support per Treiber

Solche "Spiegelungen" gab es schon 2014 bei "DRIVECLUB" auf der PS4, ohne diesen "RT-Quark"!

 
duskstalker schrieb:
das ist keine pflege - das ist eine marketing-entscheidung. nvidia will damit einerseits das argument entkräften, dass RTX/DXR GeForce RTX exklusiv sei, und somit nur eine nischentechnologie, und andererseits die user hautnah spüren lassen, wie realtime-raytracing gpus ohne RT einheiten knechtet.
War das nicht letztenendes das, was hier auch immer (überwiegend von der Nutzergemeinde der AMD Grafikkarten) gefordert wurde?

Voilá!- Jetzt könnt Ihr die Leistung vergleichen, die eigenen Schlüsse ziehen, ob RT Cores nicht doch schneller, notwendig und kein Fake sind und nVidia beweist denjenigen, die darauf insistieren, dass es eine proprietäre Hardwareabhängige Lösung sei, dass sie falsch liegen.

nichts und niemand bekommt damit auch nur ansatzweise spielbare fps zusammen - außer natürlich mit einer Geforce RTX.
Lt. dem Chart von nVidia wird z.B. Battlefield V nur um 60% langsamer sein auf einer GTX 1080 TI ohne RT Cores gegenüber einer 2080. Da wird man also über 30 FPS kommen. Für ein Schnuppern im Singleplayer reicht das.

als nvidia mit gameworks tessellation gepusht hat, wurde hardwareseitig auch vorgesorgt, dass man nur am ast der konkurrenz sägt, und nicht am eigenen.
Man hat dafür gesorgt, dass die Einheiten deutlich schneller sind als die der Konkurrenz.
Die Entwickler haben dann bei der Entwicklung die per default eingestellten Tesselationsfaktoren ungeprüft übernommen.

Das Ergebnis ist bekannt...
 
  • Gefällt mir
Reaktionen: kisser, KlaraElfer, Luzifer71 und eine weitere Person
Das ist doch eine feine Sache. Ich würde mir das gerne Mal testweise in einer Demo anschauen. Vielleicht wird es so sein wie damals mit der dynamischen Beleuchtung in der Source Engine, die sehr teuer war und von Valve nur an ganz bestimmten Stellen eingestreut würde
 
  • Gefällt mir
Reaktionen: FeelsGoodManJPG
Eine interessante Anekdote lieferte die GDC-Präsentation von Nvidia bezüglich der Entscheidung für dedizierte Raytracing-Kerne bei der Turing-Architektur. Wie die untere Abbildung von Nvidia zeigt, hätte Pascal nur mit herkömmlichen Recheneinheiten ein Monster-Chip werden müssen, um die gleiche Leistung wie eine GeForce RTX 2080 bei Raytracing in Spielen zu erreichen.

Der Vergleich mag ja beeindruckend sein und alles, aber diese Begründung Nvidias für die Raytracing-Kerne geht doch etwas am Kern der Sache vorbei. Dass spezialisierte Hardware für spezielle Aufgaben wesentlich effektiver sein kann als General Purpose-Hardware, ist ja nichts neues.

Die Sache ist doch, das sich die Gamer vor den RTX-Karten eher nicht darüber beklagt haben, dass sie zu wenig Raytracing-Leistung haben. Das Problem der High-End-Gamer war doch wohl eher, wie sie in ganz normalen Spielen (ohne Raytracing) bei guten Qualitätseinstellungen möglichst hohe und konstante Frameraten auf ihren neuen >120Hz UHD/WQHD-Monitoren hinbekommen können. Deswegen hofften sie auf eine neue GPU-Generation mit möglichst viel "Rohleistung".

Nvidia hätte dieses existierende Problem besser lösen können, indem sie den Platz auf der neuen GPU statt für neue, spezialisierte Raytracing- und Deep-Learning-Cores für konventionelle Cores/Shader genutzt hätten.
Statt dessen haben sie mit Raytracing ein ganz neues, zusätzliches Problem erfunden und präsentieren eine erstmal nur halbwegs befriedigende Lösung dafür.

Zum Raytracing-Treibersupport für alte Karten.
Das ist wohl eher ein Werbegag, als eine nette Geste. Die Nutzer der "alten" Pascal-Karten sollen in Spielen und Benchmarks direkt sehen können, wie veraltet und unbrauchbar ihre Karten für Raytracing sind. Einen anderen, praktischen Nutzen wird das eher nicht haben, wenn selbst die kleineren RTX-Karten (2070/2060) mit aktiviertem Raytracing oft noch nicht genug Leistung für gute Frameraten bringen.
 
  • Gefällt mir
Reaktionen: Chismon, Baal Netbeck und Cruentatus
Zotac2012 schrieb:
Und wenn man diese wirklich in ihrer vollen Pracht bestaunen und erleben möchte, man sich unbedingt eine RTX-Turing Grafikkarte mit speziell dafür ausgelegter Hardware zulegen sollte. Und dafür ist doch der geringe Aufpreis bei den Turing Grafikkarten mehr als gerechtfertigt, schließlich bekommt man ja auch ein mehr an spezieller Hardware im GPU-Chip! Das ist wohl Marketing in ihrer ureigenen Form! :evillol:
Genau das ist es - Und es ist natürlich selbstschutz, weil nVidia sehr oft damit angefeindet werden, dass die RT Cores und das RTX gedöns sowieso sinnlos ist und nichts bringe. Manche unterstellen nVidia sogar, dass es sowas wie die fixed Function Einheit RT- Core garnicht gibt.

Jetzt macht nVidia alles transparent (was ja auch mehrfach schon gefordert wurde) und dreht gleichzeitig am Marketing Karussell. Ein strategisch guter Schachzug.

Genauso wie AMD jetzt gut daran täte ihr überlegene Compute- Leistung auf die Straße zu bringen und DXR zum Test für die eigene Nutzerschaft auch anzubieten.
 
  • Gefällt mir
Reaktionen: kisser, KlaraElfer und Lübke82
cookie_dent schrieb:
Was nützt ein hoher Marktanteil an GPU´s wenn es auf den meisten nicht genutzt wird weil es unterirdisch langsam läuft? So etwas ist ein totes Feature.
Es wäre nicht so langsam wen endlich das so groß geredete DX12 Multi-GPU support der so viel besser sein soll als der herkömmliche standart erscheinen würden, da aber hier die meisten Hersteller ne mänge an Geld verlieren würden (siehe da was die aktuellen RTX kosten die angemerkt mit Raytracing nicht mal im Multi-GPU verfahren können ) kommt es endweder garnicht da SLI ja tot oder so spät das man daraus nicht mehr provitiert.
 
tmkoeln schrieb:
Ich dachte auf der RTX Vorstellung hatten wir gelernt das selbst eine 1080 Ti 1000x mal so langsam ist wie eine 2080 Ti...

Ich bin verwirrt...

Oder muss man schnell geplante Obsoleszenz für 10 Series Karten für ich stell alles auf Very/Ultra High Laien einbauen?
Das Problem an der sache ist AMD die anfangen raytracing ohne komischen RT cores auf den markt zu bringen, bemerke das diese sogar auf einer Vega 56 laut crytec laufen würden...
 
Volkimann schrieb:
Alles nur um PhysX per GPU besser da stehen zu lassen.
Und jetzt haben wir die Situation das nvidia aufgrund von DX12 eben für Pascal erscheint. Ebenso über CPU berechnet würde ich mal vermuten. Oder zumindest sehr abhängig von der CPU.

Nvidia wird es schon entsprechend biegen und uns zeigen wie wichtig entsprechende RTX Cores sind.
Tja- manchmal würde es wirklich helfen, wenn man die Artikel, die man kommentiert und die dazu verknüpften Quellen einfach durchliest, ohne das übliche voreingenommene Programm abzuspulen.

Du hast im Origianlartikel Rechenzeitdiagramme, die genau zeigen was wann wo berechnet wird und eine Erklärung dazu welcher Effekt wie sehr auf das RT Kontingent geht (Reflexionen relativ wenig, GI z.B. relativ viel).
Ergänzung ()

Dante2000 schrieb:
Und wieder ein Versuch, ein sinnloses Feature auf den Markt zu drücken.
Dann erklär mal, was an den ersten Gehversuchen in Sachen realtime- RT sinnlos sein soll?
Gerade auch vor dem Hintergrund, dass in einem AAA Game ohne RT Techniken schon seit Jahren nicht mehr auskommt.
 
  • Gefällt mir
Reaktionen: kisser, KlaraElfer, Luzifer71 und 2 andere
ZeroZerp schrieb:
Man hat dafür gesorgt, dass die Einheiten deutlich schneller sind als die der Konkurrenz.
Die Entwickler haben dann bei der Entwicklung die per default eingestellten Tesselationsfaktoren ungeprüft übernommen.

Dafür hat ja "AMD" dann den bekannten "Schummelschalter" für den "Tesselation-Faktor im Treiber eingebaut.

Dural schrieb:
Oha jetzt ist AMD aber gewaltig unter zuzwang, aber von denen kommt ja rein gar nichts mehr, ausser die ständige neuauflage ihrer völlig veralteter architektur die mal locker das doppelte aus der dose zieht.

Und was ist mit "Pascal und Turing", das ist auch "nur" eine Weiterentwicklung von Kepler, und die gibts auch schon seit 2012, also genauso lange als "AMD´s" GCN-Architektur!:stock:
 
  • Gefällt mir
Reaktionen: Iapetus, Benji21, Gönndalf und 2 andere
Unnu schrieb:
Ich frage mich, wieviele es genau gelesen haben. Da steht, dass nVidia die Features im Treiber „freischaltet“.
Wie schon angemerkt, die Karten hätten es schon immer gekonnt.
Wenn man den vergeigten und überhasteten Start von RTX aneiht hatte nVidia sicherlich andere Sorgen als das ganze auf alten Grafikkarten ausgereift lauffähig zu kriegen...

Großzügig geht anders. Da hätten sie RT bei erscheinen der RTX Generation für alle GPUs freigegeben.
Dazu musst Du aber den Treiber mit einer komplett neuen Funktionsbatterie für die verschiedenen Chips ausstatten. Siehe oben- Bei dem überhasteten Start hatten die sicher erstmal andere Sorgen, als dass auf alten Karten lauffähig zu machen, was dann zu 80% eh nur zu Testzwecken gut ist.
Immerhin, es kommt so langsam in den Mainstream. Da kann ich mir dann eine RT-Diashow ansehen.
Aber sich wenigstens einen Eindruck verschaffen!
 
  • Gefällt mir
Reaktionen: Unnu, KlaraElfer und Lübke82
scryed schrieb:
Wieso , ich sehe nicht unbedingt das Problem ehr eine Massnahme um das weiter zu verbreiten via dx12 vulkan usw nicht mehr und nicht weniger wie gut es dann auf den Karten läuft wird abzuwarten bleiben ,

Ist das Feature erstmal verbreitet und es läuft auf 20xx Karten besser greift Kunden mehr zu Nvidia , Beispiel tesslation ..... Würde das nichtmehr missen wollen

Edit , Wiso verzweifelt ? Nvidia verkauft mehr Karten als die Konkurrenz da hat sich nichts geändert , das wegbrechen an allgemeinen käufen betrifft beide Hersteller Dank des wegfallen des Mining Marktes , gut Nvidia macht durch ihre Preisgestaltung noch ein paar Abstriche AS aber ehr intern für Probleme sorgt und nichts an der Platzierung im Markt ändert
Ob Nvidia DXR auf Pascal gebracht hätte wenn ihre Aktie nicht so derbe nachgegeben hätte? Verzweifelt geht vllt doch in die richtige Richtung.
 
DocWindows schrieb:
Wenn du bei <10 FPS noch von spielbar reden möchtest. dann ja.
ich glaube eher kaum das sie DXR freischalten damit die pascal reihe mit 10 fps rumgruckt.
ich glaube das es einfach so tief geschraubt wird das es wenigstens zwischen schön und noch spielbar sich einpegelt
 
  • Gefällt mir
Reaktionen: .Sentinel.
Renegade334 schrieb:
Schade für Besitzer der RTX Karten ist, dass die speziellen Kerne bei DXR scheinbar keine (oder sind das die 10-20% von denen weiter oben jemand schrieb?) Leistungsverbesserung bringen.
Titel mit aufwendigen RT- Effekten= großer Leistungssprung / Titel mit wenig RT niedrigerer Leistungssprung.
Ist ja auch ein Beispiel mit 500% Geschwindigkeitssteigerung dabei.

LG
Zero
Ergänzung ()

Übersoldier75 schrieb:
Solche "Spiegelungen" gab es schon 2014 bei "DRIVECLUB" auf der PS4, ohne diesen "RT-Quark"
Das gabs sogar schon deutlich früher und je nach Einsatzgebiet kann man die Spiegelungen gut faken. Nur dass man halt einfach nicht Raytracing mit Spiegelungen gleichsetzen sollte...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, KlaraElfer, Luzifer71 und 2 andere
Was mich interessieren würde ist ob sie DXR jetz für alle DX12 fähigen Karten Freischalten. Und wie diese dan damit umgehen.
 
Guter Schritt von Nvidia. Raytracing ist in der Zukunft nicht mehr wegzudenken.
Im übrigen gibt es auch noch andere Dinge als Spiele bei denen Raytracing enorm hilft.

Und das sag ich als GTX Besitzer
 
  • Gefällt mir
Reaktionen: Bert, Renatius, Luzifer71 und 2 andere
TechnikGuru69 schrieb:
ich glaube eher kaum das sie DXR freischalten damit die pascal reihe mit 10 fps rumgruckt.

Schonmal überlegt dass das Freischalten von DXR gar nicht für Spieler gedacht ist, sondern zum Beispiel für Grafikprogramme die jetzt rein über die CPU laufen und dort nur 1 FPM schaffen? (1 Frame pro Minute)

Nicht immer so Gamingzentrisch denken.

ZeroZerp schrieb:
Manche unterstellen nVidia sogar, dass es sowas wie die fixed Function Einheit RT- Core garnicht gibt.

Bielefeld gibts ja auch nicht. Das weiß jeder :D

ZeroZerp schrieb:
Jetzt macht nVidia alles transparent (was ja auch mehrfach schon gefordert wurde) und dreht gleichzeitig am Marketing Karussell. Ein strategisch guter Schachzug.

Ein nutzloser Schachzug. Wenn RT@Pascal nicht fliegt haben sie das natürlich absichtlich langsamer gemacht. Wenn es fliegt haben sie ihren Kunden mit nutzlosen RT-Einheiten das Geld aus der Tasche gezogen und betrogen. Lose-Lose.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau, KlaraElfer, pietcux und 2 andere
m.Kobold schrieb:
Wegen mir kann RTX gerne wieder verschwinden... und das sag ich als 2080Ti besitzer!

Es gab auch schon vorher genug spiele wo die Spiegelungen super waren, ohne das es groß Performance gekostet hätte.

Und die 3 Spiele wo Raytraycing Unterstützung findet sehen mit RTX Off absichtlich schlechter aus... man sollte sich z.B. einfach mal die Frage stellen wieso GTA V ohne Raytracing trotzdem soviel Atmosphäre bietet und die Oberflächen in den Gebäuden oder von Fahrzeugen überzeugen können.

Und jetzt mal ehrlich wenn man FPS Probleme hat, müssen doch immer als erstes die Reflektionen dran glauben und stellt diese runter.

Ich hoffe das AMD nicht auf diesen Raytracingzug aufspringt... es gibt soviel anderes was man bei den Spielen verbessern kann... wie wärs mal mit anständiger Physik was mal wirklich schön anzusehen ist... ich Wette deswegen kam Half-Life 2 damals auch so gut an.

Im Beispiel bei gta vorfallen mit Grafik Mods bei denen die Spieglungen fast wie in echt aussehen.
 
Übersoldier75 schrieb:
Und was ist mit "Pascal und Turing", das ist auch "nur" eine Weiterentwicklung von Kepler, und die gibts auch schon seit 2012, also genauso lange als "AMD´s" GCN-Architektur!:stock:
Wobei man Dein Schema so lange weitertreiben könnte, dass alles seit der Erfindung flexibel programmierbarer Shader nur noch eine Evolution darstellt.
Natürlich wird auf den als funktionierend bekannten Dingen aufgesetzt. Auch die heutigen Designs tun das, jedoch hat man die Renderpipeline und Hardware bei Turing so stark modifiziert wie schon etliche Jahre nicht mehr.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Lübke82
Zurück
Oben