News DXR mit GeForce GTX: Pascal und Turing ohne RT-Cores können jetzt Raytracing

Star Wars Reflections Demo...
1920x1080 -> 6-10 FPS
VRAM-Nutzung: circa 6414 MB - 6669 MB

3840x2160 -> weniger als 2 FPS.
VRAM-Nutzung: circa 7400 MB (vmtl. ans RAM ausgelagert) Kein Ruckeln feststellbar, Audio und Bild nicht synchron.

System:
Intel Core i7-3770 (Delidded, Referenztakt.)
ASUS ROG Strix Geforce GTX 1070 8GB Gaming
16 GB DDR3-1600 RAM (9-9-9-24)
 
Everlast schrieb:
Schön für die Pascal-Besitzer - aber alle die ne RTX besitzen und gekauft haben mit diesem "Exklusiv-Feature" dürfen sich auch ein wenig verschaukelt vorkommen :D:stock:

Juckt mich garnicht. RT is mir sowas von wurscht :D
 
  • Gefällt mir
Reaktionen: rentex
kicos018 schrieb:
Sehe ich überhaupt nicht so.

Je früher so eine Technologie einzug hält, umso besser für die Entwicklung. Anwendungs- und Spieleentwickler können sich frühzeitig damit auseinandersetzen, Patches nachliefern, Erfahrungen sammeln, das Gesamtkonzept tweaken.

Hmja... stimmt auch wieder 🤔
Nvidia bereitet den Weg, Entwickler springen auf, und mit der RTX3000er Reihe ist das Raytracing dann "quasi schon Standard", bzw. kann Nvidia richtig "glänzen", weil die gesamte Serie das unterstützt.

(Wenn ich mir das so vorstelle, muss sich AMD was einfallen lassen, sonst sind sie plötzlich meilenweit zurück)
 
  • Gefällt mir
Reaktionen: xBitwinSDKx
kicos018 schrieb:
Echtzeit Raytracing ist kein gaming exclusive, gerade v-ray und co. profitieren davon.

Je früher so eine Technologie einzug hält, umso besser für die Entwicklung. Anwendungs- und Spieleentwickler können sich frühzeitig damit auseinandersetzen, Patches nachliefern, Erfahrungen sammeln, das Gesamtkonzept tweaken.

Naja schön und gut, man hätte es aber trotzdem besser lösen können:

*Titan T mit Turing-Arch +RTX-/Tensor-Cores für den professionellen Einsatz (u.a. für Spieleentwickler?)

*GTX2XXX mit Turing-Arch ohne RTX/Tensor für Gaming und einer RTX 2080Ti mit den Extras vom Titan


Die Titan wurde nun schon seit "Ewigkeiten" nicht mehr abgelöst und mittlerweile ist diese technisch "veraltet" weshalb genau deine genannten Entwickler keine Karte zu haben außer der 2080Ti die es für jeden schon gibt. Nicht ohne Grund brauchen Entwickler mehr Speicher als 11/12 oder gar 16GB VRAM, mit anspruchsvolleren Spielen steigt halt auch der Bedarf. Eine 2080TI geht da hoffnungslos unter egal wie viel Power sie haben mag.

In der nächsten Gen hätte man dann richtig ausholen können für einen Cut bei einer RTX 3050. Mit der etwaigen Raytracing-Leistung einer 2070, wo es dann gerade anfängt sich zu lohnen aber verkraftbar ist durch einen geringen Einstiegspreis, und kleinen sparsamen Chips für "Kleinkram".
 
Zuletzt bearbeitet:
Everlast schrieb:
Schön für die Pascal-Besitzer - aber alle die ne RTX besitzen und gekauft haben mit diesem "Exklusiv-Feature" dürfen sich auch ein wenig verschaukelt vorkommen :D:stock:

Naja, nein. Ich habe eine 2080 und spiele damit auf 4k und 1440p (je nach Spiel). Metro war auf 4K mit DLSS noch gerade angenehm spielbar, dieses Erlebnis hätte ich mit einer 1080 Ti nicht gehabt. Mal sehen wie Control läuft.
 
RT kam genau richtig, in der Zeit in der Nvidia genug Luft hat um sowas mit überschaubarem Risiko erproben zu können. Die Erfahrungen die man jetzt sammelt lassen sich in next oder übernächster Gen dann in Hardware pressen.
 
  • Gefällt mir
Reaktionen: Zitterrochen, xBitwinSDKx, kisser und 2 andere
franzerich schrieb:
(Wenn ich mir das so vorstelle, muss sich AMD was einfallen lassen, sonst sind sie plötzlich meilenweit zurück
Das ist schon OK so- AMD kann ruhig von nvidia die Initialzündung bezahlen lassen.
Die Lernkurve der Entwicklerstudios ist ja derzeit noch extrem steilt.

AMD kann dann gemütlich auf schon durchoptimierte Renderer bzw. Programme aufsetzen. Und soooo schwer wird es jetzt für die auch nicht sein, ein par fixed function Einheiten zu integrieren.
Lustig ist ja auch, dass Turing sich in einigen Bereichen an die GCN Architektur angenähert hat, ohne aber deren Flaschenhälse zu übernehmen.

Was das ganze noch einfacher für AMD machen sollte, sich umgekehrt auch ein wenig an Turing anzunähern.

Profitieren werden wir Spieler, durch einen deutlich gesteigerte Grafikqualität. Und da die Programmierer mit Erfolg immer weiter an der asynchronen Berechnung der RT Effekte arbeiten kann es schon in naher Zukunft sein, dass man performancetechnisch auch nicht mehr signifikante Einbußen in Sachen FPS hinzunehmen hat.

Da liegt noch viel Potenzial brach....

LG
Zero
 
franzerich schrieb:
Ja, zumindest sobald Raytracing ins Spiel kommt, kackt die gesamte Pascal-Reihe inklusive der Turingkarten ohne RTcores deutlich ab. So gesehen müsste man als angehender Spieler mindestens eine RTX Karte kaufen.
Das war schon immer so. Wer alles auf Maximum haben wollte, brauchte eine neue GPU.... Du wirst auch in Zukunft RT ausschalten können. Von dem Punkt wo nur noch RT unterstützt wird sind wir noch Jahrzente entfernt.


franzerich schrieb:
Irritiert bin ich noch ein bisschen mit der "Implementierung der verschiedenen Raytracingarten". So wie es aussieht gibt es mindestens 4 verschiedener Raytracingmöglichkeiten (Global Illumination, Ambient Occlusion, Shadows, Reflections), aber die derzeitigen Spiele haben allenfalls 1-2 davon implementiert. Wie sieht das dann aus, wenn alle Arten implementiert werden? Kackt dann die Performance ins Bodenlose? Die Folien zeigen leider maximal 2 gleichzeitig...
Es gibt eigenltich nur ein Raytracing. Raytracing ist eine Simulation von Licht. Sprich Reflexion, Schatten, damit auch die beschaffenheit von Oberflächen, ist eigentlich schon alles in alles in Raytracing drinnen. Zumidnest wen man Globalilluimation und Abientinoclusion sollte eigentlich alles was Raytracing kann auch alles aktiv sein. Ganz sicher bin mir auch auch nicht.... da es ja auch utnerschiedliche Programme sind und so tief ich da selber mcih noch nicht beschäftigt habe.

Schau dir mal die Videos zu Minecraft oder Quake2 an. Wieviel Performance das Schluckt hängt sicher von der Enginge, von der Auflösung zusammen. Die Beispiele sind halt Benchmarks die sich auf eine Sache fokusieren.... Aber im Grunde läuft das ja immer gleich ab. Die Strahlen vermessen den Raum auf die beleuchtung, oberflächenbeschaffenheit usw... dannach kommen filter und die shader zum einsatz und machen den Frame fertig.

Zb läuft Quake2 auf FHD Flüssig bei Konstant 60 FPS. Bei 4k sind es gerade 20 FPS weil für die aktuelle einfach zuviele Strahlen gebildet werden sollen.... Bei Minecraft weiß ich es nicht. Ist halt auch alles noch am Anfang. und oft ist Raytraicing auch nur nachtreglich implentiert worden.... Bei Metro sollte eigentlich ein Fullsuport drinnen sein.... Wieviel Leistung es zeiht hängt halt mit den Anzahl der Strahlen zusammen. Um so mehr strahlen um so besser und realistischer erscheinen Oberflächen, Licht und Schatten... Einfach mal Pathtracin in Ýoutub eingeben und genießen.

franzerich schrieb:
Und nebenbei denke ich auch, dass das Raytracing exakt 1 Generation zu früh gekommen ist. Das Raytracing hätte Nvidia bei der RTX 3000 bringen können, und zwar problemlos beginnend bei einer RTX 3050 als Einstiegsklasse. Dann hätte man derzeit noch eine saubere GTX 2000er Reihe gehabt, und danach eine saubere RTX 3000er Reihe, statt diesem gespaltenen, verunglimpften RTX 2060, GTX 1650, 1660 Mischmasch. Was für ein totaler Murks! Regen die mich auf...

Es müssen doch auch dei Spiele rauskommen. Ohne ohne Hardware für die Entwickler, also Quadro gibts auch kein Raytreacing in den Spielen.... Man kann das natürlich noch ewig nach hinten Schieben... Das Problem wäre das gleiche.... wo bei welcher Preisklasse wird Pathtracing unterstützt und wo lassen wir es....
Um ihr Beispiel auf zu greifen.... ein Jahr später hätte vielleicht bedeutet nachteile gegenübver den Mitbewerber AMD zu ahben. Angeblich soll auch die neue PS5 RT unterstützen, angeblich.... Zweiter Nachteil, es gäbe noch immer keine Quadros und TItants für die Entwickler um RT im Studio anzuwenden und zu testen....
Dritter Nachteil wäre dann vermtulcih mit einer RTX 3050 das viel zu teuer wäre und es noch keine softwäre dafür gäbe.... 50er ist Mainstream und ohne Software ein Mainstreamprodukt auf dne Mart zu bringen total unsinnig....

So wie es jetzt ist gibts im Highend und im Enthusiastensegment RT. Dieses Klientel ist bereit mehr Geld aus zu geben. Insbesondere für neue Technologie. Im Mainstream läuft das überhaupt nicht. Da geht es um den Preis.... um das Software angebot. Sprich nVidia müsste mit RTX 3000 genau das gleiche machen.... nur ein Jahr später mit den gleichen Problemen....

So wie es jetzt läuft haben die mit einer Pascal eine sehr gute Karte die auch jenden reicht die erst noch auf RT Software warten möchte. Und wer zu den ersten gehören möchte die RT nutzen könne, die haben doch mit der 2060 bis 2080ti gute karten.... Es ist fast für jeden etwas da und umgekehrt gibts die die RTX Quadropendanten für die Softwareentwickler.... Das darf man nämlich auch nicht vergessen.... den ohen RTX Quadro gibts auch in zukunft keine RT Spiele.

Hier nochmal ein schönes Video was man nur mit RT so schönes zaubern kann:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: franzerich
Hab es eben mal mit Battlefield 5 getestet. Auflösung WQHD, Details Hoch/Ultra RTX Mittel. Auf Rotterdam so 50 - 75 FPS, im schnitt so 60 FPS, wenn viel los ist dann natürlich etwas weniger aber es lässt sich noch spielen. Auf RTX Ultra fällt es natürlich auf unter 30 FPS, aber für mich ist der optische unterschied gleich 0.
 

Anhänge

  • 20190411_182103.jpg
    20190411_182103.jpg
    1.011,3 KB · Aufrufe: 534
  • 20190411_182144.jpg
    20190411_182144.jpg
    1,2 MB · Aufrufe: 546
  • 20190411_190101.jpg
    20190411_190101.jpg
    876,4 KB · Aufrufe: 526
  • 20190411_190256.jpg
    20190411_190256.jpg
    1,4 MB · Aufrufe: 531
  • 20190411_190651.jpg
    20190411_190651.jpg
    1,4 MB · Aufrufe: 533
  • Gefällt mir
Reaktionen: .Sentinel. und kisser
Hat sich einer von den NVIDIA Heinis eigentlich mal die Grafik in The Division 2 angeguckt? Bei ihrer Ankündigung zu Raytracing haben sie noch Vorlaut behauptet, was alles vorher nicht möglich war und was nur durch Raytracing möglich ist. So lächerlich, wenn man sieht wie grafisch überwältigend The Division 2 ist.
 
Es ist jetzt nicht so das RTX auf der 1080TI nicht geht ...aber irgentwie auch nicht wirklich

2560x1080
BF5 Rotterdam ohne DXR >160FPS
BF5 Rotterdam mit DXR niedrig <45FPS

Metro In Game Bechmark
Setting Extrem 64FPS (63,95)
Setting Extrem plus RTX High 30FPS (29,93)
 
Beyazid schrieb:
Naja schön und gut, man hätte es aber trotzdem besser lösen können:

*Titan T mit Turing-Arch +RTX-/Tensor-Cores für den professionellen Einsatz (u.a. für Spieleentwickler?)

*GTX2XXX mit Turing-Arch ohne RTX/Tensor für Gaming und einer RTX 2080Ti mit den Extras vom Titan

Was genau ist denn daran jetzt wirklich besser?
Wenn man sich die jüngsten DIE Shots von Turing von OC_Burner ansieht, ist der Flächenbedarf nicht so sonderlich hoch, den man da "verschenkt". Klar zahlt der Kunde das stand jetzt - aber er würde die selbe Fläche auch zahlen, wenn NV das hätte nicht drauf gebaut, aber stattdessen mehr Shadereinheiten bei in Summe weniger Takt raus gekommen wären.

Am Ende würde wahrscheinlich keine RT/Tensor Cores einfach nur bedeuten, dass die Karten dann recht gleich schnell wie mit wären - vllt paar mm² weniger Fläche hätten, vllt paar Euro weniger hätten gekostet - aber wirklich besser wäre das nicht.

Wenn man sich zudem mal Umfragen und Statistiken so quer Beet über die letzten Jahre so ansieht, so scheinen Refresh-Generationen eh nur bedingt zu den Verkaufsschlagern zu zählen. Wo wenn nicht in so einer Generation bietet es sich also an so ein Feature zu bringen?? Wer nicht will, wartet einfach bis 7nm - ist am Ende eh das sinnvollste. Zumindest wenn NV nicht ihr 7nm Potential wie AMD einfach vollends im Takt versenkt, damit die Karte nicht den Anschluss verliert.

franzerich schrieb:
Irritiert bin ich noch ein bisschen mit der "Implementierung der verschiedenen Raytracingarten". So wie es aussieht gibt es mindestens 4 verschiedener Raytracingmöglichkeiten (Global Illumination, Ambient Occlusion, Shadows, Reflections), aber die derzeitigen Spiele haben allenfalls 1-2 davon implementiert. Wie sieht das dann aus, wenn alle Arten implementiert werden? Kackt dann die Performance ins Bodenlose? Die Folien zeigen leider maximal 2 gleichzeitig...

Das sind nicht vier Arten - sondern das sind einfach verschiedene Ansätze, wofür man Raytracing nutzen kann. Für sich genommen ist das nach wie vor "nur" ein Kompromiss. Das macht bspw. auch der Denoiser ganz klar deutlich. Die Hardware halt lange nicht genug Power um da mit Fingerschnipp einfach hunderte Frames die Sekunde rauszulassen. Man trickst hier wo es nur geht.
Das heist aber unterm Strich auch, dass es nur logisch ist, die Schäfchen bisschen zusammen zu halten. 1-2 Sachen ganz gut zu machen ist alle mal besser als alles nur irgendwie ein bisschen.

Der Spaß braucht eh Zeit bis es einerseits auf jeder Hardware tut - wenigstens mal irgendwo spielbar. Und andererseits auch seitens der Entwickler angenommen wird.

lynx007 schrieb:
Auf der anderen Seite gibt es noch keine singel GPU der 4k nativ Konstant über 100FPS produziert. Mann hätte also auch noch bisl warten können und den Fokus auch auf bezahlbare 4k-Gpus legen können. Nicht jeder will knape 1000€ ausgeben nur damit er sich endlich mal nen 4k Monitor anschaffen kann.

Das eine hat mit dem anderen aber nix zu tun...
NV dürfte wahrscheinlich (genau so wie AMD es schon länger hat) festgestellt haben, dass man nicht ewig und drei Tage die Shaderleistung skalieren kann - und das auch 1:1 so auf die Straße gebracht werden kann.

Möglicherweise werden wir auch auf absehbare Zeit keine GPU sehen, welche 100FPS in jeder Situation@UHD packt?? Wer weis... Es skaliert ja nicht nur die Leistung der Hardware - sondern auch die Anforderungen der Software. Was das zu einer Art Endlosspirale macht.

Was auch sehr interessant bei dem Thema ist - wenn man sich mal den GV100 gegen den TU102 ansieht -> GV100 hast schon die INT/FP Trennung der Einheiten, bringt deutlich mehr ALUs auf die Wage, schafft es overall aber nicht so wirklich, effizienter die Leistung umzusetzen. Sprich TU102 ist overall nicht langsamer, trotz Hardwarenachteil. Kompensiert hier also Nachteile bei der Einheitenanzahl durch Takt aber ohne einen wirklichen Verbrauchsnachteil durch den Takt.
Spinnen wir das weiter - den ALU Aufbau der GV100 in TU102 - dafür Tensor/RT Cores raus -> wäre größer als TU102 gekommen, wohl ähnlich, bisschen weniger als GV100, Fertigung ist ja gleich. ABER, es wäre nicht schneller, weil man nicht mehr den Takt hätte fahren können ohne das der Verbrauch oben raus stark ansteigt.
Noch mehr ALUs dran packen, noch niedrigere Taktraten fahren -> noch weniger hätte es gebracht. Unterm Strich? MMn ist die von dir beschriebene 100 FPS@UHD GPU in der Familie 16/14/12nm nicht drin.
7nm? -> abwarten... Vllt, vllt auch nicht. In Jedemfall wird der Schwenk zu 7nm aber teurer pro Fläche. AMD spricht von ca. Faktor 2 pro mm². Faktor 2 bei Effizienz und gleichsam beim Flächenersparnis gibts aber nicht. Was heißt, dass ziemlich sicher noch mehr Leistung noch teurer werden wird...
 
  • Gefällt mir
Reaktionen: .Sentinel.
Ich sehe die Verfügbarkeit von RT auf Pascal als Marketing-Feature, um dem Kunden eben RT direkt am PC schmackhaft machen zu können. :) Einen anderen Sinn erfüllt dieser Schritt seitens Nvidia nicht. :)
 
Die Asteroid Demo mit dem mesh shadern loift nicht mit dem neuen Treiber und 1080 Ti
Weiss jemand wie so nicht?
 
T3rm1 schrieb:
So lächerlich, wenn man sieht wie grafisch überwältigend The Division 2 ist.

Was ist da denn lächerlich dran?

Natürlich kann man Rastergrafik so hinpolieren, dass es optisch gut ist - ja sogar soweit, dass es optisch annähernd realistisch ausschaut. Schau dir dazu Tech Demos der UE an, wo seit Jahren immer neue Maßstäbe gesetzt werden.
Ändert doch aber am Ende nix daran, dass es technische Limitationen gibt. Am greifbarsten für die breite Masse dürften da wohl screen space reflections sein. Etwas was du nicht siehst - lässt sich so erstmal nicht in Spieglungen einbinden. Mit RT schon... Und in der Realität spiegelt auch im Zweifel mehr als du direkt im Sichtfeld erkennst...

Ob du das aber vermisst im Bild oder ob so ein Detail dir reicht um von "lächerlich" auf "grafisch überwältigend" zu switchen? Keine Ahnung...
 
Postman schrieb:
Retraycing ist vielen RTX Käufern egal.
Sie wollen eher primär flüssig auf 4K oder mit mehr Frames auch bei AAA-Titeln spielen.
@Wolfgang könnt ihr dazu mal eine Umfrage auf der Hauptseite machen?
Meine nächste Karte hat abseits von einer Leistungssteigerung ganz sicher auch dieses neue Feature Set.
Früher war ein neues Feature Set in Hardware für ein neues DirectX neben der Leistungssteigerung essentiell für den Hardware Kauf, damit eben neue Spiele flüssig liefen.
"Can it run Crysis" ist zum Teil ein Spruch der das wiedergibt.
 
  • Gefällt mir
Reaktionen: Zitterrochen und pietcux
Everlast schrieb:
Schön für die Pascal-Besitzer - aber alle die ne RTX besitzen und gekauft haben mit diesem "Exklusiv-Feature" dürfen sich auch ein wenig verschaukelt vorkommen :D:stock:

Hab mir ne RTX 2080 Ti nicht wegen den Features gekauft, sondern weil ich was schnelleres als meine alte Titan X Pascal haben wollte. :D
 
  • Gefällt mir
Reaktionen: tstorm
Postman schrieb:
Retraycing ist vielen RTX Käufern egal.
Sie wollen eher primär flüssig auf 4K oder mit mehr Frames auch bei AAA-Titeln spielen.
Jop. Beides trifft auf mich z.B. auch zu.
Zwar nicht 4k sondern deutlicher FPS schub für WQHD.
 
  • Gefällt mir
Reaktionen: tstorm
Zurück
Oben