News Raytracing ohne RTX: Nvidia Pascal erhält DXR‑Support per Treiber

@USB-Kabeljau

natürlich kommen die spiele von den studios und nicht nvidia - aber wieso funktioniert die optimierung bei "gaming evolved" titeln so gut, und die optimierung bei gameworks immer "zufällig" so schlecht?

es gibt kein spiel mit gameworks tessellation, das amd karten nicht benachteiligt. wenn du mir ein spiel zeigst, in dem amd und nvidia mit gameworks tessellation gleich viel leistung verlieren, wie es in sniper elite 3 der fall ist, halt ich zu dem thema zukünftig meine schnauze. aber ich kann darüber fleißig weiterquasseln, weil ein solches spiel nicht existiert.
 
Gibt übrigens bald den nächsten rtx bashing thread!
Tomb raider hat gerade rtx und dlss Support bekommen. Das ich das noch erleben darf grenzt an ein Wunder!
Bin gespannt wie es läuft und aussieht!
 
  • Gefällt mir
Reaktionen: pietcux und .Sentinel.
Mal ne random Frage in die GPU Runde: Zum aktuellen Tag, welche Graka lohnt sich am meisten um die 300Euro? Ist die GTX1070 für um die 290Euro zu empfehlen, oder eher eine 1660ti?
 
|SoulReaver| schrieb:
Fragst du das wirklich? Alleine wie viele noch während der Präsentation bei der vielleicht 20 Leute geklatscht haben, hier Leute schon bestellt gepostet hatten.

Jeder der eine RTX 2080TI hat dem sei sie vergönnt. Doch die die eine GTX 1080TI hatten bitte der Sprung ist zu klein. Und das für den Preis. Nun ja....

Ja, die Frage war ernst gemeint, denn ich besitze eine dieser 1080Ti. Wie du selbst schreibst, ist der Zugewinn mit knapp 30% eigentlich zu gering, um Netto knapp 500€ auf den Tisch zu legen.

Diese Überlegung mache ich persönlich erst, wenn ich die Leistung zwingend benötige. Dafür fehlt allerdings der entsprechende Monitor. Deswegen würde ich bissl daran zweifeln, dass ausgehend von einer 1080Ti viele wechselten; eher die Generation davor :)
 
  • Gefällt mir
Reaktionen: rentex und Benji21
W0lfenstein schrieb:
Und ich glaube auch nicht, das 4 Jahre langen bis sich das durchsetzt. Wenn überhaupt mal.
Die kommende Konsolengeneration soll vielleicht schon RT unterstützen. Dann hätten wir auf einen Schlag RT in den Spielen. Aber es ist halt wie mit Shadern. Wie sie schon selber anmerkten, sie sehen (noch) keine riesgen Unterschiede. Und der Grad der Qualität hängt wiederum mit der RT Leistung zusammen. Um so mehr Trasistoren, also Chipfläche ich diesem Job zuweise, um soh realistischer sieht das am ende mit Licht, Schatten und Reflektionen aus.

qappVI schrieb:
bei mir sind zuerst die Texturen und Schatten dran.
Texturen, wirklich? Die bringen doch kaum noch etwas. Klar auch umgekehrt Optisch kaum etwas. Aber zwischen high und low sind oft nicht mal 5% unterschied.

mkdr schrieb:
Mal ne random Frage in die GPU Runde: Zum aktuellen Tag, welche Graka lohnt sich am meisten um die 300Euro? Ist die GTX1070 für um die 290Euro zu empfehlen, oder eher eine 1660ti?
Die 1660ti soll sehr gut sein. Hat halt nur 6gb Speicher, was irgendwan vielleicht mal zuwenig sein köntne. Ich glaube persönlich nicht daran. Notfalls schraubt man etwas am Texturen Regler.... Selbst BF braucht auf höchsten Details braucht in der regel nicht mehr als 5 und ließe sich im notfall auch auf 4gb limitieren. Ich würde ganz klar die 1660ti nehmen die immer öfter die 1070 nass macht, weil es auch die moderner Karte ist. So soll auch deutlich bessere Frametimes als eien 1070 haben. Dazu zieht sie viel weniger Strom (100Watt, ca 20€ stromkosten pro Jahr) als eine Vega aus der Dose.
<iframe width="560" height="315" src="
" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mkdr
duskstalker schrieb:
@USB-Kabeljau
es gibt kein spiel mit gameworks tessellation, das amd karten nicht benachteiligt. wenn du mir ein spiel zeigst, in dem amd und nvidia mit gameworks tessellation gleich viel leistung verlieren, wie es in sniper elite 3 der fall ist, halt ich zu dem thema zukünftig meine schnauze. aber ich kann darüber fleißig weiterquasseln, weil ein solches spiel nicht existiert.

Shadow of the Tomb Raider, bitteschön. Skalierung AMD vs. Nvidia ist quasi identisch außer beim am niedrigsten Preset. Siehe auch CB Test. Das gilt hier sogar für alle Gameworks Features.
 
  • Gefällt mir
Reaktionen: KlaraElfer, kisser und USB-Kabeljau
duskstalker schrieb:
letztendlich wird sich RTX wie jede andere proprietäre nvidia lösung irgendwann im sande verlaufen, aber einen schaden am konsumenten, dem technologischen fortschritt und der konkurrenz hat noch jede aktion von nvidia hinterlassen.

raytracing ja - gerne - aber nicht von nvidia.
Genau wie weiter vorher schon geschrieben setzt nVidia deshalb ja nicht auf eine prioprietäte Lösung, sondern auf die, bei welcher Microsoft, Intel und AMD zusammengewirkt haben, nämlich DXR 12.

RTX ist nur ein Name für ein Featureset. Genauso wie es beim Amiga damals das OCS (Agnus, Denise, Paula) oder ECS (Fat Agnus, Hires Denise, Paula) gab.

LG
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer
lynx007 schrieb:
Die 1660ti soll sehr gut sein. Hat halt nur 6gb Speicher, was irgendwan vielleicht mal zuwenig sein köntne. Aber selbst BF auf höchsten Details braucht in der regel nicht mehr als 5 und ließe sich im notfall auch auf 4gb limitieren. Ich würde ganz klar die 1660ti nehmen die immer öfter die 1070 nass macht. Sie soll auch deutlich bessere Frametimes haben. Dazu zieht sie viel weniger Strom (100Watt, ca 20€ stromkosten pro Jahr) als eine Vega aus der Dose.

Also im Performance Index bei pcgh ist sie hinter einer mit lächerlichen 1600 MHz taktenden 1070... :stacheln: klar braucht sie weniger Saft als Vega oder 1070, die 20 Euro maximal holst du aber teilweise in 3 Jahren nicht rein weil vorher der horrenden Speicherbestückung die Luft ausgeht wie bei der 1060/1660/2060... :rolleyes: Ich meine: kauft das Ding ruhig für rund 300 Tacken, jammert aber bitte nicht wenn ihr die nächsten Neuerscheinungen dieses und nächstes Jahr nicht mehr mit vollen Details zocken könnt.
 
  • Gefällt mir
Reaktionen: Casillas
ZeroZerp schrieb:
BruteForce deshalb, weil es entgegen aller andern Varianten eben nicht Objektbasiert arbeitet, sondern tatsächlich fullscreen und Oberflächenbeschaffenheits- und nicht Meshabhängig.
Egal was wo auf dem Bildschirm passiert - Bei Battlefield 5 werden bis zu 40% der auf dem Bildschirm sichtbaren Pixel ohne Auflösungsverlust bestrahlt.

Genau, die Frage ist aber ob sie mit bisheriger HW auch 20 Rays bei 100% Vollbild in 4K schaffen. Das steht nämlich nirgendswo. NVIDIA sagt nur, dass man in 4K 20 Rays pro Pixel absetzen kann. Ob sich das auf 5%, 40%, oder 100% Auflösung bezieht -> kein Statement. Zumindest habe ich keines gefunden und das fand und finde ich auffällig.

Ich weiß natürlich was Du meinst. Deine Aussage ist sinngemäß: Es ist BruteForce, da eben sämtliche Zeichen inklusive Zahlen und Sonderzeichen brutforced werden. Wohingegen ich sage: Naja, bei einem Zwei-Zeichen-Passwort von richtigem BF zu sprechen... technisch natürlich richtig, praktisch... geht so.

Egal was wo auf dem Bildschirm passiert - Bei Battlefield 5 werden bis zu 40% der auf dem Bildschirm sichtbaren Pixel ohne Auflösungsverlust bestrahlt.

Oder eben 60% mit entsprechendem Verlust.

Wortspiel incoming:
Alles eine Frage der Perspektive :p


ZeroZerp schrieb:
Der Quake 2 Pathtracer zeigt eindrucksvoll, dass dsa RT Abteil für ein vollständiges Pathtracing im herkömmlichen Sinne taugt, wenn man die Shader nicht durch andere Aufgaben belegt. Quake 2 frisst prinzipbedingt diesbezüglich natürlich wenig weg...

Yes, natürlich korrekt. Wobei auch hier wieder im Grunde genommen bedeutet:
"Hey! Mit Grafik aus den 90er Jahren kann ich auch volles RT realisieren..!"

Es bleibt halt momentan noch der von Dir angesprochene Kompromiss. Meiner Meinung nach mindestens noch 3, eher 4 oder 5 Generationen.
Warum ich die Voxel Technik mega interessant finde: 40% mit voller Auflösung im Augen-Fokus mit 10 Rays, dazu die restlichen 60% per Voxel. Wäre ein Traum und würde es von 4-5 Generationen eventuell auf +1 oder +2 verkürzen :)

@lynx007

Ernsthaft, keiner deiner iFrames in den letzten Tagen (Videos) hat funktioniert. Fällt Dir das net auf? :D
 
Zuletzt bearbeitet:
qappVI schrieb:
bei mir sind zuerst die Texturen und Schatten dran.

WAHHHH Texturen? Die kosten keine Leistung nur VRAM. Wie kommt man nur darauf? Vielleicht bei Nvidia weil die immer mal wieder am VRAM geizen ansonsten bringt Texturen runterdrehen nichts an Performance.
 
duskstalker schrieb:
nvidia ist teil der khronos group, die vulkan verwaltet - wieso wird hier nicht in kooperation mit den anderen auf vulkan für raytracing gesetzt? jeder würde davon profitiern, wenn vulkan dx12 ablösen würde - aber man kann sicher sein, dass microsoft und nvidia hier ein gemeinsames süppchen kochen.

Hier erzählst du leider Quatsch, Nvidia hat zeitgleich eigene APIs für Vulkan veröffentlicht! Wieso hier nicht gemeinsames geschaffen wurde, liegt an der Unfähigkeit der Khronos Group und der beteiligten Personen.

765193

https://github.com/KhronosGroup/Vulkan-Docs/issues/686

Man achte auf das Datum und die Aussage! Mit so einem Haufen kannst du keine Technologien gemeinsam entwickeln, dann gäbe es RT irgendwann in 5-10 Jahren.
 
  • Gefällt mir
Reaktionen: KlaraElfer und kisser
Benji21 schrieb:
Also im Performance Index bei pcgh ist sie hinter einer mit lächerlichen 1600 MHz taktenden 1070... :stacheln: klar braucht sie weniger Saft als Vega oder 1070, die 20 Euro maximal holst du aber teilweise in 3 Jahren nicht rein weil vorher der horrenden Speicherbestückung die Luft ausgeht wie bei der 1060/1660/2060... :rolleyes: Ich meine: kauft das Ding ruhig für rund 300 Tacken, jammert aber bitte nicht wenn ihr die nächsten Neuerscheinungen dieses und nächstes Jahr nicht mehr mit vollen Details zocken könnt.
Du hast 100 Watt mehrverbrauch und das sind bei 2std Täglich 20€ pro Jahr. Sprich hast du die Karte zb ca 5 nutzt schon etwa 100€ die du deinem Stromanbieter schenkst. Spielst du nur 7 std pro Woche, dann sind es immer noch 50€. Dazu gibt es die Vega mit nem vernünftigen Kühler frühestens ab 330€.
https://www.computerbase.de/preisvergleich/?cat=gra16_512&xf=653_AMD~9808_11708+-+Radeon+RX+Vega&asuch=&bpmin=&bpmax=&v=l&hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu&plz=&dist=&sort=p
Rechne ich die 50-100€ für den Strom den ich spare auf den Kaufprei drauf bekomme ich dafür aber schon eine 2060
https://www.computerbase.de/preisve...c=uk&hloc=eu&sort=p&xf=9810_9+5242+-+RTX+2060

Und wen die Deadline 290€ ist, und man nicht auf 8gb verzichten will, dann vielleicht noch eine 1070 abgreifen.,
https://www.computerbase.de/preisvergleich/?cat=gra16_512&v=l&hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu&filter=aktualisieren&sort=p&xf=9808_11606+-+GTX+1070~9808_11710+-+GTX+1070+Ti
Ergänzung ()

Sun_set_1 schrieb:
Genau, die Frage ist aber ob sie mit bisheriger HW auch 20 Rays bei 100% Vollbild in 4K schaffen. Das steht nämlich nirgendswo. NVIDIA sagt nur, dass man in 4K 20 Rays pro Pixel absetzen kann. Ob sich das auf 5%, 40%, oder 100% Auflösung bezieht -> kein Statement. Zumindest habe ich keines gefunden und das fand und finde ich auffällig.

Ich weiß natürlich was Du meinst. Deine Aussage ist sinngemäß: Es ist BruteForce, da eben sämtliche Zeichen inklusive Zahlen und Sonderzeichen brutforced werden. Wohingegen ich sage: Naja, bei einem Zwei-Zeichen-Passwort von richtigem BF zu sprechen... technisch natürlich richtig, praktisch... geht so.



Oder eben immer 60% mit entsprechendem Verlust.

Wortspiel incoming:
Alles eine Frage der Perspektive :p




Yes, natürlich korrekt. Wobei auch hier wieder im Grunde genommen bedeutet:
"Hey! Mit Grafik aus den 90er Jahren kann ich auch volles RT realisieren..!"

Es bleibt halt momentan noch der von Dir angesprochene Kompromiss. Meiner Meinung nach mindestens noch 3, eher 4 oder 5 Generationen.
Warum ich die Voxel Technik mega interessant finde: 40% mit voller Auflösung im Augen-Fokus mit 10 Rays, dazu die restlichen 60% per Voxel. Wäre ein Traum und würde es von 4-5 Generationen eventuell auf +1 oder +2 verkürzen :)

@lynx007

Ernsthaft, keiner deiner iFrames in den letzten Tagen (Videos) hat funktioniert. Fällt Dir das net auf? :D
Doch läuft einwandfrei. Es werden die Videos angezeigt und kann sie abspielen. Muss also an deinem Rechner liegen, sry.
 
Zuletzt bearbeitet:
lynx007 schrieb:
Du hast 100 Watt mehrverbrauch und das sind bei 2std Täglich 20€ pro Jahr. Sprich hast du die Karte zb ca 5 nutzt schon etwa 100€ die du deinem Stromanbieter schenkst. Spielst du nur 7 std pro Woche, dann sind es immer noch 50€. Dazu gibt es die Vega mit nem vernünftigen Kühler frühestens ab 330€.

Rechne ich die 50-100€ für den Strom den ich spare auf den Kaufprei drauf bekomme ich dafür aber schon eine 2060


Und wen die Deadline 290€ ist, und man nicht auf 8gb verzichten will, dann vielleicht noch eine 1070 abgreifen.,

Nein, das stimmt so nicht. Das ist eine Milchmädchenrechnung: rüstet man vorher auf sparst du nur Prozentsatz X von deiner 5 Jahres Rechnung. Dazu schenke ich die dem nicht sondern habe sogar einen Gegenwert: mehr Leistung über einen längeren Zeitraum weil dass die 6GB Ram in naher Zukunft in Full HD limitieren ist so sicher wie das Amen in der Kirche. Momentan fängt der Spaß ja schon an und wird mit Sicherheit nicht weniger werden.
 
lynx007 schrieb:
Das liegt aber an deinem Rechner oder Scriptblocker. Hier läuft alles super.

Ich kann auch nur bestätigen:
765194


Ich weiss auch ehrlich gesagt nicht, was du damit eigentlich willst und an einem Werbeblocker liegt es auch nicht, weil ich auf unserem Server genau das gleiche Ergebnis zu sehen bekomme.
 
Benji21 schrieb:
Nein, das stimmt so nicht. Das ist eine Milchmädchenrechnung: rüstet man vorher auf sparst du nur Prozentsatz X von deiner 5 Jahres Rechnung. Dazu schenke ich die dem nicht sondern habe sogar einen Gegenwert: mehr Leistung über einen längeren Zeitraum weil dass die 6GB Ram in naher Zukunft in Full HD limitieren ist so sicher wie das Amen in der Kirche. Momentan fängt der Spaß ja schon an und wird mit Sicherheit nicht weniger werden.
Ach Quatsch, vielleicht irre ich mich. Aber nach 3 AMD karten wo es nie am Speicher gefehlt habe, wage ich die Prognosse das eher die FPS limitieren bevor der Speicher limitiert. Klar wer mit Texturmodsarbeitet und 30MaxFPS noch für Spielbar hält der wird nicht zu einer 1660ti greifen. Ich für meinen Teil würde echer zu einer 1660ti greeifen als zu einer 590, eher zu 2060 als zu einer Vega56.

Umd zum Strom, da meinte jemand 100 Watt sind bei 2std täglich, 14 std Wöchentlich, 80€ auf 4 Jahre. Ist diese Rechnung falsch? Falls ja warum? Ich meine 80€ sind 80€. Selbst wen ich wenig Spiele und dies zahl halbiere sind es 40€. 40€ die ich dem Stromanbiete schenke dich ich auch in eine 2060 stecken könnte.
 
Crytek bringt eine RT Demo raus und just kurz danach will NV es eingeschränkt auch den anderen Karten per Treiber freischalten.
Schon lustig. Aber ich finde es auch einen guten Schritt das es per Treiber möglich gemacht wird. Und klar ist es auch eine Marketingaktion (ja, nein, doch, oh).
AMD hat ja auch schon bestätigt das man Rt unterstützen will. Ich kann nur sagen, ich bin gespannt wie das umgesetzt wird und, ab welcher Graka das perfomant läuft.

Leider ist es so wie bei anderen Neuerungen im Graka Bereich. Die Hardware ist teils zu schwach dafür.
Auch bei Metro Ex. habe ich das Gefühl, das die Entwickler weniger Zeit hatten bei der non RT Version und es viel (bei einigen Sachen) zu schlecht aussah. Dauert ja auch das richtig auszuleuchten und wer weiß, ob man da dieselben Ress reinsteckt.
Diese Befürchtung bleibt meinerseits, solange nicht alle Klassen leistungsfähig genug für diese neue Technik sind.
Und neue Technik, da müssen die Entwickler auch erstmal klarkommen damit.
 
duskstalker schrieb:
natürlich kommen die spiele von den studios und nicht nvidia - aber wieso funktioniert die optimierung bei "gaming evolved" titeln so gut, und die optimierung bei gameworks immer "zufällig" so schlecht?
Ist das so?
Oder war das jetzt erstmal wieder nur so ne Behauptung aus dem Bauch heraus ohne jede Basis?

duskstalker schrieb:
es gibt kein spiel mit gameworks tessellation, das amd karten nicht benachteiligt.
Dann sollte AMD vielleicht mal an seiner Tesselation Performance schrauben.
Die Effekte werden möglicherweise so genutzt, daß sie NVidia-Karten sinnvoll auslasten und dabei ne schöne Optik rausholen.

Aber auch hier müsste ich erstmal wissen, ob das überhaupt so ist, wie du behauptest.
Daß Tesselation Leistung kostet, ist klar. Wie viel mehr es bei AMD als bei NVidia kostet, hätte ich gerne mal quantifiziert.

Ich gebe zu, daß ich bei diesem Thema selbst noch nicht wirklich recherchiert habe.
Aber wenn man etwas behauptet, sollte man es auch nachweisen können ... und am besten nicht nur mit Einzelbeispielen, die man sich gerade rauspickt.
 
  • Gefällt mir
Reaktionen: kisser
Ein Schritt, den jeder user nur begrüßen kann.
 
@USB-Kabeljau

Dann informier dich mal. Das mit Tesselation ist ein alter Hut und es gab und gibt keinerlei Gründe den Faktor 64 anzulegen außer man möchte seine eigenen alten Karten und die Konkurrenz ausstechen. AMD hat dazu einen Schalter in ihren Treiber eingebaut, bei der man die Tesselationstufe einstellen kann (wobei man klar gesehen hat das Faktor 32 gar keinen und Faktor 16 nur geringen Einfluss auf die Optik haben und das bei wesentlich niedrigeren Performancekosten). Den Schalter für die Abstufung vermisse ich z.B: immer noch im Nvidia Treiber.

Jetzt aber genug OT.
 
Zurück
Oben