News Nvidia Quadro RTX: Turing mit bis zu 16 TFLOPS und RT-Cores für Raytracing

Mustis schrieb:
... Das entspräche ca. 1 Billion Texel pro Skeunde.
Texel sind aber doch keine Polygone und ein Texel zu "berechnen" ist doch verglichen mit der Transformation eines Polygons deutlich einfacher.
 
Mustis schrieb:
Sicher nicht. RT hat hohen Einstiegsrechenaufwand, wird aber mit steigender Komplexität effizienter als Rasterization. Und dieser Punkt wird kommen und dann führt kein Weg an RT vorbei.

Alles toll... wie viele Spiele haben das jetzt oder in einem Jahr?
Das ist das Problem.
Bis du es wirklich brauchst ist die Spielerkarte veraltet.
Die GeForce 2180 rennt dann jede 2080Ti über den Haufen für weniger Geld: http://gpu.userbenchmark.com/Compare/Nvidia-GTX-980-Ti-vs-Nvidia-GTX-1080/3439vs3603

Locuza schrieb:
AC hat bei den bisherigen Spielen meist 5-15% für AMD gebracht, dass ist jetzt sicherlich nicht etwas, wo die Konkurrenz Schweißausbrüche bekommt.

Wenn eine Vega 64 sich plötzlich nur wegen AC gemütlich zwischen 1080 und 1080Ti schiebt meinst du also würde das Nvidia überhaupt nicht stören. Ich bin da anderer Meinung zumal Nvidia selbst ihrerm Softwarezeug angekommen ist.
Das Problem bleibt aber das gleiche: Das passiert nur in einer Handvoll Spiele.

Ich wollte auf den praktischen Nutzen hinaus.
Bei einer Profikarte kann ich mir vorstellen bringt Hardware-RT-Beschleunigung sofort etwas. Bei einer Spielerkarte jedoch fehlt aber die Software in Form von Spielen die das können.
Darum ist für mich RT erstmal einfach nur Markting-Blablabla. Wir brauchen Spiele.
Kann man jetzt vom Ei und Huhn anfangen, schon klar.
 
Hill Ridge schrieb:
Und weil diese Bausteine Closed-Source sind, kann AMD dafür nicht richtig optimieren.
Nichtmal die Spieleentwickler bekommen den Quellcode!

Sei mir nicht böse, aber dieser Unfug kommt mind. einmal in jedem AMD/NVIDIA Thread, als ob die Leute belehrungsresistent sind. @Locuza hat das schon detailliert ausgeführt; GameWorks ist schon seit einiger Zeit auf GitHub bzw. direkt bei der NVIDIA Developer Plattform offen mit Source Code verfügbar. Ich gehe auch stark davon aus, dass AMD da sicherlich auch reinschaut und optimiert. Mal Hand auf Herz: es sind auch nur ein zwei Effekte in aktuellen Spielen, welche auf AMD Karten überproportional Leistung kosten; da würde ich eher auf fehlende Hardwareimplementierung auf Seiten AMDs tippen. Ansonsten scheint mir GameWorks laut den Benchmarks (z.B. Final Fantasy) nicht so arg zu sein.

BTT: denke wenn AMD was bringen will, dann Vega 7nm jetzt. Ich meine die müssen ja nun direkt mit den Quadro Karten konkurrieren. Gegen die größeren GeForce werden wir leider nichts sehen. Fraglich bleibt, ob AMD Vega überhaupt weiterführen wird für Gamer. Viel günstiger werden sie die Teile nicht anbieten kommen und ich gehen davon aus, dass die neuen GeForce da preislich letztlich Druck machen werden.
 
Genau, Fakten sind für dich Unfug!
Da es Closed Source ist, bekommt man auf Github natürlich keinen Quellcode dazu!

Ob man vereinzelt mal etwas bekommt ist mir vollkommen egal, schön das NVIDIA alibimässig einen kleinen Teil offen legt...
 
Seh ich das richtig, dass die RT-Cores nur mit Win10 genutzt werden können? Oder können die auch noch was anderes machen?
 
Seh ich das richtig, dass die RT-Cores nur mit Win10 genutzt werden können?
Woher hast du das?

Wenn es wirklich so ist, könnte der Grund DX12 sein.

Für Vulkan ist aber sicher auch etwas ähnliches geplant, dann wird man unter zb. Linux auch die RT-Cores nutzen können.
 
Genau wegen DX12 fragte ich.
Ich hab jedenfalls nicht vor, deswegen auf Win10 zu wechseln.
 
consolefanatic schrieb:
In Metro wird es für AO+GI eingesetzt


Und Remedy hat auf der GDC auch angekündigt es in ihrer aktuellen Engine zu nutzen für reflektionen und glaub auch GI.

Das Video macht halt ohne Direktvergleich mit deaktivertem Raytracing absolut keinen Sinn.

Hab letztens eine off-screen Videoaufnahme gesehen, wo der Unterschied bei der Demo gezeigt wurde.

Der Hauptunterschied besteht halt bei der Verschattung von Gegenständen und Kontaktschatten. Also quasi das, was Ambient Occlusion allgemein bzw. zuvor HBAO+ und konsorten gemacht haben. Die Auswirkungen auf den Look sind vergleichbar. Aber grundsätzlich nichts, was man unbedingt bräuchte. Es sieht eben anders aus und ist sicherlich korrekter. Aber es sieht nicht direkt viel besser aus. Bisheriges Ambient Occlusion würds für mich auch tun, hauptsache es ist vorhanden. Solange das Raytracing Gedöns so viel Rechenleistung kostest, wäre es mir das niemals wert, da es den look nicht sonderlich aufwertet. Der Unterschied zwischn AO an und Aus ist dagegen massiv. Der Unterschied zwischen HBAO+ oder vergleichbarem und Raytracing ist aber eher gering. Zumal die Engines ja auch allgemein versuchen, Global Illumination zu immitieren.

Der Punkt ist eben, dass man mit Rastergrafik schon ewig darauf hinarbeitet, das zu immitieren, was Raytracing könnte. Es sollte daher natürlich logisch sein, dass der Wechsel auf Raytracing erstmal keinen so großartigen Effekt auf den Look hat. Er beseitigt halt einige macken und schönheitsfehler, die Rastergrafik so an sich hat, aber wirklich bessere Grafik bringt es erstmal nicht. Es ist nur so, dass Raytracing vermutlich Grundvoraussetzung ist, um Grafik irgendwann in einigen Jahrzehnten wirklich fotorealistisch zu machen.

Der Wechsel von Rastergrafik zu Raytracing bzw. die anstehende Übergangsphase sind jetzt erstmal reine Formsache, aber sicherlich nicht das Verkaufsargument schlechthin.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: AlphaKaninchen und v_ossi
Locuza schrieb:
Conservative Rasterization ist auch unter DX11.3 und DX12 spezifiziert, aber diese APIs verwenden die genannten Spiele nicht, sondern DX11.0 mit Nvidia exklusiven APIs für CR.
Somit läuft das nur unter Nvidia, aber auch von Windows 7-10, DX11.3/12 sind W10 exklusiv.
Würden die Spiele DX11.3/12 für HFTS verwenden, dann würde es folgerichtig auch unter Intels Gen9 Hardware und auch unter GCN5 (Vega) funktionieren, aber wie gesagt wird das dort so nicht umgesetzt.
.

Dann liegt das Problem aber wiederum nicht darin, dass es auf allgemeinem Weg nicht ginge weil nVidia nicht will, sondern dass man es einfach nicht gemacht hat, obwohl es ginge.
Möglicherweise war DX11.3 noch nicht final als das Spiel in die Entwicklung ging. Man hätte aber sicherlich später dann per Patch umziehen können.
 
Hill Ridge schrieb:
Genau, Fakten sind für dich Unfug!
Da es Closed Source ist, bekommt man auf Github natürlich keinen Quellcode dazu!

Ob man vereinzelt mal etwas bekommt ist mir vollkommen egal, schön das NVIDIA alibimässig einen kleinen Teil offen legt...

Was soll das? Belege? Hier steht klar das du den Source Code zu sehen bekommst auf GitHub. Musst dich halt anmelden für.
 
DocWindows schrieb:
Möglicherweise war DX11.3 noch nicht final als das Spiel in die Entwicklung ging. Man hätte aber sicherlich später dann per Patch umziehen können.

Man schleppt ja wegen der Kompatibilität zu Windows 7 auch noch einige Altlasten mit. Windows 7 ist mit 36% (laut Steam) noch immer weit verbreitet. Eine breitere Unterstützung von DX11.3/11.4 und DX12 werden wir vermutlich erst 2020 sehen, sobald der Support für alte Systeme endgültig abgesägt wird.
 
so, mal überlegen, die gamerkarten kommen zu vernünftigen preisen in brauchbaren mengen wohl erst nach xmas. davor kann man kleine mengen im 1k+ euro segment kaufen.

bis die karten unter 750 fallen, wird es wohl frühjahr werden. und jetzt, im sommer wird über software geredet, die evtl. mal kommen wird?

naja, macht euer ding, die rohleistung ist gut, der preis wird durch das neue "feature" exorbitant, meine gtx1070 im laptop wird 2020 abgelöst :D

btw @ cbteam....*malganzliebguck* vor vielen jahren hieß es noch, so ab 12-15 tera rechenleistung "kann" man raytracing in 1080p. ganz ohne dieses neue nvidia feature :D wenn ihr nochmal die alten sachen durch suchen würdet um zu erklären, was jetzt neu ist, wäre ich dankbar.

mfg
 
Zuletzt bearbeitet:
Sobald die Titan-Variante mit 384bit-Speicherinterface und 12-16GB GDDR6 kommt wird gekauft. Mein Bf1 bricht auf meiner Titan (Pascal) unter 3440x1440 regelmäßig auf 130fps ein, trotz niedriger Qualitätseinstellungen. Es wird Zeit für mehr power, zumal BfV vor der Tür steht.
 
Laggy.NET schrieb:
Hab letztens eine off-screen Videoaufnahme gesehen, wo der Unterschied bei der Demo gezeigt wurde.

Der Hauptunterschied besteht halt bei der Verschattung von Gegenständen und Kontaktschatten. Also quasi das, was Ambient Occlusion allgemein bzw. zuvor HBAO+ und konsorten gemacht haben. Die Auswirkungen auf den Look sind vergleichbar. Aber grundsätzlich nichts, was man unbedingt bräuchte.

Der Witz ist ja, dass die AO Varianten ja schon eine Art Raytracing darstellen. Das wird also sowieso schon (wenn auch nicht so korrekt) berechnet. Die Raytracing Cores bewirken aber, dass die Berechnungsarbeit von den Hauptkernen genommen wird und deutlich effizienter verpackt werden kann.

Zwei Fliegen mit einer Klappe- Ein hübscheres AO und Performancezuwachs!

Der Punkt ist halt, dass man mit Rastergrafik schon ewig darauf hinarbeitet, das zu immitieren, was Raytracing könnte. Es sollte daher natürlich logisch sein, dass der Wechsel auf Raytracing erstmal keinen so großartigen Effekt auf den Look hat.

Sehe ich auch so- Es wird wohl vorerst der Beschleunigung diverser Berechnungen dienen bei gleichzeitig gesteigerter Qualität.

Er beseitigt halt einige macken und schönheitsfehler, die Rastergrafik so an sich hat, aber wirklich bessere Grafik bringt es erstmal nicht.

Ist die Frage, was Du hier unter "besserer Grafik" verstehst. Die Qualität kann durch Raytracing auch deutlich sichtbar in vielen Bereichen gesteigert werden.

Es ist nur so, dass Raytracing vermutlich Grundvoraussetzung ist, um Grafik irgendwann in einigen Jahrzehnten wirklich fotorealistisch zu machen.

Exakt - Weil unser optisches System nunmal auf dem Raytracing prinzip basiert.

Der Wechsel von Rastergrafik zu Raytracing bzw. die anstehende Übergangsphase sind halt jetzt erstmal reine Formsache, aber sicherlich nicht das Verkaufsargument schlechthin.

Naja- Ich muss ganz ehrlich sagen, dass ich solche Innovationen immer dankend annehme und froh bin, wenn eben nicht nur die gleichen Systeme in X Iterationen stur beschleunigt werden, sondern auch sinnvolle neue Ansätze gebracht werden.

Dass Raytracing das Optimum aller Renderverfahren darstellt, ist unstrittig.
Dass mit steigender Komplexität der Szene die Rasterisierung in vielen Bereichen (Beleuchtung, Spiegelungen, Polygonzahl) an die Grenzen gerät eben auch.

Insofern sind wir wohl jetzt endlich auf dem richtigen Weg!

Sowas kriegt man rasterisiert halt einfach nicht hin:
https://upload.wikimedia.org/wikipe...sses_800_edit.png/1024px-Glasses_800_edit.png

Und wenn, dann mit so vielen Workarounds und Tricks, dass das Raytracing wieder zigfach schneller ist.

Grüße
Zero
 
Zuletzt bearbeitet:
Dass Problem wird sein dass es nur der RTX 2080/70 vorbehalten sein wird also nur Randgruppe nicht mehr und nicht weniger.

Ausser der Die der RTX 2060 steigt massive an was die Kosten nach oben treibt, also vieleicht doch nicht soweit hergeholt. Dass die GTX10** Serie bleibt und dann nach oben auf gestockt wird. Also GTX1070/80 350-500€ dann RTX2060 500-600€ dann RTX2070 600-700 und zuletzt RTX2080 700-800.
 
edenjung schrieb:
Meine 980ti lang noch lange und ich spiele heute schon viele spiele auf low, weil die Graka nicht warm werden soll und ich es leise mag.

:-D :-D :-D Läuft bei dir. Hahahahaaaaaa
 
  • Gefällt mir
Reaktionen: edenjung und Mcr-King
Mein Bf1 bricht auf meiner Titan (Pascal) unter 3440x1440 regelmäßig auf 130fps ein, trotz niedriger Qualitätseinstellungen. Es wird Zeit für mehr power, zumal BfV vor der Tür steht.
Da läuft bei einigen echt was. Man hätte ich echt gerne deine Probleme :D
 
  • Gefällt mir
Reaktionen: Lübke82
Mcr-King schrieb:
Dass Problem wird sein dass es nur der RTX 2080/70 vorbehalten sein wird also nur Randgruppe nicht mehr und nicht weniger.

Ausser der Die der RTX 2060 steigt massive an was die Kosten nach oben treibt, also vieleicht doch nicht soweit hergeholt. Dass die GTX10** Serie bleibt und dann nach oben auf gestockt wird. Also GTX1070/80 350-500€ dann RTX2060 500-600€ dann RTX2070 600-700 und zuletzt RTX2080 700-800.
Da sollte MS dann mal tief in die Subventionskasse greifen und Nvidia was zukommen lassen. Denn bei den Preisen wird das sicher im Massenmarkt kein Verkaufsargument.
Ich warte dann wohl, ob eine 2060/7nm noch vor Metro kommt und dann schau ich mir noch mal an, was sich bis dahin in der Praxis getan hat.
RT an sich ist schon wieder was, was mich reizen würde, mal wieder in die Highendkasse zu greifen. Wenn da nicht Win10 wäre, was für mich ausschlaggebender wäre als ein hoher Preis. Oder anders gesagt, eins von beiden würde ich vielleicht in Kauf nehmen, beides aber nicht.
Obwohl, könnte Win10 ja dann mal wieder auf eine Platte drauf hauen, ist jetzt drei Jahre her seit dem letzten mal. Zum Zocken allein kann man's ja vielleicht aushalten, wenn sich WUS noch dauerhaft deaktivieren lässt. Die integrierte X-Box als Dual Boot sozusagen. ;)
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben