Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Technik, Zukunft und Potenziale der Turing Architektur (keine Marken-/Firmen-/Preisdiskussion)
- Ersteller .Sentinel.
- Erstellt am
Flynn74
Lieutenant
- Registriert
- Juni 2005
- Beiträge
- 925
Ich arbeite beruflich mit Unity3D und ich freue mich schon auf die kommende RTX Unterstützung.
Mit Mesh-Shading z.B. wäre es nun möglich ein komplexes Mesh in viele Mini-Teile zu zerlegen und diese parallelisiert berechnen zu lassen. Aus einer Renderzeit von 1 Millisekunde für dieses Mesh wird plötzlich 1 Mikrosekunde (überspitzt und vereinfacht formuliert). Der Performancegewinn könnte gewaltig sein.
Raytracing ist dank DXR offen für Alle. Und irgendwer musste ja den Anfang machen. Ist natürlich einfach auf den Ersten einzuprügeln weil er noch keine Perfektion abliefert. Aber ich bin sicher die Geschichte wird Nvidia Recht geben. Und vor Allem die Kombination aus Raytracing und DLSS könnte auch in heutigen Games in 4k noch nie dagewesene Visuals bei 60 fps produzieren. Warten wirs ab!
Ich könnte mir auch gut vorstellen das sich Intel mit der kommenden dedizierten GPU an Raytracing versucht. Forschen tun sie in dem Bereich schon seit Ewigkeiten: https://arstechnica.com/information...ats-left-of-larrabee-ray-tracing-wolfenstein/
- Registriert
- Okt. 2007
- Beiträge
- 8.628
https://drive.google.com/open?id=1eaBScDDax_SVOmiOU60Ow7Zkw-xH5DiJ
Manche Virenscanner schlagen an (wie auch schon bei allen anderen DXR Demos). Ich habe alles manuell nachgeprüft -> Sauber
Screenshot:
https://i.imgur.com/YMRKytw.jpg
Oben kann man mit den Tasten 1 bis 8 diverse Effekte einschalten/abschalten.
Grüße
Zero
- Registriert
- Okt. 2007
- Beiträge
- 8.628
Es geht auf die Herausforderungen und Schwierigkeiten ein, die ein "weiter so" im Entwicklungsprozess von Grafikkarten bedeuten würden und warum es notwendig ist, in eine andere Richtung zu gehen.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Danke an Neo1179, der das Video im Final Fantasy XV DLSS Thread verlinkt hat.
Grüße
Zero
emeraldmine
Gast
Hurricane271
Lt. Commander
- Registriert
- Feb. 2017
- Beiträge
- 1.863
Er zeigt zwar warum Nvidia diesen "teuren" Weg gegangen ist, anstatt einfach Performance zuliefern.
Und was eigentlich für wirklich geniale Technologien am Start sind und was damit möglich ist.
Und erklärt diese Anhand von Demo-Material oder Nvidia-Aussagen.
Doch dieser Typ beschreibt kaum etwas, erläutert seine Aussagen nicht und man kann ihn nicht ernst nehmen.
Zumindest wirkt er nicht sehr objektiv, wegen den Sticheleien und teilweise unbegründeten Aussagen.
Da hilft es ihm auch nicht sich kurz über den Preis zu beschweren, wirkt eher so als tut er das nur weil es genau das ist was die Meisten hören wollen.
- Registriert
- Okt. 2007
- Beiträge
- 8.628
Darum geht es ja- Das "warum" ist ja hier immer die große Frage.
Warum nicht einfach mehr Shader, mehr Takt, so dass alles um 50%-80% im alten Verfahren schneller läuft?
Ja warum eigentlich nicht?
Eben weil Effizienz und Wirtschaftlichkeit der GPUs auf altem Wege nicht sinnvoll weiter wachsen können.
Wie er treffend beschreibt, wäre es nur eine Frage der Zeit, bis AMD als Konkurrent auch an diese physikalischen Grenzen stößt und schon wäre man, würde man sich nicht weiterentwickeln, leistungstechnisch eingeholt, da man nur immer kleiner werdende Schritte nach vorne machen könnte.
Wir sind an einer Schallmauer, ebenso wie in der CPU Fertigung, wo man auch schon jedes tröpfchen Leistung mit Gewalt herauspresst. Das ist also mittel-/sogar schon kurzfristig eine Sackgasse.
Hier ganz grob die Bremsklötze der Entwicklung (gilt für GPU und CPU):
Steigende Entwicklungs-/Fertigungskosten:
https://www.extremetech.com/computing/272096-3nm-process-node
Und natürlich erklärt er das ganze anhand von NVIDIA Demos und Aussagen, da diese ja gerade im Alleingang diesen Weg weg von der Brute- Force- Shaderleistung gehen.
Es geht ja in diesem Thread auch einzig und allein um die Potenziale der neuen NVIDIA Techniken. Da darf man eventuell vorhandenes Fanboy- Geplapper bei verlinkten Video einfach ignorieren, solange das Video/der Link auf die zu beleuchtende Umstände eingeht.
Ich gehe nämlich davon aus, dass Leute, die sich diesen Thread antun Wert auf die technischen Details und weniger auf irgendwelche Markenaffinitäten oder Markenkriegen interessiert sind und wissen, wie sie die für sich selbst relevanten Informationen für sich rausziehen können.
Auch hier ein Link von 2008:
https://www.microsoft.com/en-us/research/wp-content/uploads/2008/12/Hwu_Wen-mei_MicrosoftIntel.pdf
Man kann sehr schön erkennen, dass die Hersteller schon lange wissen, wo die Reise hingehen wird und dass der Zug der immergleichen Iterationen an Shrinks, Taktung, mehr Transistoren oder einfach ein Core mehr etc. eine Sackgasse ist.
Auch sieht man daran, wie lange man schon intensiv an dem Thema Paralleliserung dran ist und wie lange man schon versucht diese effizient nutzbar zu machen. Deshalb finde ich es immer wieder befremdlich, wenn man heutzutage so oft hört, dass man doch einfach die vielen nun zur verfügung stehenden Cores nutzen muss und den Code auf Parallelisierung auslegen muss.
Da arbeiten die schon zig Jahre dran! Und recht viel mehr, als derzeit verfügbar ist einfach nicht drin....
Man muss andere Wege gehen.
Grüße
Zero
- Registriert
- Okt. 2007
- Beiträge
- 8.628
Das ist nur ne Frage der Zeit- AMD ist in diesem Bereich sehr rührig.
https://www.golem.de/news/computerg...ltra-settings-im-grafikmenue-1803-133464.html
Die haben mit ihren primitve shaders (eine rudimentäre Form der Mesh Shader) diesbezüglich technisch auch vorgelegt. Nur leider war die Technik wohl buggy und es konnte nicht genutzt werden
https://www.hardwareluxx.de/index.p...twicklungspfad-fuer-primitive-shader-ein.html
Die haben mit Radeon Rays sogar schon lange ein heißes Eisen im Feuer. Die entwickeln sicher schon an einer Hardwareimplementierung in Sachen Raytracing.
Es ist wohl keine Frage, ob das auch für die Konsolen kommt, sondern eher wann. Wie oben schon beschrieben, beide Hersteller sind sich der Grenzen des Wachstums durch die aktuelle Technik bewusst....
- Registriert
- Aug. 2011
- Beiträge
- 12.969
ZeroZerp schrieb:Man kann sehr schön erkennen, dass die Hersteller schon lange wissen, wo die Reise hingehen wird und dass der Zug der immergleichen Iterationen an Shrinks, Taktung, mehr Transistoren oder einfach ein Core mehr etc. eine Sackgasse ist.
Wenn man von den Halbleitern wegkommt und anderes Material verwendet (Graphit / Kohlenstoff), dann sind vielfach höhere Schaltgeschwindigkeiten bei den Transistoren möglich. In diese Richtung wird geforscht und eigentlich ist das ganz verheißungsvoll, was da kommen könnte.
Zurück zu Turing: Für alle, die es genauer wissen möchten mit RTX gibts bei Nvidia auf deren Dev Seite eine Videoserie dazu: Video Series: Practical Real-Time Ray Tracing With RTX
- Registriert
- Okt. 2007
- Beiträge
- 8.628
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich finde, dass das eine respektable Leistung ist. Das entspricht ja quasi dem De- Fakto Standard bei Konsolen:4K in 30HZ. Wenn das Video sich technisch auch so in der Praxis im Spielebetrieb zeigt, dann ist auch eine 2070 mit RTX und DLSS auch gut mit 4K nutzbar.
Auch das Mesh- Shading funktioniert gut:
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Wie es aussieht, sind die Befürchtungen, dass die 2070 von den neuen Effekten aus Leistungsgründen nicht nutzen können wird, bis jetzt zumindest unbegründet.
- Registriert
- Okt. 2007
- Beiträge
- 8.628
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Nach dieser Info sollte bald eine Tech- Demo downloadbar sein:
https://gamefragger.com/multiplatfo...ing-videos-and-an-impressive-tech-demo-a11894
Grüße
Zero
emeraldmine
Gast
th3o
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 8.778
pietcux
Lt. Commander
- Registriert
- Juli 2007
- Beiträge
- 1.807
Dann lad dir doch einfach mal die Technik Demo runter wenn sie verfügbar ist. Da du ja ne RTX Karte hast kannst du dann ja sehen ob du es bemerkst oder nicht. Du kannst ja RTX an und abschalten.th3o schrieb:Ich bin grafikverwöhnt, aber eher im traditionellen Sinne. Ich möchte knackscharfe Texturen, nicht flackernde Schatten, gutes Ambient Occlusion und kein Kantenflimmern. Die Screenspace Reflections reichen mir vollkommen, plus hohe fps (jenseits sagen wir 80fps). Ich würde niemals Auflösung und fps opfern für schönere Lichteffekte, Schatten und Reflexionen wie das was man in den Raytracing Demos gesehen hat. Zb bei der Metro-Demo hat es mich null umgehauen. Ja, es sieht etwas hübscher aus, aber ohne sah es auch toll aus. Die Opfer die man in Performance hinnehmen muss sind es mir halt einfach nicht wert. Deswegen nutze ich diese Karte auch erstmal nur traditionell (gut, gibt ja aktuell auch noch kein Spiel mit Raytracing).
th3o
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 8.778
pietcux schrieb:Dann lad dir doch einfach mal die Technik Demo runter wenn sie verfügbar ist. Da du ja ne RTX Karte hast kannst du dann ja sehen ob du es bemerkst oder nicht. Du kannst ja RTX an und abschalten.
Okay, aber wo? Bei NVIDIA auf der Seite gibts nur so super alte Dinger...
- Registriert
- Okt. 2007
- Beiträge
- 8.628
Du kannst echte Wasserspiegelungen und Refraction sehen.th3o schrieb:Was soll in der Footage genau zu sehen sein? Ich sehe da nichts Ungewöhnliches. Sieht, was immer das alles ist, eher schlecht aus. Kein Trollpost, meine es ernst.
Zudem Schatten durch das teiltransparente Wasser. Also schatten durch transparente Materialien überhaupt.
Zudem sieht man realistische Schatten im Innenbereich. Also nicht Schatten die nur einen Farbwert liefern, sondern auch Schatten, die sich aufaddieren.
Zudem haben die Schatten einen natürlichen Blur, je weiter sie von Lichtquelle/der Stelle auf die der Schatten geworfen wird entfernt sind.
Zum Thema es sieht nicht "besser" aus bzw. Geschwindigkeit:
https://www.computerbase.de/forum/t...ach-mehr-grafikspeicher.1833029/post-21897100
https://www.computerbase.de/forum/t...ach-mehr-grafikspeicher.1833029/post-21897233
- Registriert
- Aug. 2011
- Beiträge
- 12.969
Ähnliche Themen
- Antworten
- 22
- Aufrufe
- 8.997