Notiz Techdemo: Echtzeit-Raytracing mit Nvidia RTX im Video

Naja, irgendwelche futuristischen Robotorszenen als Tech-Demo zu nutzen ist ja fast Tradition. Realistische Darstellung von Personen und natürlicher Umgebung kann man dadurch aber nicht abschätzen.
 
  • Gefällt mir
Reaktionen: NoSyMe und Hill Ridge
Ich bin eher daran interessiert, was die neuem gpus kosten sollen und welchen Fortschritt man gegenüber pascal gemacht hat. Ist 4k 120fps möglich?
Bin gespannt welche infos wir am 20.8. kriegen
 
Angeblich schafft die rtx 2080 im ashes of the singularity benchmark 78fps avg. in 4k. Ob das stimmt oder nicht, wird sich zeigen
 
so_oder_so schrieb:
Wieviele Techdemos zu neuen Karten hab ich mit 30+ Jahren schon gesehen und nie wurde eine davon auch nur halbwegs performanet in Anwendungen / Spielen umgesetzt, weil die jeweilige Generation eben keine flüssigen FPS damit auf den Schirm zaubern konnte...

Dachte auch die ganze Zeit, die sollen das mal in einer Open World zeigen, z.B. Assassin's Creed. Ein kleiner abgeschlossener Raum ist wahrscheinlich einfacher zu berechnen. In dem Zusammenhang auch lustig, dass er fast nach draußen gegangen wäre und dann doch wieder runter, so als würden sie an der Stelle zugeben, dass es draußen nicht mehr so gut funktionieren würde. ;)
Wenn man irgendwann doch mal volles Raytracing hinbekommt, das wäre natürlich sehr interessant, hoffentlich endet es nicht so wie PhysX und wird auch von AMD noch unterstützt.
 
  • Gefällt mir
Reaktionen: so_oder_so
Wie PhysX wird es wohl kaum enden, weil DirectX Raytracing nicht von NVIDIA ist.
Auch AMD wird das unterstützen, wahrscheinlich schon mit Navi!
 
Joa, ganz nett die Demo, natuerlich viel besser/beindruckender/fantastischer und ueberhaupt als AMD das jemals koennte, denn es kommt ja von nVidia :lol: ... oops, wohl doch nicht ganz so innovativ (Stichwort Microsoft API) :o:heul:... mehr Glueck beim naechsten Mal :rolleyes:.

Ob das ganze/der Aufwand dann auch mehr Spass beim spielen macht (?) ... wohl eher nicht, vor allem wenn es halbgar implementiert werden sollte und man fuer die GPU-Technik dafuer ueberproportional loehnen darf, aber mit Speck faengt man eben Maeuse, nich' ;).

Vielleicht kommt dann in 5 Jahren irgendetwas brauchbares, in der Richtung Raytracing (was spuerbar besser ausschaut ohne grossartig GPU-Ressourcen zu fressen), aber momentan ist es nur Early Adopter Hype ;).

Den muss/sollte es wohl auch geben, damit die Technik genuegend finanziell angekurbelt wird, auch wenn die GPU-Loesungen anfaenglich limitiert/halbgar sein duerften .... na denn 'mal kraeftig loslegen zum Marktstart der RTX Turing/Ampere-Gaming-GPUs .... kaufen, kaufen, kaufen :D ...

Ein Zufall, dass gerade jetzt der Einstieg in diskrete GPUs seitens Intel schon fuer 2020 beworben wird?

Intel-Discrete-Graphics-2-1000x562.jpg


Ziemlich clever und AMD/RTG sollte sich dringendst etwas vom Intel Marketing (bzgl. der Informations-/Kommunikationspolitik fuer Navi und danach) abschauen, sonst koennte es passieren, dass sie in nicht allzu weiter Ferne nur noch dritte Kraft bei den dGPUs sein werden, was ich nicht hoffe.

Gespannt bin ich auch, was Rajas "ehemaliges Baby" (die bis zu seinem Weggang komplett unter seiner Regie entwickelte Navi-Architektur von AMD/RTG) wird reissen koennen (wohl auch in Abhaengigkeit davon, was am Ende uebrig geblieben sein wird von der Architektur und was kurzfristig noch modifiziert/umgestellt/angepasst wurde (nachdem RX Vega ja feature-technisch nicht so gezuendet hat, wie uspruenglich angedacht/verkuendet).
 
Zuletzt bearbeitet:
Chismon schrieb:
AMD/RTG sollte sich dringendst etwas vom Intel Marketing (bzgl. der Informations-/Kommunikationspolitik fuer Navi und danach) abschauen, sonst koennte es passieren, dass sie in nicht allzu weiter Ferne nur noch dritte Kraft bei den GPUs sein werden, was ich nicht hoffe.
AMD ist dritte Kraft bei GPUs. ;)

Und zum Thema raytracing in Spielen.
KarlKarolinger schrieb:
Dachte auch die ganze Zeit, die sollen das mal in einer Open World zeigen, z.B. Assassin's Creed. Ein kleiner abgeschlossener Raum ist wahrscheinlich einfacher zu berechnen
Dynamische Lichteffekte werden grundsätzlich nur in einem kleinem Umkreis um den Spieler berechnet. Auch heute schon, auch in Außenbereichen in Open world Spielen.

Mit Raytracing wird es wie Tessalation laufen. Einfach zu implementieren, leicht einsetzbar um wow Effekte zu erzeugen. Schwieriger, wenn es unbemerkt natürlich wirken soll. Glaube aber schon die erste Generation wird ordentliche FPS liefern und die Umsetzung wird nicht lange dauern, weil es kaum mehr Aufwand bedeutet, wenn es einmal in die engine integriert ist.
 
Qarrr³ schrieb:
AMD ist dritte Kraft bei GPUs. ;)

Bei den "diskreten GPUs" latürnich (ist jetzt korrigiert), danke für die Berichtigung ;) ...

... iGPUs werden dann mit Intel's Einstieg in den dGPU Sektor an Bedeutung verlieren, könnte ich mir vorstellen.
 
so_oder_so schrieb:
Wieviele Techdemos zu neuen Karten hab ich mit 30+ Jahren schon gesehen und nie wurde eine davon auch nur halbwegs performanet in Anwendungen / Spielen umgesetzt, weil die jeweilige Generation eben keine flüssigen FPS damit auf den Schirm zaubern konnte...


abwarten....damals hat mir pixel shader 1.3 mit semi transparenten texturen (eine tech demo mit sauriern) schon den kiefer klappen lassen, bis zur geforce3 und farcry mit endlich "echtem" wasser hat es auch nicht lange gedauert. jeder kannte dawn mit den patch´s für männer und verliebt waren wir alle ein bisschen. klar hat es in letzter zeit immer länger gedauert, aber ein spiel ist ja heutzutage auch ein wenig komplexer als max payne z.b.

über die zeiten als glide bei voodoo noch alle zum kinnladen klappen gebracht hat oder man unterschiede sah zwischen matrox 32bit, ati 24bit und nvidia 16bit, fange ich mal gar net an.

erste massentaugliche raytracing produkte für endverbraucher ist mMn der absolut richtige weg (nicht mehr nur noch größere explosionen und texturen) - immer her damit.

ich drücke nvidia auf jeden fall die daumen und hoffe insgeheim nur aus preispolitischen gründen, dass das ganze nicht einschlägt wie eine bombe.

mfg
 
Ich hab die Geforce FX 5950 Ultra AGP für die Dawn Demo sogar neben mir stehen.

War zwar schick anzusehen, aber mehr war's auch nicht.
 
der ati patch für die *edit* radeon9700er reihe hat aber nicht lange auf sich warten lassen und die features kamen ziemlich schnell bei games an.

dann kamen unified shader (keine vertex und pixel shader mehr getrennt) und dann compute shader. da war dann halt nicht mehr viel mit neuerungen, die für "gamer" gemacht sind.

:D
 
Zuletzt bearbeitet:
Chismon schrieb:
iGPUs werden dann mit Intel's Einstieg in den dGPU Sektor an Bedeutung verlieren, könnte ich mir vorstellen.
Könnte mir auch vorstellen, dass sie an Bedeutung gewinnen. Wenn Intel das gut angeht, könnte die Intel GPU mit ins package und der gddr6 RAM bietet gemeinsamen Zugriff, was die Zugriffe stark beschleunigen könnte. Sowohl bei Spielen als auch in professionellen Anwendungen.
 
Eigentlich wollte ich meckern, aber man muss ehrlicherweise gestehen, dass der Metall-Look schon sehr gelungen ist.
Davon abgesehen finde ich nicht, dass es so abgefahren gut aussieht. Man sieht extrem viel weiß und genau 3 bewegte Objekte. Crysis 3 ist auch schon 5 Jahre alt...
 
Wieder eine Grafikoption, die ich abschalten kann, für mehr FPS. :)

Chismon schrieb:
aber momentan ist es nur Early Adopter Hype ;).


Yep.

Mal schaun, wie weit die Technik in 5 Jahren fortgeschritten ist.

Bis dahin kommen bald sicher 1, 2 Vorzeigetitel mit Demo-Charakter, wo das implementiert sein wird(bestimmt auch zum Release), mit Hilfe von Nvidia, aber die große Masse an Spielen wird das bestimmt noch nicht nutzen.

Mal in 5 Jahren gucken, was dann ist.
 
  • Gefällt mir
Reaktionen: Chismon
Auf der Siggraph 2018 gab es noch ein weiteres Video mit einer Nvidia RTX, wo Raytracing gezeigt wurde

 
Qarrr³ schrieb:
... mir auch vorstellen, dass sie an Bedeutung gewinnen. Wenn Intel das gut angeht, könnte die Intel GPU mit ins package und der gddr6 RAM bietet gemeinsamen Zugriff, was die Zugriffe stark beschleunigen könnte. Sowohl bei Spielen als auch in professionellen Anwendungen.

Ja gut, langfristig vielleicht, wenn man die Technologie weiter verfeinert und miniaturisiert bei akzeptablem Verbrauch in iGPUs einbringt (nur habe ich da auch bedenken, dass wir bald in eine Mauer rennen werden, 5nm liegt bei Intel ja angeblich noch in der urspruenglichen Zeitplanung, aber mehr als maximal 3nm sehe ich aktuell technisch noch nicht am Horizont und die Kosten dafuer duerften heftig werden/explodieren und Multi-GPU-Systeme waeren dann notwendiger den je).

Ich glaube fast, dass HBM2/3 da noch deutlich interessanter fuer iGPUs waere als GDDR6, aber man muss abwarten wie sich die Erschwinglichkeit/Nachfrage entwickelt ... leider hoert man in letzter Zeit nicht mehr viel bzgl. HBM-Speicher, wohl auch weil GDDR6 gerade in aller Munde ist.

Falls Raytracing sich breit etablieren sollte, duerften die iGPUs anfaenglich dazu noch nicht ausreichend in der Lage sein (wenn man denn auch noch nebenher - wie bisher - Ansprueche auf Mehrleistung von Generation zu Generation hegt). Zudem koennte man sich selber Konkurrenz machen (im eigenen dGPU-Einstiegsbereich durch eigene Higher-End iGPUs).

Spannend duerfte die Weiterentwicklung aber allemal werden ;) ...
 
Zurück
Oben