Notiz Techdemo: Echtzeit-Raytracing mit Nvidia RTX im Video

borizb schrieb:
649$ und schneller als eine Titan V. Es bleibt spannend bis Montag abend auf der Gamescom.

Klingt etwas zu sehr nach Fanboywünschen. Erinnert mich an die damaligen Gerüchte zu Polaris, die der RX480 schon nahezu magische OC Fähigkeiten und mehr Performance als einer FuryX / 980Ti zugesprochen haben. Ich wäre da noch etwas vorsichtig.

Zumal auf der RTX 2080 wohl eher nur der kleinere Turing Chip zum Einsatz kommt. Der kleine Turing hat 3072 Shader. Die Titan V hat 5120 (fast 66% mehr). Um die Leistung zu erreichen müsste die RTX 2080 entweder extrem hoch takten (was angesichts des fast gleichen Fertigungsprozesses eher nicht anzunehmen ist) oder die IPC müsste extrem gestiegen sein.

Vielleicht in Bezug auf exzessiven Raytracing Einsatzes (den wir in Spielen so fix dann auch nicht sehen werden). Rein von der Shaderleistung kommt die RTX2080 nicht so weit. Aber wer weiß. Aber wer weiß, vielleicht konnte Nvidia ja die Shaderleistung in spielen deutlich steigern man kann gesspannt sein.

650$ klingen recht realistisch. Ist zwar teuer, aber noch in einem Rahmen, den viele Bereit sind auszugeben. Dann liegt die 2070 wahrscheinlich bei so bei 450-500$. Sollte die RTX2080 wirklich schneller als eine Titan V sein, dann wäre die 2070 noch ca. 10-20 % schneller als eine 1080Ti und eine 2060 wohl auf 1080 OC Niveau.

Ich bin auf die Gamerkarten sehr gespannt. Ich hoffe, sie streichen die Tensor Cores auf der Gaming GPU nicht, denn dann werden die Karten nicht nur für Spieler, sondern auch für Entwickler extrem spannend. Und so oft wie in der Quadro Präsentation von AI gestütztem Raytracing gesprochen wurde, habe ich tatsächlich etwas Hoffnung, dass die TPU's tatsächlich bei den consumer Karten noch vorhanden sind. Dann könnte ich bei einer 2080 für 650$ schwach werden, eine 2070 wäre aber sicher meins :)
 
DonnyDepp schrieb:
Remake von dem hier?

Genau das selbe dachte ich auch. das ding ist so sehr kopiert das ich eher nach der Szenengestaltung geschaut habe als nach der RT Qualität. Fail. xD
 
Ein so niedriger Preis für eine 2080 würde aber bedeuten, dass wir uns auf einen bald anstehenden deutlich schnelleren Refresh einstellen können und man schnell die Lager leer bekommen möchte, denn schneller als eine 1080ti, aber trotzdem günstiger ist kein gutes Geschäft, wenn da so bald nichts nach kommt.
Ich vermute Navi und Ampere 7nm sind richtig flott.
 
Der Preis könnte hinkommen. Wenn man den Preis 1:1 umrechnet und die MwSt. addiert, landet man bei rund 780€. Das ist nicht wesentlich günstiger als eine 1080 zum Start aber auch nicht wesentlich teurer.
 
DonnyDepp schrieb:
Remake von dem hier?

DAAAAANKE !!
Mein erster Gedanke war auch "It's about Time!"
Als dann noch diese Klappen am Anzug der Reihe nach runterklappten dachte ich mir schon "wie unverschämt dreist geklaut!" :-D
 
Hill Ridge schrieb:
Wie PhysX wird es wohl kaum enden, weil DirectX Raytracing nicht von NVIDIA ist.
Auch AMD wird das unterstützen, wahrscheinlich schon mit Navi!

Ja, stimmt, allerdings ist DX12 ohnehin noch nicht so wirklich weit verbreitet, meinte eher, dass es eine Art Gimmick sein könnte, das dann kaum einer in Spiele einbaut und irgendwie auf Dauer untergeht oder mal als Zusatzoption in 5 AAA Titeln pro Jahr auftaucht, die sie dazu noch in 4K unspielbar macht. Nicht dass ich das wollte, wäre halt nur schade.
 
Die Diskussion hier erinnert mich streckenweise an die Zeit im der es darum ging, dass 2d durch immer mehr 3d ersetzt werden sollte. Das wollte damals auch niemand einsehen, zum einen, weil viele eben nicht wirklich weiter sehen als bis zum Gartenzaun zum anderen sah 2d doch eh viel besser aus.
 
  • Gefällt mir
Reaktionen: AffenJack
Ich tippe darauf, dass Metro: Exodus das erste Spiel sein wird (Q1/19), das Raytracing unterstützen wird. Immerhin hat Nvidia Exodus auch schon herangezogen um Raytracing zeigen zu können.
Metro wird dann wohl mit aktiviertem Raytracing wie eine Kartoffel auf Pascal-Karten laufen, wenn Raytracing auf Turing-Karten um Faktor 25 schneller laufen soll laut Nvidia.
 
KarlKarolinger schrieb:
Ja, stimmt, allerdings ist DX12 ohnehin noch nicht so wirklich weit verbreitet, meinte eher, dass es eine Art Gimmick sein könnte, das dann kaum einer in Spiele einbaut und irgendwie auf Dauer untergeht oder mal als Zusatzoption in 5 AAA Titeln pro Jahr auftaucht, die sie dazu noch in 4K unspielbar macht. Nicht dass ich das wollte, wäre halt nur schade.

Raytracing wird nicht untergehen. Sogut wie jeder Entwickler da draussen sieht Raytracing als die Zukunft an. Es wird kein pures raytracing erstmal, aber hybridengines wird jeder Entwickler über die Zeit anbieten. Zumindest bei MS kann man sich auch sehr sicher sein, dass die nächste Xbox Richtung Raytracing gehen wird, sonst hätte das mit DXR sicher länger gedauert und man würde DXR nicht versuchen zu pushen. Spätestens ~2021 wird also der große Umschwung kommen. Der große Vorteil ist insbesondere, dass RT viel leichter zu programmieren sein soll und alleine deshalb werden es Entwickler nutzen.
 
  • Gefällt mir
Reaktionen: KarlKarolinger
raytracing sollte sich auf lange sicht hin im geldbeutel bemerkbar machen:
wenn eine "RPU" 144fps/Hz in 4K packt, dann wird Sie das fuer jedes Raytracingunterstuetzende Game schaffen, egal ob Crysis4 in 2 Jahren oder Crysis5 in dann 6 Jahren (nur ein Beispiel)
 
Ich hab irgendwie den Eindruck die meisten hier kommentieren ohne ansatzweise begriffen zu haben worum es geht.

Es geht nicht wirklich darum wie gut das Video aussieht, sondern darum mit welcher Technologie dieses Ergebnis erreicht wurde.

Vereinfacht gesagt sind bisher (fast) alle Reflexionen und Schatten in Spielen Fake. Manchmal besser, manchmal schlechter, aber eben immer alle nur ein Ersatz für das was mit physikalisch korrekter Berechnung möglich wäre.

Raytracing verschlingt Unmengen an Rechenleistung, aber bringt dafür erstmals annähernd realistische Darstellungen von Licht und Schatten.
Wenn das Video wirklich komplett mittels Raytracing und in Realtime mit ordentlich FPS berechnet wurde, ist das aus technischer Sicht sehr beeindruckend.

Allerdings ist dann auch sehr klar warum er eben nicht nach draußen geht... die benötigte Rechenleistung würde grob geschätzt nochmal um den Faktor 10 steigen.
 
  • Gefällt mir
Reaktionen: AwesomSTUFF und KarlKarolinger
Der Vorteil liegt doch auf der Hand. Heute hat man als Entwickler nur bregnzt Ressourcen. Die perfekte Engine auf Spiegelungen und Light auszurichten ist extrem aufwendig. Klar kann man mit Lightmaps und unbegrenztem Aufwand dasselbe erreichen, aber diese muss ich erstellen und optimieren.

Mit Raytracing bring ich Physik ins Spiel, überlasse es der Oberfläche was darin spiegelt. Ich kann mich wieder mehr auf das Design und Material konzentrieren, die Spiegelung quasi als Refkektionswert definieren und DX oder RTX sorgt für den Rest.

Raytracing sehe ich als ziemlich perfekte Methode die Grafik aufzuwerten, weniger direkt als eben indirekt dadurch dass es einfacher wird gute Grafik zu produzieren. Aktuell hält weniger die GPU und Engine die Leistung und Grafik zurück, da zeigen gut laufende Ausnahmetitel wie Bf1, viel eher ist es der Umstand dass nicht jedes Studio die Mittel hat ihre Engine so zu optimieren.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Ich denke mal man muss berücksichtigen, dass Raytracing ja auch kein starres Verfahren ist sondern eine Vielzahl von Techniken beschreibt, jede mit ihren eigenen Vorteilen, Schwächen und Zwecken. Zudem kann man auch bei Raytracing wieder beliebig viele Optimierungen oder Hacks einbauen, zum Beispiel indem man Raytracing mit Rasterisierung kombiniert. Gerade dies ist jedoch auch nötig, wenn man eine gute Performance haben möchte.

Somit zerplatzt auch der Traum, dass man ein einheitliches einfaches Renderingverfahren hat, dass man für alles in einem Spiel loslassen kann, sondern man hat sich ein zusätzliches Werkzeug geschaffen um Teile der Szene mit globaler Beleuchtungseffekten, wie zum Beispiel der gerichteten Reflexion zu versehen, was man zusätzlich zu seinen alten Werkzeugen anwenden muss.
 
Zuletzt bearbeitet:
Das wird erst mal nicht anders wie damals bei Tesselation etc.. Sieht teilweise schön aus, Nvidia und AMD beharken sich und die meisten schaltens ab wegen der Performance. Ich sag nur Hairworks beim Witcher. Wer hatte es alles aktiviert? Mal Hand hoch.
Langfristig wird's ja vielleicht was, 2022 bei der RTX 22xx dann. Bis dahin gibt's dann wahrscheinlich auch ein paar Spiele. Erst mal Realgameszenen mit/ohne sehen, keine Demos. Vorher zählt eigentlich nur, was aktuell an Leistung/Qualität rumkommt.
Mal schauen, ob es bei der "Geforce Gaming Celebration" was davon zu sehen gibt. Zum Anfüttern wären so ein paar Schnipsel in der Entwicklung befindlicher Spiele mit passenden Effekten ja ideal.
 
andi_sco schrieb:
... Für viele Office Anwender ausreichend und als absolute minimalistische Stromsparlösung (Öko Label, Laptop, Tablets) immer noch gut.
Und wenn es mehr sein soll, wird die Extra Karte hochgefahren.

Na gut, von den Office-Anwendern rede ich ja nicht, diese werden so oder so keine dGPU anfassen/bezahlen wollen, aber Gelegenheitsspieler schon.

Normalerweise (Surface Produkte von Microsoft sind da bspw. eher die Ausnahme) gibt es entweder das eine (iGPU) oder das andere (dGPU), aber eher selten beides und Intel koennte mit den dGPUs im Einsteigsbereich auch mehr verdienen als den iGPUs, wieso also nicht letztere vom Markt ganz verschwinden lassen, solange man die besten Einstiegsloesungen bieten kann und die Marktanteile haelt.

Natuerlich duerften iGPUs bei Intel aber auch eine Option sein um mit eigenen SoCs beim Konsolemarkt einen Deal zu landen, je nachdem wie man glaubt sich als Neueinsteiger da preislich aufstellen zu koennen.

Da koennte es fuer AMD dann schon deutlich schwieriger werden beide grossen Konsolenhersteller (Sony und Microsoft) mit den eigenen SoCs zu halten.
 
Für AMD spricht die eigene Erfahrung, da würden Sony und MS bestimmt nicht so schnell drauf verzichten wollen.
 
DenMCX schrieb:
Wollte gerade sagen - wobei das für mich schon fast dreist "geklaut" ist als ein Remake...

Und die Szene ist wahrscheinlich aus irgendeinem Iron-Man-Comic oder Manga/Anime "geklaut", so what?

So stellt man sich halt in der Regel die Zukunfts-Exosuit-Montage vor.
 
Muss sagen. Die Demo ist wirklich beeindruckend.

Damals ist mir bei den UnrealEngine 4 Demos auch die Kinnlade runtergeklappt. Vor allem bei der Infiltrator Demo oder bei der Elemental Demo.

Heute haben wir so ne Grafik auf den Konsolen. Man muss sich nur mal God of War, Detroit Become Human, das neue Last of Us oder Star Citizen ansehen. Und was Doom Eternal bei 60 FPS auf den Konsolen schafft ist auch einfach nur pervers...

Sobald die neuen Konsolen raus sind, die auf der Technik basieren, die AMD und Nvidia in den nächsten 1-2 Jahren rausbringen, wird so eine Grafik und Bildqualität ziemlich normal sein. Vor allem wenn Microsoft Raytracing schon bei DirectX offiziell aufnimmt, dann steht zu 100% fest, dass da auch was von AMD und somit auch für die Konsolen was kommt (was wiederum heißt, dass sämtliche Multiplattform Titel es nutzen können = gut für PC spieler). AMD, Nvidia, Intel... die sitzen, was die DirectX API betrifft mit Microsoft seit jeher in einem Boot. Was dort beschlossen wird, wird kommen um zu bleiben.


uwei schrieb:
Das wird erst mal nicht anders wie damals bei Tesselation etc.. Sieht teilweise schön aus, Nvidia und AMD beharken sich und die meisten schaltens ab wegen der Performance. Ich sag nur Hairworks beim Witcher. Wer hatte es alles aktiviert? Mal Hand hoch.
Langfristig wird's ja vielleicht was, 2022 bei der RTX 22xx dann. Bis dahin gibt's dann wahrscheinlich auch ein paar Spiele. Erst mal Realgameszenen mit/ohne sehen, keine Demos. Vorher zählt eigentlich nur, was aktuell an Leistung/Qualität rumkommt.
Mal schauen, ob es bei der "Geforce Gaming Celebration" was davon zu sehen gibt. Zum Anfüttern wären so ein paar Schnipsel in der Entwicklung befindlicher Spiele mit passenden Effekten ja ideal.

Ich hoffe dir ist bewusst, dass Tesselation in extrem vielen Spielen ein grundlegendes Feature ist...
Viele Spiele bieten dafür nichtmal mehr einen Regler im Optionsmenü an und selbst auf Konsolen ist es standard. In Fallout 4 wird z.B. die Beleuchtung mit Tesselation berechnet - auch auf den Konsolen.
Tesselation ist mittlerweile ähnlich standard wie Ambient Occlusion. Vor einigen Jahren konnte man hier am PC noch zwischen SSAO und HBAO+ wählen. Die Option ist bei neueren Spielen immer seltener verfügbar, weil viele Entwickler AO Techniken entwickelt haben, die die alten Techniken was Qualität und performance angeht komplett deklassieren.

Es gibt viele ehemals leistungsfressende Features, die soweit optimiert wurden, dass zunehmends darauf verzichtet wird, sie überhaupt ins Optionsmenü zu integrieren...
Nur weil man was nicht einstellen kann, heißt es noch lange nicht, dass es nicht genutzt wird.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben