News Auch für Radeon: Crytek zeigt Raytracing-Demo für kommende CryEngine

Das einzige spannende an der Demo ist die Frage ob es Sinn macht anstelle eines von der Gpu erstellten Bsp trees einen von der Cpu erstellten Voxel tree zu nutzen oder vice versa.

Genau so finde ich den Artikel von Cb fragwürdig hatte mir das Video nicht angeschaut und der Ganze Text dreht sich um Global Illumination und im Video geht es dann auf einmal um Reflektionen das eine ist mit Voxeln eher trivial zu berechnen das andere geht nicht ohne vertex und uv Informationen.

Das ganze zu vermischen ist nicht gerade hilfreich alles was ich bisher geschrieben habe bezieht sich auf den Text und nicht das Video…
 
  • Gefällt mir
Reaktionen: Lübke82, KlaraElfer und .Sentinel.
Aldaric87 schrieb:
Man sollte da schon unterscheiden. nVidia wirft was auf den Markt und kündigt dutzende Spiele dafür an. Bisher haben wir zwei Titel die das ganze nutzen, 7 !!! Monate nach Marktstart der Karten.
Macht das die Technik an sich jetzt schlechter?

AMD's Aussage dazu war von vorneherein, dass sie erst RT unterstützen werden, wenn es für die Masse machbar ist, und dazu brauch es erstmal den benötigten Software-Support. Dieser ist immer noch nicht vorhanden, also wird man sehen, wann AMD dazu was bringt.
Die Schnittstellen sind geschaffen und die ersten Gehversuche hat DXR hinter sich.

"Bald nachziehen" kann daher auch gut und gerne noch mehrere Generationen dauern.
Glaskugel :)
Ergänzung ()

Zespire schrieb:
Genau so finde ich den Artikel von Cb fragwürdig hatte mir das Video nicht angeschaut und der Ganze Text dreht sich um Global Illumination und im Video geht es dann auf einmal um Reflektionen das eine ist mit Voxeln eher trivial zu berechnen das andere geht nicht ohne vertex und uv Informationen.

Das ganze zu vermischen ist nicht gerade hilfreich alles was ich bisher geschrieben habe bezieht sich auf den Text und nicht das Video…
Genau das ist mir auch schon aufgefallen, was die ganze Diskussion hier nicht einfacher macht.
Die Voxel GI gibt es in der Cryengine nämlich schon lange....
https://steamcommunity.com/games/220980/announcements/detail/83672696737434624?l=german
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82, Transistor 22 und Zespire
MK one schrieb:
Im Grunde ist es vollkommen egal wie die RT ähnliche Grafikpracht hergestellt wurde und ob Einschränkungen gegenüber den RT Cores bestehen . Fakt ist : es sieht ziemlich gut aus
[...]"dies beim Raycasting nicht komplizierter ist als beim Rasterisierungsverfahren. " , wenn das heißt das eine solche Grafikpracht auch bei Mid Stream Karten lauffähig ist , wird sich das " Raycasting " sicherlich eher durchsetzen als NV s RT + Tensor Cores , denn es braucht keine spezielle Hardware
Dass dir egal ist, wie das dargestellt wird, hat natürlich auch gar nichts damit zu
tun, dass deine AMD Grafikkarte auch gar keine RT Einheit hat, alter Scherzkeks :D

Auch wenn ich mich wiederhole: Es macht eben doch einen Unterschied, ob man
eine dedizierte Berechnungseinheit hat oder die ob GPU selbst das noch zusätzlich
schultern muss, denn das resultiert in einem Einbruch der einzigen Maßeinheit, die
für 3D Beschleuniger unterm Strich relelevant ist: FPS.

Ich erklärs mal an einem Beispiel: Wenn z.B. die VII mit RT weniger FPS bringt, als z.B.
die RTX 2070 und dabei 50% mehr kostet, ist es dem Kunden dann immer noch egal?
 
  • Gefällt mir
Reaktionen: Transistor 22, KlaraElfer, Grestorn und eine weitere Person
Faust2011 schrieb:
Sehr schade, dass man angegriffen wird auf Grund von völlig falschen Tatsachen und diese dann hier auch noch als Fakten im Forum rumposaunt werden. Ich bin nicht in der Computerbase-Leitung. Aber ich stell das gerne mal richtig: Es gibt zum einen die Geschäftsleitung und die Redakteure und zum anderen das Forum mit seinen Moderatoren. Zu letzterem gehöre ich.

Gut, dann vergessen wir diesen Punkt, mein Fehler.
Dennoch gehört eine gewisse Verantwortung dazu, konstruktive Inhalte zu posten.
Der Post hörte sich für mich so an, als ob AMD nun endlich Nvidia "geschlagen" hat, hört man ja aus anderer Richtung auch oft genug.

Faust2011 schrieb:
Daneben steht es mir als Moderator zu, eine eigene Meinung zu haben. Und genau die vertrete ich hier auch.

Das ist ja grundsätzlich die Frage, wie möchtest du dir denn eine eigene Meinung über die Leistung in dieser Demo bilden, wenn die Details (hinsichtlich compute) doch gar nicht klar sind und auch kein Vergleich mit Nvidias aktueller Generation verfügbar ist?

Faust2011 schrieb:
Ich habe, unabhängig vom Forum und Computerbase, genug PCs selbst zusammengestellt und aufgebaut, Software installiert, Software selbst geschrieben, optimiert, gedebugged, bei Kunden installiert und auch Support geleistet. Und als i-Tüpfelchen sogar OpenGL- und DirectX-Programme geschrieben.

Dann bist du doch eh in der Thematik mit drinnen, mich wundert dann dein Post nur umso mehr?!

Faust2011 schrieb:
Nochmal für Dich: AMDs GCN-Architektur ist sehr, sehr stark auf Compute-Leistung ausgelegt. Nvidias Chips sind demgegenüber inzwischen zweigeleisig aufgestellt: Es gibt die Graphics-Chips und die Compute-Chips (z. B. Volta)

Diese Einteilung ist spätestens nach Pascal und weiterführend mit Turing zu oberflächlich und auch nicht mehr zweigleisig.
Turing hat auf Compute-Basis aufgeschlossen.

764205

"Nvidia hat mit Turing bei Compute massiv gegenüber Pascal zugelegt. "
Den Artikel auf der Haus Website also mal lesen und dann kann man gerne noch die anderen Compute-Tests anschauen.

https://www.phoronix.com/scan.php?page=article&item=radeon-vii-linux&num=9
https://www.anandtech.com/show/13923/the-amd-radeon-vii-review/17
https://techgage.com/article/amd-radeon-vii-workstation-performance/2/
https://techgage.com/article/amd-radeon-vii-workstation-performance/3/

Interessant auch der RadeonProRenderer.

Smartcom5 schrieb:
@KlaraElfer Die vermeintlich fehlende Begründung, weswegen das Argument „Zeit“ so in dem Maße bei nVidia nicht gelten kann, hat @Aldaric87 sehr wohl geliefert.

Nicht in dem Maße, sondern gar nicht gelten darf, begründet damit dass ihm die Turing Karten zu teuer sind und keine Aufrüstanreize bieten.
Das ist eine subjektive Meinung, nichts diskutables.
30 bis 40% mehr als die Alte Generation ist rein faktisch ein Kaufanreiz.
Wie der einzelne das nun für sich und seinen Geldbeutel bewertet, steht mir nicht zu zu kritisieren.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Lübke82, borizb und .Sentinel.
ZeroZerp schrieb:
Du kannst bei NVIDIA den Hybridansatz bis zum vollen Pathtracer beschleunigt berechnen lassen.
Tun kann man schon, aber die RTX 2080 Ti würde in Innenräumen wie ne Schnecke vor sich hin kriechen.
ZeroZerp schrieb:
Im Entwicklerforum steht, dass die Demo auf einem DX9c derivat aufbaut und jetzt erst einmal auf DX11/12 gehievt werden muss. Somit nein- Zumindest diese Demo hier basiert nicht auf DXR.
Sorry, dass ich nicht gesagt habe, aber das war mir klar. AMD muss erstmals eine Art Treiber herausbringen, mit der man dann DXR hardwaremäßig umsetzen kann. Sie können ihn nicht aus dem Hut zaubern, das sollte dir auch klar sein. Wenn man die Hardware "falsch" ohne Tests anspricht, kann da gegebenfalls alles um die Ohren fliegen.
ZeroZerp schrieb:
Genau das Vendor- Locking gibt es nicht. DXR kann jeder Grafikkartenhersteller nutzten, der es im Treiberseitig unterstützt.
LG
Zero
Da hast du mich missverstanden. Vendorlocking gibt es bereits innerhalb von Nvidia. Die Pascalkarten sind von der DXR ausgeschlossen, es sind aber DX12- Karten, zumindest auf dem Papier und die GTX 1080 Ti hätte noch ein Wörtchen mitzureden. Ich denke sogar, dass die meisten Nicht-OEM-Käufer und Foristen hier eine Nvidia- Grafikkarte besitzen. Wäre doch schön rückwirkend mit der "alternativen" Methode trotzdem an Raytracing heranzukommen.

Allgemein sollte man die Crytek-Demo als Machbarkeitsstudie betrachten. Wenn der Wille da ist, geht es doch. Die Frage ist, ob die Lösung auf lange Sicht gut genug sein wird. Vom Betriebswirtschaftlichen her scheint sie überlegener, weil sie weniger kostet.
 
  • Gefällt mir
Reaktionen: Transistor 22, KlaraElfer und .Sentinel.
Vollkorn schrieb:
Andere Seiten welche die NDA von Nvidia nicht unterschrieben haben berichteten bereits in der Vergangenheit darüber dass RT-Cores nicht notwendig sind um Raytracing mit der GPU darzustellen.

Selbst BF5 mit RTX läuft ja anscheinend auch auf der Volta Titan, die keine RT/Kerne hat, und eben nicht 10 mal langsamer, sondern vielleicht 20% langsamer, aber gut spielbar. So wie sich das liest hat das RTX-Raytracing einige Vorteile, bzw. ist "echter" als das Voxel-Raytracing, dafür scheint die Voxel-Lösung aber tausende andere Vorteile zu haben, bei der Performance angefangen. Wenn man dann bedenkt, dass die Voxel auf der CPU berechnet werden, wo momentan ohnehin oft nicht alle Kerne ausgelastet sind, wenn man mehr als 4 hat...eigentlich keine schlechte Idee.
Unausgereift mag es sein, aber das ist die NVidia-Lösung ja auch. Von daher sieht das hier recht vielversprechend aus. Erinnert mich an Havok und PhysX.
 
  • Gefällt mir
Reaktionen: Wadenbeisser, Transistor 22 und Smartcom5
Smartcom5 schrieb:
@KlaraElfer Die vermeintlich fehlende Begründung, weswegen das Argument „Zeit“ so in dem Maße bei nVidia nicht gelten kann, hat @Aldaric87 sehr wohl geliefert. Allein nämlich schon der Fakt, daß die RT- und Tensor-Cores bei der aktuellen Generation schon nicht einmal beim Top-Modell zu einer entsprechend adäquaten Wiedergabe unter Zuhilfenahme entsprechender Effekte genügen.

Also die Demo die du hier so verteidigst benötigt für Szenenwechsel und unvordefinierte Kameraschwenks mehrere Sekunden Denkpause bis sich das Voxelgitter wieder aufgebaut hat.
Verglichen mit den Umsetzungen von Raytracing für global illumination in Metro oder der Spiegelungen in Battlefield 4 genügt die Hardware mittlerweile sehr wohl für eine genügend performante Darstellung auch in Auflösungen wie WQHD/QHD/UWQHD >60 FPS und sogar 4K in Metro mit Zuhilfenahme von DLSS mit 50 FPS.

Auch die kleinste Karte genügt mittlerweile für >60 FPS in Battlefield 4 in Full HD @ ultra oder 60 FPS @ High in Metro, also fehlen dir da Infos.
 
  • Gefällt mir
Reaktionen: Lübke82 und borizb
killer-instinct schrieb:
@Topic:
Was man nicht vergessen sollte, eine Vega56 hat richtig viel Compute Power, also Brute Force. Ich denke nicht, dass die Lösung auf Nvidia-Karten performant laufen wird, sprich RT auf Pascal. Viel wahrscheinlicher ist es, dass Voxel-RT dank RT Kernen besser auf RTX Karten und schwächer aber passabel auf rechenstarke AMD VGAs laufen wird.

Nicht bös gemeint, aber … Irgendwie verwirrend.
Selbst wenn Deine Argumentation in sich schlüssig ist, so scheinen ihr die falschen Annahmen zugrunde zu liegen.

Auf der einen Seite wird nVidia nicht müde zu erwähnen, daß es ohne RTX-Funktionalität ihrer Karten kein Echt·zeit-Raytraycing geben kann – oder zumindest nicht in dem Maße. Demgegenüber zeigt hier Crytek daß dem augenscheinlich nicht so ist, indem man vergleichbare Effekte soeben auch auf der kleineren Vega 56 realisieren kann.

Ergo muß einer schwindeln …
Entweder hat nVidia mit dem riesigen Medien-Wirbel um ihre heißgeliebten RT- und Tensor-Kerne der Masse das blaue vom Himmel gelogen, oder eben wesentliche Sachverhalte unerwähnt gelassen – was effektiv auf's Selbe herauskommt, denn es wird ein vollkommen falsches Bild gezeichnet (Wortspiel nicht beabsichtigt).

Dafür spricht, daß sich etwa die Resultate der Tensor-Cores als bloß simples hochkomplexes Upscaling mit anschließendem Pseuso-KI-Pixelinterpolations-Weichzeichner à la DLSS entpuppt haben.​
Dagegen, daß es schließlich 10 Gigarays sind! – auch wenn davon unter Realbedingungen lediglich etwa 3,2 Gigarays übrig bleiben (siehe unten).​

… oder aber Crytek schwindelt hier stattdessen mit der Neon Noir-Demo erheblich und stellt schlicht falsche Fakten dar, die es so im Real-Einsatz fernab von Tech-Demos nicht geben wird.

→ Dafür spricht, daß sie nach eigener Aussage Teile der Arbeit inkrementell auf die CPU auslagern.​
→ Dagegen, zumindest teilweise, daß es trotzdem in Echt·zeit auf einer Vega 56 zu laufen scheint.​

Mhm … Was stimmt jetzt?
Kurios ist, daß die entsprechenden Berechnungen laut Crytek nicht nur auf einer Vega 56 zu laufen scheinen, sondern diese selbst in Echtzeit auch auf der Xbox One sowie einem „guten PC“ mit bloß einer GTX 780 zu bewerkstelligen sind.
Smartcom5 schrieb:
Crytek schreibt im diesbezüglichen Manual, daß etwa auf der Xbox One die entsprechende Berechnung eine Verzögerung der Ausgabe von lediglich 4–5 ms durch die GPU in Anspruch nimmt – und auf einem, so der O-Ton „guten PC (GTX 780)“, seien es nur mehr 2–3 ms (AO+Sun-bounce, keine Punktlichter, Low-spec-Modus). Der schnellste Modus sei demnach AO-Only, welcher auf der Xbox One lediglich 2,5 ms in Anspruch nimmt.
Dein Einwand, daß die Vegas Computer-Monster sind in allen Ehren, dazu paßt aber absolut nicht der lächerlich geringe Einfluß auf die Performance, welche diese RT-Berechnungen selbst auf der Xbox One und einer GTX 780 erlauben würden …

Zugegeben, die Xbox und PS4 basieren auf GCN-Derivaten, wobei GCN schon immer höhere Rohleistung hatte als vergleichbare nVidia-Karten. Allerdings basiert jene Grafik der Sea Islands-Klasse der Xbox One auf der HD 7790 – wenngleich sie lediglich mit um 2 deaktivierten 12 CUs daherkommt (16 rops, 14 CUs; 2 CUs deaktiviert), während die PS4 derlei 18 CUs hat. Wenn also Crytek auf die CPU auslagert und damit die Vega 56 als grobschlächtigen Number-Cruncher über die CPU stark entlastet, warum funktioniert's dann selbst auf einer GTX 780?

Oder anders gefragt; Wenn es selbst auf einer GTX 780 zu funktionieren scheint, was für ein CPU-Monster muß dann dieser Grafikkarte beiseite stehen? Und was bitte sagt dies dann über die Xbox One aus, die ja nur mehr schlechterdings die alten Jaguar-Kerne mit bloß 1.75 GHz daherkommt?

Lektüre:
reddit.com • The full story about RTX performance for path tracing –
10 Gigarays translate to 3.2 Gigarays in real world application


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: TechFA, Oneplusfan, Thraker und 3 andere
Die neue Demo heißt Neo Noir und wurde auf einer Radeon RX Vega 56 in Echtzeit gerendert. Das ist möglich, weil die Implementierung von Crytek nicht nur mit den GeForce RTX von Nvidia funktioniert.

Sehr loeblich der faire Ansatz von CryTek eben nicht nur einseitig (also RTX GPUs von nVidia unterstuetzend) an RT-Raytracing heran zu gehen; nur schade, dass die CryEngine leider nicht so eine Verbreitung bei Entwicklerstudios geniesst wie etwa die Unity und Unreal Engines.

Ob die anderen Engine-Entwickler da nicht auch bald nachziehen werden, damit CryTek damit kein Alleinstellungsmerkmal hat?

Es bleibt zu hoffen, dass die RT-Raytracing Implementierung in der CryEngine neue Entwickler anziehen wird (und Nutzer anderer Engines zur CryEngine locken wird).

Also wenn es gut mit einer RX Vega GPU laeuft, dann wird hier bewiesenermassen der gesamte RTX-Hype nVidias ad absurdum gefuehrt.

Denn auch wenn die RTX Karten mehr Leistung in dem Bereich bieten als hauseigene GTX GPUs oder die der Konkurrenz, man haette RT-Raytracing auch gesamtheitlich ueber diese CryTek-Loesung (oder etwas aehnliches) ueber alle Leistungsklassen hinweg (wie AMD/RTG das irgendwann vorzuhaben scheint) einfuehren koennen (was sich dann natuerlich aber nicht so reisserisch sensationsgeladen von Huang haette vermarkten lassen koennen wie eben RTX und wo der "RTX only"-Vorteil dann eben nicht mehr so gestochen haette).
 
Smartcom5 schrieb:
Auf der einen Seite wird nVidia nicht müde zu erwähnen, daß es ohne RTX-Funktionalität ihrer Karten kein Echt·zeit-Raytraycing geben kann – oder zumindest nicht in dem Maße
Und wo genau lägen sie mit dieser Aussage falsch?
Crytek gibt doch selber schon die Einschränkungen mit, die deren sparse voxel octree Verfahren mit sich führt.
Durch den höchst rechenintensiven Bruteforce Ansatz von NVIDIA fallen diese Nachteile bei voller Abtastung weg.

Somit ist es ein Rasterisierungsüblicher Tradoff von Speed zu Szenenflexibilität und Beleuchtungsqualität.
Was Crytek hier also bietet ist dem Raytracing Qualitätsschalter noch Zwischenstufen am unteren Ende zu spendieren. Denn auch beim Sparse voxel octree GI werden Strahlen verschossen, jedoch in weit niedrigerer Zahl.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rage, Lübke82 und KlaraElfer
Smartcom5 schrieb:
Nicht bös gemeint, aber … Irgendwie verwirrend.
Selbst wenn Deine Argumentation in sich schlüssig ist, so scheinen ihr die falschen Annahmen zugrunde zu liegen.

Auf der einen Seite wird nVidia nicht müde zu erwähnen, daß es ohne RTX-Funktionalität ihrer Karten kein Echt·zeit-Raytraycing geben kann – oder zumindest nicht in dem Maße. Demgegenüber zeigt hier Crytek daß dem augenscheinlich nicht so ist, indem man vergleichbare Effekte soeben auch auf der kleineren Vega 56 realisieren kann.

Ergo muß einer schwindeln …
Entweder hat nVidia mit dem riesigen Medien-Wirbel um ihre heißgeliebten RT- und Tensor-Kerne der Masse das blaue vom Himmel gelogen, oder eben wesentliche Sachverhalte unerwähnt gelassen – was effektiv auf's Selbe herauskommt, denn es wird ein vollkommen falsches Bild gezeichnet (Wortspiel nicht beabsichtigt).

Dafür spricht, daß sich etwa die Resultate der Tensor-Cores als bloß simples hochkomplexes Upscaling mit anschließendem Pseuso-KI-Pixelinterpolations-Weichzeichner à la DLSS entpuppt haben.​
Dagegen, daß es schließlich 10 Gigarays sind! – auch wenn davon unter Realbedingungen lediglich etwa 3,2 Gigarays übrig bleiben (siehe unten).​

… oder aber Crytek schwindelt hier stattdessen mit der Neon Noir-Demo erheblich und stellt schlicht falsche Fakten dar, die es so im Real-Einsatz fernab von Tech-Demos nicht geben wird.

→ Dafür spricht, daß sie nach eigener Aussage Teile der Arbeit inkrementell auf die CPU auslagern.​
→ Dagegen, zumindest teilweise, daß es trotzdem in Echt·zeit auf einer Vega 56 zu laufen scheint.​

Mhm … Was stimmt jetzt?
Kurios ist, daß die entsprechenden Berechnungen laut Crytek nicht nur auf einer Vega 56 zu laufen scheinen, sondern diese selbst in Echtzeit auch auf der Xbox One sowie einem „guten PC“ mit bloß einer GTX 780 zu bewerkstelligen sind.

Dein Einwand, daß die Vegas Computer-Monster sind in allen Ehren, dazu paßt aber absolut nicht der lächerlich geringe Einfluß auf die Performance, welche diese RT-Berechnungen selbst auf der Xbox One und einer GTX 780 erlauben würden.

Zugegeben, die Xbox und PS4 basieren auf GCN-Derivaten, wobei GCN schon immer höhere Rohleistung hatte als vergleichbare nVidia-Karten. Allerdings basiert jene Grafik der Sea Islands-Klasse der Xbox One auf der HD 7790 – wenngleich sie lediglich mit um 2 deaktivierten 12 CUs daherkommt (16 rops, 14 CUs; 2 CUs deaktiviert), während die PS4 derlei 18 CUs hat. Wenn also Crytek auf die CPU auslagert und damit die Vega 56 als grobschlächtigen Number-Cruncher über die CPU stark entlastet, warum funktioniert's dann selbst auf einer GTX 780?

Oder anders gefragt; Wenn es selbst auf einer GTX 780 zu funktionieren scheint, was für ein CPU-Monster muß dann dieser Grafikkarte beiseite stehen? Und was bitte sagt dies dann über die Xbox One aus, die ja nur mehr schlechterdings die alten Jaguar-Kerne mit bloß 1.75 GHz daherkommt?

Lektüre:
reddit.com • The full story about RTX performance for path tracing –
10 Gigarays translate to 3.2 Gigarays in real world application


In diesem Sinne

Smartcom
Hi erstmals,
ich mag nicht, wenn man mangels Wissen alles durcheinanderwirbelt. Um die Frage zu beantworten, reicht es bei Nvidia nachzulesen, wie "Hybridraytracing" funktioniert.
1. Echtes Raytracing benötigt zwischen 50-100 Samples per Pixel, Nvidia nimmt bloß 2 per Pixel.
2. Es werden jeweils die 1 Ray verfolgt, man lässt sie nicht sich in mehrere spalten lassen.
3. Um zu wenig Samples auszugleichen, wird der Rest durch ein Deep Learning Algorhitmus gefüllt. Zur Berechnung werden ausschließlich Shader herangezogen. RT-Kerne sind da, um die Berechnung zu unterstützen durch:
a). Fixed-Function Beschleuning
b). Ermittlung, ob überhaupt eine Raykollision mit einer Oberfläche/ einem Objekt stattgefunden hat, sonst muss ja nix berechnet werden. Allein durch diese Vorhersage rechnet eine RTX-Karte um bis zu 40% schneller als die herkömmlichen bei der gleichen Anzahl von Flops.
5. Der Leistunghunger hängt bei dieser Methode davon ab, wie weit man einen Strahl verfolgen möchte. Wenn man viele Spiegelungen off-screen berechnet, wird die Berechnung sehr aufwändig (FPS runter). In den Innenräumen kann ein Lichtstrahl mehrfach abprallen, das kostet nochmals sehr viel Leistung.
6. Tensor-Kerne kann man als Unterstützung hernehmen, und zwar zum Upscalen. Dadurch leidet aber die Bildqualität. RT konzentriert sich dann durch die real niedrigere Auflösung auf weniger Pixel => mehr Performance. Dann sieht eben die Beleuchtung 1A aus, aber sonst alles verschwommen.

Wenn man RT-Kerne mit ihren Optimierungen und den Quatsch mit Tensor-Kernen weglässt, bleiben nur noch die Shaderleistung ( gemessen in Flops). Die Shaderleistung einer "mittelklasse" Vega56 mit 8GB HBM2 ist gar nicht ohne:
vega56.PNG
Eine "schnelle" Pascal in Form von einer GTX 1080 Ti:
1080_ti.PNG

Die Computeleistung von einer Vega-GPU ist gewaltig, also Brute Force (rohe Rechenleistung). Nicht umsonst griffen alle Miner zu ihr.

Da kannst du dir eine schöne Überschlagsrechnung machen: Für UHD und 30FPS wie in der Demo benötigt ( siehe Vega56-Daten) Rechenleistung als Grundwert. Wie viel FPS hätte wohl eine 1080 Ti bei derselben Methode?
📌
 
  • Gefällt mir
Reaktionen: TechFA, Balikon, Wadenbeisser und 4 andere
Ach, dieser Grabenkrieg ob RTX besser ist...

Ja, mit extra ausgelegten Einheiten kann man mehr Leistung bei der RT-Berechnung rausquetschen. Aber dazu braucht man eben das Nvidia-Exclusive Feature der RT-Cores. Daher ist die Entwicklung von RT-Echtzeitberechnungen ohne proprietäre Technik aber keineswegs weniger interessant.

Sicher ist die beiden Techniken nicht vergleichbar, ohne RT-Cores muss man eben noch mehr tricksen, dass die Leistung heutiger Grafikkarten noch einigermaßen ausreicht. Letztendlich dürften proprietäre Techniken mit der Zeit wieder untergehen, ähnlich wie auch Formatkriege, wo nicht immer das Bessere gewinnt, sondern die größte Unterstützung erfährt.

Wenn Intel tatsächlich irgendwann in den GPU-Markt vordringt und damit nicht scheitert, somit drei Spieler am Markt teilnehmen, sieht man viel genauer, wie unpraktisch proprietäre Techniken sind. G-Sync wird früher oder später auch untergehen, würde ich stark vermuten. Eine Aufweichung hat ja mittlerweile begonnen und mit Intel als möglicher Dritter im Bunde, wird der Sinn von G-Sync immer weiter in den Hintergrund rutschen, weil man sich so zu sehr an eine Marke bindet.

So ähnlich kann es auch bei Raytracing kommen. Nvidia präsentiert eine mehr oder minder proprietäre Technik, also ihre RT-Cores mit Entrauschung der Tensorcores, auch wenn es in grober Ausrichtung auf ein DX12-Feature basiert.
Wenn die Umsetzung, ob nun über RT-Cores oder über diese Voxel-GI-Geschichte zu unterschiedlich bei den Engines aussehen, wird der proprietäre Weg aussterben während der andere Weg von allen gleich beschritten werden kann.
Eigene Einheiten für die RT-Berechnung seitens AMD oder Intel wären auch möglich, wenn nicht durch Patente "blockiert".

Alles im allen ist RT bisher kein Must-Have-Feature sondern ein Versuch. Wie die RT-Berechnung in wenigen Jahren aussehen wird, können wir noch längst nicht wissen. Relativ wahrscheinlich ist, dass man dann nicht mehr viel mit den heutigen Techniken anfangen kann.
Ich lehne mich zurück und schaue mir an, wie sich die Thematik entwickelt. Interessant ist es allemal, aber noch zu früh, für eine praktische Nutzung.

Trotz separater RT-Cores bricht die Leistung einer Nvidia-Karte mit RT ein, liegt es an der Power, die der Chip konsumiert oder daran, dass die RT-Berechnung nicht komplett von den RT-Cores berechnet wird (sondern "nur" Teile, die die Gesamtberechnung beschleunigen)? Von kompletten RT-Rendering sind wir da auch noch weit entfernt, ohne diverser Tricks und Technikkniffe geht es eben noch nicht. Da muss noch viel passieren.
Damit ist es nunmal nicht wirklich das Feature schlechthin. Bisher...


Ich vergaß:
Ob das eine nun kein echtes/vollständiges RT ist oder doch ist relativ egal, es zählt das Ergebnis. Ohne Tricksereien schafft es Nvidia ja auch noch nicht...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thraker, Baal Netbeck, Smartcom5 und 2 andere
EpeeNoire schrieb:
der "mainstream" hat sich, seit RTX und kartenpreisen jenseits der € 1.000,- allerdins tatsächlich verschoben, ob man will oder nicht

1000€ vor gar nicht allzulanger Zeit waren das noch 2000 DM
 
Jetzt stellt euch noch einen Crysis Reboot vor. ;)
 
  • Gefällt mir
Reaktionen: Lübke82 und .Sentinel.
wern001 schrieb:
1000€ vor gar nicht allzulanger Zeit waren das noch 2000 DM
Ja- Wenn man aber bedenkt, dass sich der Grafikspeicher seither mehr als verfünfhunderfacht hat (16MB zu 12 Gigabyte) und die Leistung von 300 Megatexel auf 420 Gigatexel mehr als verzehnfacht hat, so steht das dann doch wieder auf einem anderen Blatt, ob die Preisentwicklung wirklich so unverhältnismäßig ist.

LG
Zero
 
  • Gefällt mir
Reaktionen: Lübke82
ZeroZerp schrieb:
Ja- Wenn man aber bedenkt, dass sich der Grafikspeicher seither mehr als verfünfhunderfacht hat (16MB zu 12 Gigabyte) und die Leistung von 300 Megatexel auf 420 Gigatexel mehr als verzehnfacht hat, so steht das dann doch wieder auf einem anderen Blatt, ob die Preisentwicklung wirklich so unverhältnismäßig ist.

LG
Zero
Na ob das wirklich so korreliert, glaub ich nicht. Am Anfang war Hardware extrem teuer und wurde durch die Verbreitung günstiger. In den letzten Jahren stiegen die Preise wieder, aufgrund der aufwendigeren Chipfertigung, klar. Aber ob das derzeit noch im Verhältnis steht, ist fraglich. (Siehe auch der derzeitigen Leistung von GPUs in der Mittelklasse - ~300€) Das ist im übrigen auch einer der Hauptkritikpunkte an RTX, nicht DXR. Das einzige wirkliche Novum für Turing war RTX samt DLSS. DLSS wurde schon entzaubert. Es funktioniert zwar, aber bedingt Vorberechnungen und ist qualitativ nicht so berauschend, wie angeprisen. RTX wurde als heiliger Gral präsentiert. Auch klar, ist ja schließlich ein börsennotiertes Unternehmen. Aber es funktioniert eben nicht so einfach und reibungslos, wie es präsentiert wurde. Was angesichts einer neuen Technik nicht verwunderlich ist.
 
borizb schrieb:
1. Ok, wegen mir ist es Echtzeit - meine Frage: Wieviel Leistung bleibt für anderes übrig, wenn komplexes RT nicht von der dedizierten Einheit, sondern auch noch von der GPU berechnet werden muss? Wie gut wird die Vega 56 in der Praxis performen bei z.B. Metro oder Battlefield mit gleich vielen Rays ohne dedizierte RT Einheit? Also: Die Vega kann es grundsätzlich, aber kann sie es so schnell, dass es irl nutzbar wäre?

Schau an, das ging ja schnell mit der Einsicht!
Wie eine Vega dann in der Praxis performt, weiß noch Keiner – es ist ja nicht umsonst als Tech-Demo tituliert …
Allem Anschein nach ist jedoch zumindest nVidias so oft bemühte Aussage widerlegt, daß es eben nur mit ihren fulminanten RT-Kernen in einem vertretbaren Aufwand in Echt·zeit zu realisieren ist.

Crytek Neon Noir-Demo nach zu urteilen, ist dem eben schlicht nicht so und es ist selbst auf einer Xbox One oder wahlweise einer GTX 780 zu bewerkstelligen.

borizb schrieb:
2. Die von Nvidia gezeigten Demos vor Monaten haben ganz klar gezeigt, was mit RTX machbar ist. Wie und wie schnell das umgesetzt wird, liegt bei den Entwicklern.
Naja, dieses „Was machbar ist…“ mußte aber nicht nur seitens nVidia immer wieder nach unten korrigiert werden und selbst die Entwickler haben diese Machbarkeiten stetig zurücknehmen müssen …

borizb schrieb:
3. Aktien hin oder her (die Verkaufszahlen und Marktanteile sind v.a. bei AMD im Keller): Wer 7 Mrd. übrig hat für Aquisen, macht mehr richtig als falsch, AMD hingegen musste jahrelang Geld pumpen. IMO: Wer den Schaden hat, braucht für den Spott nicht zu sorgen.
Derlei Akquisitionen werden ganz mehrheitlich über Kredite aka Schulden rückversichert. Gerade in Zeiträumen, wo es wirtschaftlich günstiger ist, Schulden zu machen anstatt Barmittel hierfür aufzuwenden.

Der Grund, weswegen insbesondere nVidias Aktie über die marktübliche Bereinigung praktisch aller Technologie-Aktien im hiesigen Herbst/Winter sowie den Rückgang des Mining-Booms derart abgestürzt ist, hatte eine ganz andere Ursache. Einen erheblichen Anteil daran, hatte der Verkauf der Anleihen-Anteile von Softbank, einem der größten Technologie-Investoren.

Diese haben nämlich – nachdem durchgesickert war, daß a) nVidia noch immer auf bergeweise alter Pascal-Karten sitzt, b) sich die Verkäufe der RTX 20x0-Generation seit dem Sommer von schleppend bis nicht existent entwickelten und c) dem ganzen Desaster um RTX – kurzum den Stecker gezogen, indem sie auf einen Schlag sämtliche ihrer Anteile an nVidia veräußerten. Volumen der Transaktion: 3,6 Milliarden USD auf einen Schlag.

AMD hat nur der Bitcoin-Crash getroffen und eben erwähnte Korrektur des Marktes. Mit einem Hoch von ~32,–, Tief 16,– und aus Ausgang von letztendlich ~23,–. Macht unterm Strich ~70% der Vorwerte nach Korrektur des Marktes.

Bei nVidia ist die Aktie eben deutlich tiefer abgestürzt …
Waren es im Hoch noch 251,– mit einem absoluten Tief von 112,– bei einem Ausgang heute von 150,– entspricht dies in Summe nur noch einem Wert von lediglich ~60% nach Korrektur.

Allerdings ist es durchaus nachvollziehbar, daß man dies gar nicht wissen kann – hat ComputerBase eben diese Meldung bedauerlicherweise gar nicht erst gebracht. Hätte in dem Zusammenhang und im Lichte des andauernden RTX-Debakels ja auch eher als, naja … unprickelnd empfunden werden können.

Wie Du siehst, alles eine Frage der Perspektive!
764260


Lektüre:
TechPowerUp.com • NVIDIA's Stock Has Been Plunging Since October; Softbank Reported to be Looking for a Way Out
TechPowerUp.com • Softbank Dumps its Entire NVIDIA Stock Worth $3.6 Billion


kisser schrieb:
Hab ihn!
Das ist absoluter Unsinn, den du da schreibst.
Was glaubst du eigentlich wieviele Jahre DX12 in der Entwicklung war und wer alles daran mitgearbeitet hat?
Ach stimmt, Microsoft war an DirectX 12 wahrscheinlich schon noch vor Mantle am schrauben – deswegen gleichen sie sich auch technologisch fast wie ein Ei dem anderen …
Was kommt als Nächstes? Mantle und Vulkan basieren auf DirectX 12?
764263


Fraggball schrieb:
Schön geschrieben, aber wie kommst du darauf das die performance nicht stimmt?
Da wiedersprichst du so ziemlich allen technikjournalisten und Erfahrungswerten.
Das es unter 4k evtl dünn wird stimmt, aber die Performance unter 1440p und 1080p ist durchweg spielbar, vor allem auf den grossen (ab 2080) rtx Karten.
Wo genau ist da bei bf5 beispielsweise das Problem?
Entweder willst du nur provozieren oder bist schlecht informiert.

Ach, tut man das tatsächlich, wenn man den Fakt in den Raum stellt, daß selbst die RTX 2080 Ti gerade einmal selbst unter Full-HD für +60 FPS mit RTX-Effekten ausreichend Leistung hat? … zumindest so lange, bis nVidia hinging und die Effekte massiv zurückschrauben ließ?

Die aktuelle Generation in Form der RTX 2080 Ti schaffte anfangs gerade einmal stabile 60 FPS bei Full-HD!
„ComputerBase hatte bereits die Gelegenheit, eine frühe Alpha-Version des Ego-Shooters anzuspielen um erste Eindrücke der neuen Technik zu sammeln und urteilte, dass die grafische Opulenz einen hohen Preis bei der Framerate fordert.

So lief das Spiel auch auf einer GeForce RTX 2080 Ti, dem Flaggschiff, nicht mit mehr als 60 Bildern in der Sekunde – in einer Auflösung von 1.920 × 1.080 Bildpunkten wohlgemerkt.
— Fabian Vecellio del Monego, Ressortleiter Video-Spiele & PC-Peripherie, ComputerBase in „Battlefield V: Weniger Raytracing für mehr Leistung auf GeForce RTX

Jetzt mal ernsthafte Frage …
Ist der Fakt, daß DiCE die RT-Effekte massiv zurückschrauben mußte, um eben spielbare Frameraten zu erhalten (weil man teilweise bei bloß nur noch +25 FPS war) und das ganze Brimborium darum an Dir komplett vorbei gegangen?

Lektüre:
PCGamesHardware • Battlefield 5: Raytracing-Effekte für bessere Performance zurückgedreht
Tom'sHardware.com • Battlefield V Creators: We Toned Down Ray Tracing for Performance, Realism


FCK-THIS schrieb:
Die Aktien von Nvidia wie auch AMD sind deutlich und nahezu identisch nach Q3/2018 gefallen, dies lag an der veröffentlichten Quartalszahlen, die aufgrund des Endes des Miningbooms deutlich schlechter ausfielen. Darüber wurde ausgiebig hier und so ziemlich auf jeder anderen Plattform berichtet - nicht ausgepasst?
Nein, sind sie eben nicht – wie oben hoffentlich ausführlich erläutert.
Ich für meinen Teil habe mir zumindest Mühe gegeben, aufzupassen …

Man darf trotz allem nicht vergessen, daß nVidia es war, welche es von Anfang an so dargestellt hat, als wenn ohne RTX-Funktionalität ihrer Karten kein Echt·zeit-Raytraycing geben kann – oder zumindest nicht in dem Maße, oder? Das scheint hier immer wieder so schnell vergessen …

Außerdem bin ich kein Fanboy. Ich bin lediglich wie so viele Andere wenn überhaupt Fan.
Von Wettbewerb, Ehrlichkeit, Offenheit, Glaubwürdigkeit, Vertrauenswürdigkeit und Aufrichtigkeit im Umgang mit Kunden. Aber daß man diese Attribute wahrlich nicht sonderlich passend allzu oft auf Intel oder nVidia applizieren kann – viele davon jedoch als Adjektive genutzt werden können, um das Handeln von AMD zu beschreiben, dafür kann ich rein gar nichts …

@killer-instinct Grandioser Beitrag, lieben Dank dafür! ❤
Wird bei mir 📌, daß kannst wissen.


In diesem Sinne

Smartcom
 
Zuletzt bearbeitet: (engl. Billion vs Milliarden korrigiert. ;-)
  • Gefällt mir
Reaktionen: TechFA, Balikon, Thraker und 3 andere
  • Gefällt mir
Reaktionen: Smartcom5
@Ozmog Danke Dir, ist korrigiert.
Hatte die Werte so aus dem Artikel auf TPU übernommen – und hatte nicht wirklich die Muße in EUR umzurechnen …


In diesem Sinne

Smartcom
 
Zurück
Oben