Notiz Radeon RX 5600 XT: Mehr Takt in letzter Minute

Mcr-King schrieb:
Danke genau dass meinte ich, nur hat er sich vom RT Aufkleber von NV blenden lassen und erst die Console macht sowas Massen tauglich. Sage nur Cry-Engine mit RT.
Na wieso blenden? Wenn das mit den Konsolen kommt, dann hat er ja immer noch eine Karte mit RT die davon auch bei Ports profitieren kann.
 
Mcr-King schrieb:
RTX ist nur Beleuchtung und Reflexion zur Zeit und hat nix mit echten RT im Profi Bereich zutun und NV waren nicht die Ersten, sondern Intel suche später noch den link. Nur waren damals die PCs zulangsam für echtes RT was sie im Prinzip immer noch sind. Nicht RT und RT nicht verwechseln okay und auf Konsolen werden immer noch am meisten Games Verkauf.
Aber selbstverständlich hat es das. Das RT in Games weit vom Fotorealismus entfernt und nur in Teilen umgesetzt ist, ändert nichts daran, das die gesamte Technologie auf den gleichen mathematischen Prinzipen basiert und deswegen auch vergleichbare Hardware benötigt. Profiprogramme nutzen seit langem nVidia cudacore zur Berechnung von offline RT, da gehen viele 1080 ti und 2080 ti hin, sowie die meisten Titan Modelle. Mache ich selbst zu Hause als Hobby. Darüber hinaus wird OpenCL und DXR unterstützt ab der gtx Reihe, deswegen ist die gtx970 noch als Zweitkarte in meinem Rechner, die 1664 CUs unterstützen die rtx 2070 beim offline Rendern in IRay. Die Übergänge zwischen Profisystem und Hobby sind seit längerem fließend.
Ergänzung ()

Apocalypse schrieb:
Sehe ich anders und zwar auf folgendem Grund: Nicht alle RT Effekte sind tatsächlich aufwendiger als das traditionelle Rendering.[...]
Biased Engines (Game Engines) wurden entwickelt, um mit geringer Rechenleistung 3D-Grafik möglichst echt aussehen zu lassen. (Täuschen und Tricksen, Ambient Occlusion Maps, Shadow Maps, Reflexion Maps, Ambient Lighning usw.)
Raytracing wird verwendet, um physikalisch korrektes Verhalten von Licht und Oberflächen zu simulieren. Tricks sind nicht nötig. Die korrekte Szenerie ergibt sich aus der Simulation von Lichtquelle und Oberflächenshadern - bei wesentlich höherem Rechenbedarf.

Alles weitere ergibt sich von selbst. Biased Engines werden niemals den Fotorealismus von RT erreichen, brauchen aber nur einen Bruchteil der Rechenleistung. Derzeit befindet sich der Markt in einer Übergangsphase, man mischt die Technologien.

Vollständiges Raytracing wird man auch mit 1800€ GPUs wohl in nächster Zeit nicht sehen, also abseits von Techdemos wie Q2 und Indie-Titeln die damit Spaß haben.
Vollständiges RT in Echtzeit haben vielleicht CGI-Großrechner und selbst da gibt es Grenzen, wenn es um die Simulation komplexer Oberflächen und Bewegungen geht, selbst wenn man das Budget von "Herr der Ringe" hat und der Großrechner 6 Monate Rechenzeit bekommt, um mal ein Beispiel zu nennen. Nur ist das nicht der Maßstab. Der Maßstab ist: Wie bekommt man bessere Spiegelungen und Schatten hin als in Biased Engines, die da große Probleme haben.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: fox40phil
Draguspy schrieb:
Biased Engines (Game Engines) wurden entwickelt, um mit geringer Rechenleistung 3D-Grafik möglichst echt aussehen zu lassen. (Täuschen und Tricksen, Ambient Occlusion Maps, Shadow Maps, Reflexion Maps, Ambient Lighning usw.)
Raytracing wird verwendet, um physikalisch korrektes Verhalten von Licht und Oberflächen zu simulieren. Tricks sind nicht nötig. Die korrekte Szenerie ergibt sich aus der Simulation von Lichtquelle und Oberflächenshadern - bei wesentlich höherem Rechenbedarf.

Wie hoch der Rechenbedarf ist. das hängt ja dann doch immer noch davon ab wieviele Strahlen ich verwende. Und auch die ganzen Maps sind nicht ohne Rechenaufwand. Hier ein paar Artikel über Schatten und wie man mit Raytracing Resourcen sparen kann.

Ironischerweise von 2015 und mit einer Power VR Mobile GPU.
https://www.imgtec.com/blog/ray-traced-shadows-vs-cascaded-shadow-maps/
https://www.imgtec.com/blog/hybrid-rendering-for-real-time-lighting/
'
 
  • Gefällt mir
Reaktionen: fox40phil, Rockstar85 und Mcr-King
Strikerking schrieb:
Wahrscheinlich in einem Speziellen Szenario wo keiner nutzt.

Alles andere würde ja schon fast an ein wunder grenzen.
Zwischen 12nm und 7nm EUV liegt grob Faktor 3 bei der möglichen Transistordichte. Das sollte also kein Problem sein.
 
Mich würde nicht mal wundern, wenn die Karten der Boardpartner schon die Taktraten hätten
Als Sapphire die Webpage zur 5600XT online stellte standen da schon die Taktraten und wir haben alle schon spekuliert, ob Sapphire einfach drauf nen Haufen setzt was AMD möchte.
Link: https://www.sapphirenation.net/sapphire-launches-pulse-radeon-rx-5600-xt (man schaue auf das Datum)

Mal schauen was in 3 Tagen dann die Karten zeigen. Vermutlich sind da die Takte schon lange aktiv.

@Apocalypse
Als es Intel brauchte (ich glaube 2009) hat kein Hahn nach gekräht.. Nun ist eben alles was nicht RT kann, Elektroschrott.. Danke für deinen Erheiternden Artikel zum RT auf einer Pover VR ;) Vllt checken die Kids ja irgendwann das es nicht nur auf Rechenleistung ankommt, sondern vor allem auf die Optimierung auf die Systeme
 
  • Gefällt mir
Reaktionen: DerToerke und Mcr-King
Apocalypse schrieb:
Wie hoch der Rechenbedarf ist. das hängt ja dann doch immer noch davon ab wieviele Strahlen ich verwende. Und auch die ganzen Maps sind nicht ohne Rechenaufwand. Hier ein paar Artikel über Schatten und wie man mit Raytracing Resourcen sparen kann.
Ironischerweise von 2015 und mit einer Power VR Mobile GPU.
https://www.imgtec.com/blog/ray-traced-shadows-vs-cascaded-shadow-maps/
https://www.imgtec.com/blog/hybrid-rendering-for-real-time-lighting/
'
Du antwortest ständig auf Dinge, die ich nie behauptet habe. Da realistische Schatten und Spiegelungen mit Biased Engines nur in schlechter Qualität durch aufwendige Tricks erreicht werden können, geht das mit RT besser, sonst würde man RT hier nicht verwenden. Will man feine Schatten, braucht es wieder mehr Rays und längeres Pathtracing, das ist so selbstverständlich, das es nicht ausgesprochen zu werden braucht. Will man gar indirekte Beleuchtung, braucht man wieder Workstations.
Ironisch ist bestenfalls der Glaube, das ginge auch mit älteren Karten. Versuchs doch mal. :D
 
Dann ist doch gut das du zustimmst das eine Konsole aus RT für zum Beispiel Schatten vorteile ziehen kann. Ist doch super, das du das nun so auch selbst festgehalten hast. Dann sind ja alle Missverständnisse ausgeräumt. Ein hoch auf mehr RT bei Spielen dank der neuen Konsolen.
 
  • Gefällt mir
Reaktionen: Draguspy, .Sentinel., Rockstar85 und eine weitere Person
Apocalypse schrieb:
Dann ist doch gut das du zustimmst das eine Konsole aus RT für zum Beispiel Schatten vorteile ziehen kann. Ist doch super, das du das nun so auch selbst festgehalten hast. Dann sind ja alle Missverständnisse ausgeräumt. Ein hoch auf mehr RT bei Spielen dank der neuen Konsolen.
Sobald es Konsolen mit RT gibt, werden entsprechende Synergieeffekte bezüglich RT in Gaming realisiert werden. Das wird positive Auswirkungen auf die Game Engines haben, es wird schneller mehr Spiele geben, die RT anbieten usw. Angestoßen hat das ganze allerdings nVidia und die Technik kommt aus dem Profi-Bereich. Das AMD und Konsolen da jetzt nachziehen ist eine gute Sache. :)

Wenn es so weit ist und es zu ressourcensparenden RT Implementierungen durch Konsolen kommt, dann könnte die 2060 sogar noch davon profitieren . . . :D
 
  • Gefällt mir
Reaktionen: .Sentinel. und Apocalypse
Sag ich doch. Und King auch.
Durchbruch für Game Engines macht halt erst die Masse und die kommt halt in diesem Fall durch die Konsolen.
Davon ab, Minecraft mit Raytracing sieht mal richtig nett aus. ^_^

 
  • Gefällt mir
Reaktionen: fox40phil und Mcr-King
Draguspy schrieb:
Sobald es Konsolen mit RT gibt, werden entsprechende Synergieeffekte bezüglich RT in Gaming realisiert werden.
Also eigentlich ist es Intel Gewesen, aber okay mancher glaubt auch das rtx etwas Nvidia exklusives ist...
 
  • Gefällt mir
Reaktionen: Mcr-King
Rockstar85 schrieb:
Also eigentlich ist es Intel Gewesen, aber okay mancher glaubt auch das rtx etwas Nvidia exklusives ist...

Was soll Intel gewesen sein? Raytracing? Lol. Raytracing ist uralt, das wurde in den 60er Jahren entwickelt. Einzig etwas Forschung wurde in den Bereich investiert, die hier auf CB für Intel promotet wurde. Nur gibts Tonnen von Raytracing Forschung von Forschern und auch anderen Firmen. Ansonsten hat Intel im RT Bereich nix gemacht, außer dass sie die schnellsten CPUs hatten und deshalb prof. Raytracing daher mit Intel Servern gemacht wurde. IMGTec sind die ersten, die RT in Hardware gegossen haben und damit versucht haben etwas aufzubauen im Mobilebereich und jetzt eben Nvidia im PC Bereich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Draguspy
Rockstar85 schrieb:
Also eigentlich ist es Intel Gewesen, aber okay mancher glaubt auch das rtx etwas Nvidia exklusives ist...
Nenne die Namen der Anbieter von GPUs für den PC Markt, dessen Karten Hardware-beschleunigtes RT beherrschen!
Schwierige Frage für ein PC-Techforum, Bereich Grafikkarten, lass dir Zeit, du kommst schon noch drauf.
 
Intel!
SCNR.
 
  • Gefällt mir
Reaktionen: Rockstar85 und Mcr-King
Larrabee wurde aber während der Entwicklung eingestellt.
Davon ab das openCL und Cuda im Funktionsumfang ähnlich wurden, nur keine x86 Basis haben. Behauptet zumindest Wiki. ^_^
 
Cpt.Willard schrieb:
Wo ist denn das ne komische Frage?

Ich hab keine RTX und stelle mir einfach die Frage ob das Feature ansich mehr Leistung zieht und im Umkehrschluss dann viele andere Dinge wieder reduziert werden müssen, sodass der Zugewinn an Qualität quasi NULL ist.

Beispiel:
RTX on + Grafiksettigs auf med = 60fps max/minfps 40
RTX off + Grafiksettings auf High = 80FPS max/minfps 65...
nur mal so in den Raum mit fiktiven und vllt. nicht ganz realistischen Werten geworfen...
Die Annahme hierbei ist für mich, ab welcher Schwelle bringt mir dann RTX wirklich was oder ist nur eine Fußnote auf der Grakapackung oder ist es nicht viel sinnvoller RTX-Leistung ab 2070/S zu offerieren - natürlich muss man Abstriche im Bezug auf Leistung machen aber in Relation zur 2080ti, wo ich noch einiges mit RTX on spielen kann - wieviel bleibt bei der 2060 und wenn das nicht viel ist - wieso wird RTX da noch als "Kaufgrund" angeführt.

Danke @1Pferdemädchen - das Video hilft mir schon mal sehr.
Ja so denke ich auch und gebe dir damit Recht. Und ich behaupte mal frech, dass eine Reduzierung der Details von Hoch auf Mittel spürbar schlechter aussieht, als dass es die Gesamtqualität mit RTX off auf RTX on ausgleichen kann. Niemals.

Edit:
Niemals ist etwas übertrieben, irgendwann mit Sicherheit. Aber Stand jetzt ist RT einfach noch nicht reif genug.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard und Mcr-King
Apocalypse schrieb:
Larrabee wurde aber während der Entwicklung eingestellt.
Davon ab das openCL und Cuda im Funktionsumfang ähnlich wurden, nur keine x86 Basis haben. Behauptet zumindest Wiki. ^_^
Halte ich bis heute für ne Doofe Idee
Aber ja, war vllt auch der Zeit vorraus..

@Draguspy
Wenn von dir auch mal Fakten kommen kannste dich ja melden.. Wo gibts denn DXR Spiele, die Hardwarebasiertes RTX wirklich nutzen? Das ist der gleiche Rohrkrepierer wie Tesselation. Deine Diffamierungen reichen dann auch. Wie es Affenjack sagte, man kann auch auf Mobile GPU RT nutzen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Apocalypse schrieb:
Larrabee wurde aber während der Entwicklung eingestellt.
Davon ab das openCL und Cuda im Funktionsumfang ähnlich wurden, nur keine x86 Basis haben. Behauptet zumindest Wiki. ^_^
Open CL und Cuda stellen die CUs fürs Raytracing zur Verfügung, es sind aber keine auf Echtzeit RT spezialisierten Cores, weswegen sie nützlich fürs offline RT sind, aber in Echtzeit RT keine ausreichende Leistung bringen. Das kam bei PCs erst mit den RT-Cores von nVidia, die signifikant das Pathtracing beschleunigen.

@Rockstar95
Ja, sicher, welche Mobile GPU empfiehlst du denn für das kommende Cyberpunk 2077?
Oder verwechselst du etwa Forschung und Nischenlösungen der letzten 20 Jahre und offline RT im professionellen Bereich mit marktreifen Produkten im Gaming Sektor, die hardwareunterstütztes Echtzeit RT anbieten und dazu spezielle Cores entwickelt haben? Das kann passieren, wenn man RT nur aus Wiki und YouTube kennt. Welchen Renderer benutzt zu denn und seit wann?
 
Zuletzt bearbeitet von einem Moderator:
Die sind nicht speziell entwickelt Sorry es sind Tensor Cores und CUs due nur andere Funktionen bekommen haben.

Dass RT auch auf normalen CUs läuft kann ich dir mit der Cry Engine gerne beweisen läuft sogar bei mir. 😉

Also und echtes RT ist für mich sowas wie Ein Rendering Film in echtzeit und kein Polygon mit RT Beleuchtung und Reflexionen. 😉

Dafür fehlt es aber an Power.
 
Draguspy schrieb:
Open CL und Cuda stellen die CUs fürs Raytracing zur Verfügung, es sind aber keine auf Echtzeit RT spezialisierten Cores, weswegen sie nützlich fürs offline RT sind, aber in Echtzeit RT keine ausreichende Leistung bringen. Das kam bei PCs erst mit den RT-Cores von nVidia, die signifikant das Pathtracing beschleunigen.


Das die RT-Cores die bisher schnellste Consumer Lösung sind dürfte unbestritten sein. Das man auch ohne RT Echtzeit-Pathtracing machen kann ... gibt es da echt Widerspruch? Hatte doch den Minecraft Mod verlinkt: 60 FPS FHD mit der 2080ti. Grandios, wenn auch mit recht viel rauschen in sehr dunklen Szenen.
Auf einer 1070 dann halt nur 720p und 30FPS. Also etwa 4x langsamer.
 
Apocalypse schrieb:
Das die RT-Cores die bisher schnellste Consumer Lösung sind dürfte unbestritten sein. Das man auch ohne RT Echtzeit-Pathtracing machen kann ... gibt es da echt Widerspruch? Hatte doch den Minecraft Mod verlinkt: 60 FPS FHD mit der 2080ti. Grandios, wenn auch mit recht viel rauschen in sehr dunklen Szenen.
Auf einer 1070 dann halt nur 720p und 30FPS. Also etwa 4x langsamer.
Man kann Raytracing ohne RT-Cores machen, nur eben langsamer. Da die RT-Cores zusammen mit den angebundenen CU-Units etwa 5 mal so schnell im Pathtracing sind und die RT-Cores geschätzte 10% der Die-Fläche einnehmen, bräuchte man 50-100% mehr CUs, um auf die gleiche Echtzeit RT Leistung zu kommen. Beim HPC ist das kein Problem, da legt man 10-20 tsd. € hin und kauft sich ein paar GPUs, die das auch so schaffen.

Die Entwicklung der RT Cores war die Voraussetzung für Echtzeit RT, die man sich auch als Gamer leisten kann. Den Unterschied kann man gut abschätzen, wenn man auf der gtx 1070 per DXR ein Game mit RT On laufen lässt und anschließend das gleiche Game auf der rtx 2070 mit RT On. Die haben etwa gleich viele CUs, auch wenn die CUs der rtx 2070 etwa 20% schneller sind. Die raytracing Leistung der rtx dürfte locker 100-150% oberhalb der gtx liegen. Bezüglich Minecraft: Die meisten Mods benutzen die RT-Cores nicht, sondern nur die CUs, daher ist die 2080 ti nur um so viel schneller, wie die Rohleistung der CUs zugenommen hat, also etwa 4x in dem Fall. Der Grund ist relativ einfach, die RT-Cores sind neu, den Aufwand für die Softwareentwicklung, die RT-Cores voll einzubinden, können sich nur größere Firmen in so kurzer Zeit leisten.
Wenn man die Echtzeit RT Leistung vergleichen will, dann sollte man aktuelle Spielebenchmarks nehmen, bei denen gesichert die RT-Cores verwendet werden. nVidia war ja so freundlich, extra DXR für RT bei der gtx Serie freizuschalten, damit man den Leistungszuwachs durch die RT-Cores zu Turing messen kann.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben