News Licht in Spielen: AMD patentiert eigene Raytracing-Technologie

PS828 schrieb:
Aus enthusiasten Sicht würde mir in Zukunft eine Extrem starke "klassische" GPU mit dezidierter Raytraycingkarte im zweiten x16 slot gefallen. Also wie Dual GPU in der Vergangenheit, aber hier ist eine Karte nur für die Texturierung und die Effekte zuständig und die andere kümmert sich komplett um die Physik und die Beleuchtung. Mit spezialisierter Hard und Software extrem schnell und dank PCI 4.0 und mehr mittlerweile wohl gar schnell genug was durchsatz und Latenz angeht (wobei ich hier nicht sicher bin, aber faszinierend wäre es :D) dann kann man endlich wieder multi GPU Setups bauen, alte spiele funktionieren trotzdem dank der "klassischen" gpu und zusätzlich kann man moderne Entwicklungen gut implementieren. Damit ist wohl auch 8k in Reichweite und bedarf keine riesenchips.

Aber naja, sind ja nur so ein paar Gedanken dazu, die hersteller werden da schon ihren Plan haben.

Ich mein das Traurige ist ja eben, da kommt die neue RTX2080 du kaufst die neue, was ist dann mit der alten? Weiterverkaufen wäre zu schade, ihre Rechenkapazität weiternutzen das wäre genial! Aber das ist nur ein Wunschtraum....
 
Nvidia hätte Raytracing von Anfang an komplett als "on top" - Feature auslegen müssen.
Also RTX unter den Zwangsbedingungen, dass nur so viele Strahlen verschossen werden wie die RT-Kerne alleine für sich in der Lage sind zu berechnen ohne dass die fps-Leistung der gesamten GPU beeinträchtigt wird.
Bzw. das so dynamisch gestalten, dass die Anzahl Strahlen an die Auslastung angepasst wird. Damit man ohne RT ~80fps hat und mit RT auch ~80fps plus so viele zusätzliche RT-Effekte wie die GPU+RT-Kerne on top noch hergeben.
Ich denke auf diese Weise würde sich ein angenehmeres Spielgefühl einstellen, als eine feste Qualitätsstufe zu forcieren und die fps dann je nach Szene auf weniger als die Hälfte einbrechen zu lassen.

So hat Nvidia es nunmal leider ziemlich verbockt. Da hatten sie groß ihre RT-Kerne angepriesen (die ja durchaus auch helfen, sonst liefe es ja praktisch überhaupt nicht), und dann stellt sich raus dass die nicht genügen und RT trotzdem noch auch die "normale" GPU runterknüppelt.
 
@Teralios : Ich bin ja doch einigermaßen verwirrt, denn letztlich nutzen ja beide die MS-Bibliotheken.
Und nVidia hat ja noch dieses Cloud Zeuchs für die Kantenglättung. (DSSL, DLLS?)
Hat sich AMD etwas Ähnliches jetzt patentieren lassen um das sozusagen "on premise" laufen zu lassen?
Wär' ja putzig.
Ich bin ja echt gespannt wie das Ganze funktionieren wird / soll und ob das dann überhaupt Funktionell ist.
 
snickii schrieb:
Hehe, ich mein ja nur.. was bringt der ganze Kram wenn nicht alles gleichzeitig in annehmbarer Performance läuft? ;-)

Choice is good.
Ich meine auf meinem PC rennt auch nicht alles mit 144 fps auf 4k mit Free-Sync und HDR. Aber es ist trotzdem schön schnelle Spiele eben mit viel FPS zu spielen und das gemütliche Rollenspiel tun es auch die 30 FPS bei 4k für mich.

Die Wahl zu haben ist gut für die Entwickler wie die Spieler.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Towatai schrieb:
Ach und die speziellen Recheneinheiten gibts bei NV gratis dazu? Die fressen genauso Strom, Fläche und benötigen dementsprechende Kühlung.

Toprallog schrieb:
Natürlich fressen die eine Menge Strom und werden dadurch sehr warm.

Ich muß euch beide enttäuschen, aktiviertes RT kostet kaum mehr Strom.

Gerade getestet mit Metro Exodus und einer RTX 2080 (ist Undervoltet bei 0,975V@1900MHz):

Mit 60FPS-Limit@1080p:
DX12 RT=Off = max. 172 Watt
DX12 RT=On (Ultra) = max. 177 Watt

Ohne FPS-Limit@1080p:
DX12 RT=Off Max. 118 FPS = max. 215 Watt
DX12 RT=On (Ultra) Max. 105 FPS = max. 220 Watt

Es wurde ein Speicherstand für den Test benutzt, so das immer die gleichen bedingungen vorlagen.

Ergo, RT benötigt so um die 5 Watt, und das ist lächerlich. Gab auch mal einen Test irgendwo, wo das Fazit auch war: "RT erhöht den Strombedarf nicht bzw. nur sehr gering.", weiß leider nur nicht mehr wo das war.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Toprallog
R00tMaster schrieb:
Ich muß euch beide enttäuschen, aktiviertes RT kostet kaum mehr Strom.

Gerade getestet mit Metro Exodus und einer RTX 2080 (ist Undervoltet bei 0,975V@1900MHz):

Mit 60FPS-Limit@1080p:
DX12 RT=Off = max. 172 Watt
DX12 RT=On (Ultra) = max. 177 Watt

Ohne FPS-Limit@1080p:
DX12 RT=Off Max. 118 FPS = max. 215 Watt
DX12 RT=On (Ultra) Max. 105 FPS = max. 220 Watt

Es wurde ein Speicherstand für den Test benutzt, so das immer die gleichen bedingungen vorlagen.

Ergo, RT benötigt so um die 5 Watt, und das ist lächerlich. Gab auch mal einen Test irgendwo, wo das Fazit auch war: "RT erhöht den Strombedarf nicht bzw. nur sehr gering.", weiß leider nur nicht mehr wo das war.
Hast du den Strombedarf der anderen Hardwarekomponenten mit dazu gewertet ?
 
R00tMaster schrieb:
Ich muß euch beide enttäuschen, aktiviertes RT kostet kaum mehr Strom.
Einen WIRKLICHEN Vergleich hätte man, wenn der ansonsten gleiche Chip ohne physisch vorhandene RT-Einheiten getestet wird. Was von denen nämlich wie bei Nichtbenutzung abgeschaltet wird um Strom zu sparen weiß wohl nur Nvidia...
 
Mar1u5 schrieb:
Die Konsolen werden dann bestimmt mit 8k, 144Hz, HDR, Raytracing beworben :freak:

120Hz, ansonsten war das genau bisher der O-Ton der Werbe-Maschinerie von Sony und Microsoft.
 
n3cron schrieb:
Ganz ehrlich, finde ich sehr gut. In der Vergangenheit hat ATI/AMD massiv Marktanteile an Nvidia verloren als die dieses "Physix" überall verbreitet haben und die Studios genötigt hatten das Extra per Zwang laufen zu lassen, so das Spieler mit ATI/AMD Karten immer im Nachteil waren und aktuell noch sind - wegen dem Patent.

Soweit ich weiß war das Patent von Ageia auf dedizierte Physik-Beschleunigerkarten beschränkt, hatte also nichts mit GPGPU-Physik zu tun. Das Problem war eher, dass PhysX von NVidia nach dem Kauf von Ageia auf CUDA portiert wurde, und CUDA aus lizenzrechtlichen Gründen nicht auf AMD-Karten lief.

PS828 schrieb:
Aus enthusiasten Sicht würde mir in Zukunft eine Extrem starke "klassische" GPU mit dezidierter Raytraycingkarte im zweiten x16 slot gefallen. Also wie Dual GPU in der Vergangenheit, aber hier ist eine Karte nur für die Texturierung und die Effekte zuständig und die andere kümmert sich komplett um die Physik und die Beleuchtung. Mit spezialisierter Hard und Software extrem schnell und dank PCI 4.0 und mehr mittlerweile wohl gar schnell genug was durchsatz und Latenz angeht (wobei ich hier nicht sicher bin, aber faszinierend wäre es :D) dann kann man endlich wieder multi GPU Setups bauen, alte spiele funktionieren trotzdem dank der "klassischen" gpu und zusätzlich kann man moderne Entwicklungen gut implementieren. Damit ist wohl auch 8k in Reichweite und bedarf keine riesenchips.

Aber naja, sind ja nur so ein paar Gedanken dazu, die hersteller werden da schon ihren Plan haben.

Das hat einen großen Haken: Der PCIe-Bus ist zwar rasend schnell, aber trotzdem potentiell ein gigantisches Nadelör. Das ist kein Problem, wenn die Berechnung sauber in komplett unabhängige Workloads aufgeteilt werden kann, aber sobald Daten von Recheneinheit A zu Recheneinheit B geschickt werden müssen, will man eigentlich alles über ein Interconnect verbinden, welches direkten Zugriff auf gemeinsamen Speicher ermöglicht. Bei SLI war das Problem soweit mich erinnere vor allem bei den Geometrie-Berechnungen, also die Transformationen der Polygone im 3D-Raum sowie deren Sichtbarkeit (vereinfacht ausgedrückt, ich denke da steckt mehr hinter). Wenn zwei Karten jeweils einen halben Frame berechnen sollten, mussten diese Berechnungen beiden Karten vollständig zur Verfügung stehen, und daher entweder über den PCIe-Bus geteilt oder auf jeder GPU gleichzeitig stattfinden. Das ganze war so langsam, dass sich stattdessen AFR durchgesetzt hat, wobei jede GPU unabhängig voneinander jeden zweiten Frame berechnet. Was immernoch verdammt ineffizient war.

Ich kenne mich mit RayTracing ehrlich gesagt nicht großartig aus, aber ich würde vermuten, dass hier mit einer diskreten RayTracing karte das selbe Problem auftreten würde - denn sowohl Texturierung als auch die Berechnung von Licht und Schatten müsste auf die Geometriedaten zugreifen; womöglich gibt es auch bei den Shadern eine Überschneidung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard und Sun-Berg
RT auf Nvidia Karten ist sehr effizient, nur leider haben die Karten nicht genug RT Cores. (Preisfrage?)
Das könnte sich bald ändern.
 
HaZweiOh schrieb:
Von Raytracing haben wir nur etwas, wenn es auch im Massenmarkt verbreitet ist und von Spiele-Herstellern genutzt wird. Deshalb muss eine gute Lösung geradezu günstiger sein als das, was nVidia quasi nur mit Tech-Demos (ohne die Konsolen, ohne den PC-Massenmarkt) zeigen kann.

In den Konsolen wird auf jeden Fall AMDs Technik eingesetzt, die sich jetzt ohne Zusatz-Aufwand auch auf dem PC verbreitet.

Das könnte doch perspektivisch das Ende von RTX-Raytracing sein. Durch den Einsatz von AMD-Raytracing in Konsolen wird AMDs Variante wohl auch auf dem PC eher verbreitet werden als Nvidia-RT.

Das ist nur gut, denn Nvidia verlangt Mondpreise für RT.
 
j-d-s schrieb:
Das könnte doch perspektivisch das Ende von RTX-Raytracing sein. Durch den Einsatz von AMD-Raytracing in Konsolen wird AMDs Variante wohl auch auf dem PC eher verbreitet werden als Nvidia-RT.

Das ist in etwa genauso schwachsinnig, als würde man behaupten durch den Einsatz von GCN in den Konsolen, würde die AMD Technik in den PCs eine weite Verbreitung finden.

Es gibt kein Nvidia oder AMD Raytracing, es gibt nur Raytracing. Genutzt wird dafür auf der Xbox und auf dem PC DXR als API und mit welcher Technik die Hersteller die Sache verarbeiten, ist am Ende absolut egal. Was zählt ist die Qualität und die Leistung die am Ende herauskommt.

Die AMD Lösung mag flexibler sein und die Shader könnten bei Spielen ohne RT Unterstützung, für normale Berechnungen genutzt werden. Dafür wird vermutlich die Nvidia Lösung schlichtweg mehr RT Leistung bieten. Mehr wissen wir allerdings erst, wenn die entsprechende Hardware auf dem Markt ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel., Unnu und Fraggball
Wie dem auch sei, wenn die Spiele auch auf der Konsole erscheinen müssen sie ohne Nvidia-Technik RT können (oder sie haben halt gar kein RT), wodurch der Vorteil von Nvidia-RT viel kleiner wird.
 
  • Gefällt mir
Reaktionen: rikko11
R00tMaster schrieb:
Ich muß euch beide enttäuschen, aktiviertes RT kostet kaum mehr Strom.

Gerade getestet mit Metro Exodus und einer RTX 2080 (ist Undervoltet bei 0,975V@1900MHz):

Mit 60FPS-Limit@1080p:
DX12 RT=Off = max. 172 Watt
DX12 RT=On (Ultra) = max. 177 Watt

Ohne FPS-Limit@1080p:
DX12 RT=Off Max. 118 FPS = max. 215 Watt
DX12 RT=On (Ultra) Max. 105 FPS = max. 220 Watt

Es wurde ein Speicherstand für den Test benutzt, so das immer die gleichen bedingungen vorlagen.

Ergo, RT benötigt so um die 5 Watt, und das ist lächerlich. Gab auch mal einen Test irgendwo, wo das Fazit auch war: "RT erhöht den Strombedarf nicht bzw. nur sehr gering.", weiß leider nur nicht mehr wo das war.

Kann man so wohl nicht sagen.
Mir fallen dafür zwei mögliche Gründe ein:

1. Scheint der FPS-Verlust mit RT Ultra sehr niedrig, das riecht stark danach, dass Du ohnehin im CPU-Limit hängst. Wenn die Karte also eh nicht ausgelastet ist, sind die Werte auch kaum für allgemeingültige Aussagen zu gebrauchen.

2. War es doch mal so (ich hab von keiner Änderung gehört), dass sich bei RT die Shader und die RT-Einheiten mit ihren Berechnungen abwechseln und nicht parallel zu einander laufen. Also wenn die Shader arbeiten, stehen die RT-Kerne still und andersherum. Das sorgt ja auch für einen Teil der FPS-Verluste bei Verwendung von RT.

Für eine belastbare Aussage über den zusätzlichen Stromverbrauch von RT müsste man also schon eher so vorgehen, dass man grundsätzlich ein CPU-Limit ausschließt und dann möglicherweise den Stromverbrauch in Watt pro berechnetem Bild ausrechnet, also Watt/FPS. Dann kann man schon eher sehen, wie viel Strom die RT-Einheiten zusätzlich verbrauchen.

Das mag für deinen Alltag nicht relevant sein, aber in 1440p/2160p z.B. wird es dann schon relevanter, weil Performanceverluste dann auch wichtig werden können. Wenn NVidia die Berechnung parallel ausführen lassen kann, dann düften Performance und Stromverbrauch höher sein und man müsste nur auf das CPU-Limit achten, ich weiß aber nicht, ob sie schon so weit sind. Hab keine GPU von denen und lese auch nicht deren Changelogs bzw. Blog.
Die 5W halte ich aber für einen Wert, der nur auf deine Kombination zutrifft und die FPS sind trotzdem eine wenig gesunken, das gehört bei der Effizienz ja durchaus dazu. Output/Input, also dass der Input um 5Watt steigt muss mindestens damit verrechnet werden, dass auch 13 FPS weniger rauskommen.
 
j-d-s schrieb:
Wie dem auch sei, wenn die Spiele auch auf der Konsole erscheinen müssen sie ohne Nvidia-Technik RT können

Immer noch nicht verstanden? Wenn die Spiele auf der Xbox herauskommen und RT mitbringen, werden sie dafür DXR nutzen und auf dem PC genauso mit NVidia Karten funktionieren.

Dem Spiel ist es quasi egal ob im Gerät eine NVidia, AMD oder Intel Karte steckt, solange er sie über die API ansprechen kann.

Bei Sony könnte vielleicht was inkompatibles entstehen, aber die Xbox und die XCloud wird auf DXR setzen.
 
Huch was ist hier plötzlich los? Im cb Forum wurde AMD stets als edler Ritter der für offene Standards kämpft gelobt. Und jetzt lobt man hier das patentierte abspalten in eine weitere Richtung.
 
icetom schrieb:
Huch was ist hier plötzlich los? Im cb Forum wurde AMD stets als edler Ritter der für offene Standards kämpft gelobt. Und jetzt lobt man hier das patentierte abspalten in eine weitere Richtung.
An der Stelle kann man erst mal nur schreiben: Beschäftige dich mit der Thematik und den feinen Unterschied hier.

Wer ernsthaft glaubt, dass sich nVidia für ihre „RTX“-Implementierung keine Patente gesichert hat, der irrt. Auch nVidia hat sich seine RT-Cores zusammen mit der Kombination des Softwareparts RTX Patente gesichert - leider wurde hier darüber nicht berichtet … Du kannst dir gerne mal ein Patentdatenbanken ansehen und dort entsprechend recherchieren - ich würde es machen, wenn ich einen richtigen PC hätte, an einem Tablett ist es leider umständlich.

AMD hat hier also nur 2 Optionen: Sie entwickeln einen eigenen Weg oder sie nutzen den Weg, den nVidia bereits patentiert hat und begeben sich in eine sehr vertrackte Situation. Sie müssen eine Lizenz von nVidia erwerben oder ein Lizenzabkommen schließen. Die Lizenz kann nVidia verweigern oder nur für eben eine „Version“ ihrer RT-Cores und RTX-Implementierung gewähren.

AMD wäre ab diesem Zeitpunkt hochgradig abhängig von nVidia, denn die könnten ab diesem Zeitpunkt jede Weiterentwicklung von AMD unter binden oder sogar den Vertrag bei einer erteilten Lizenz auflösen usw.

Entsprechend hat sich AMD hier für einen eigenen Weg entscheiden um ihre Grafikkarten DXR-Tauglich zu machen.

Hier muss man zwischen zwei Ebenen unterscheiden: Hardware/Treiber, also die Implementierung auf Seiten der Hersteller - und der API-Ebene die durch die Khronos Group oder eben Microsoft, Apple und Co vorgegeben werden, die eine API-Entwickeln.

Hier ist nur entscheidend ob die Implementierung von AMD sich an die Vorgaben von MS (DXR) oder der Khronos Group (Vulkan RT) hält oder nicht, was im Treiber und in der Hardware dann von statten geht ist AMDs Sache und die Wege dort muss man leider über Patenteschützen, alleine damit man sich nicht angreifbar für die Konkurrenz macht!

Hier hat man also einen Einblick in die Hardware- und Softwareimplementierung von AMD und eben deren Weg.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Zurück
Oben