News Grafikkarten: AMD will auf der E3 auch über Raytracing sprechen

" Raytracing in Spielen seit GeForce RTX ein Thema
Seit Erscheinen von Nvidias Grafikkarten der Familie GeForce RTX findet das Thema Echtzeit-Raytracing in Spielen eine größere Beachtung. Denn Nvidias GeForce RTX 2060, RTX 2070 und RTX 2080 (Ti) bringen erstmals Grafikchips mit eigens für Raytracing abgestellten Rechenwerken, die sogenannten RT-Cores, mit sich. Entsprechend wird mit Spannung erwartet, wie und wann AMD dem neuen Technik-Trend begegnen wird."


Da selbst der ultimative Endzeit RT Bolide, die 2080 Ti (1200€), nicht gerade der FPS Überflieger mit aktivem RT ist, stellt sich gar keine Spannung ein. Weil Navi ja eh nur die 2070 wirklich angreift. So in 4-5 GPU Generationen, wenn mit oder ohne RT noch 5FPS Differenz liegen und das ein Spielegrafik Standard geworden ist, mag da Spannung entstehen... aber aktuell ist es nur Marketing gepushe. Aber dann hat Lisa wenigstens mal darüber geredet, also Montag dann.
 
  • Gefällt mir
Reaktionen: russianinvasion und McTheRipper
t3chn0 schrieb:
Also wenn AMD das macht, dann ist Raytracing bestimmt auf einmal voll geil und sinnvoll =).
Kommt doch komplett auf das Verhältnis zum Performanceverlust drauf an. Hheee??
Ergänzung ()

Habe gestern mal die Quake2 RTX Demo ausprobiert.

RTX off = über 1000fps
RTX on = min. 10(hight) max.27fps (low)

...etwa gleichwertige xpMod (mit nochmal besseren Texturen) ca. 100+fps
Siehe:


Thema: VERHÄLTNIS
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran und aldaric
t3chn0 schrieb:
Also wenn AMD das macht, dann ist Raytracing bestimmt auf einmal voll geil und sinnvoll =).

Bad troll attempt - den meisten die RT bei deinem heiss geliebten NV kritisiert haben ging es nicht darum die RT Technologie ansich schlecht zu reden sondern um den Umstand das ein Feature bezahlt werden sollte für das es abgesehen von einer einzigen grottenschlechten Implementation in BF:V zum damaligen RTX Release überhaupt keine unterstützenden Spiele gab.

Von daher werde ich persönlich auch bei AMD von einem Kauf absehen bis der Moment kommt wo ich sehe das der Grossteil meiner Spiele die ich gerne zocke unterstützt werden denn die Problematik ist die selbe wie bei NV auch aka "Was bringt mir ein Feature das die Spiele die ich zocke nicht nutzen ?" - Boom ! :stacheln:
 
  • Gefällt mir
Reaktionen: Chaos Theory
Inxession schrieb:
Stellt euch vor AMDs Ansatz, über Voxel basierte Beschleunigung, Raytracing zu verwirklichen funktioniert. (siehe demo auf vega 56)...

Die DXR Schnittstelle in DirectX könnte dies auch...

Und auf einmal sind alle TensorCores und RTX Proprietäre Bibliotheken hinfällig.

Eigentlich kann RT nur so funktionieren... Flächendeckend inkl Konsolen.

Wäre überrascht wenn AMD extra Hardwareeinheiten verbaut.

Das wäre krass...wenn AMD nVidia dadurch überholen würde in zumindest diesem Aspekt...aber ich fürchte es würde wieder Open Source gemacht werden, so dass nVidia mit der dedizierten Hardware wieder runder und schneller läuft.
 
  • Gefällt mir
Reaktionen: Hipvip
Ich hatte mal vor 20 Jahren eine ATI und eine Vodoo II Karte in meinen Rechner und Damals Spielte ich Unreal in der ich in einen Raumschiff Aufwachte. Im Spielanfang gab es eine Kurze Zehne in der man durch einen Spiegelden Flur lief. War das nicht schon etwas änliches wie RTX? Und konnten nicht auch schon Geforce 4200 nicht mit einem Patch die Vodoo Funktionen Übernehmen? Viele wissen wahrscheinlich nicht wovon ich Rede, aber wird uns nicht etwas verkauft was es eigendlich schon sehr lange gibt?
 
Zuletzt bearbeitet von einem Moderator:
Inxession schrieb:
Stellt euch vor AMDs Ansatz, über Voxel basierte Beschleunigung, Raytracing zu verwirklichen funktioniert. (siehe demo auf vega 56)...

Die DXR Schnittstelle in DirectX könnte dies auch...

Und auf einmal sind alle TensorCores und RTX Proprietäre Bibliotheken hinfällig.

stell dir mal vor, dass voxel basiertes raytracing schon länger existiert. mit miscreated von 2015 gibt es sogar ein spiel, dass das mittels cryengine inplementiert hat. mit amd hat das also wenig bis gar nichts zu tun.
nun stell dir weiterhin vor, das es dxr gar nicht interessiert ob die gpu das alles mittels shader oder spezialisierten cores ala tc und rt macht. sind jetzt tc und rt cores deiner rmeinung nach immer noch hinfällig?
 
Dai6oro schrieb:
So wird das nix und genauso als BlingBling Feature in der Versenkung verschwinden wie GPU PhysX.

Umpf was eine Aussage...:rolleyes:

Du hast eine Nvidia Grafikkarte, jedesmal wenn du den Treiber aktualisierst steht da das auch der PhysX Treiber aktualisiert wurde (!) damit deine Karte die Physik über ihren integrierten PhysX Chip berechnet (eine GPU besteht heut zu Tage aus zig einzelnen Chips für spezialisierte Aufgaben wie Video De/Encodierung oder wie sie auch Sound ausgibt...). Und du redest davon das PhysX tot sei?! Es würde nur in die Grafikkarte per gesonderten Chip integriert. sprich es wird wie die Decodierung eines Videos einfach "in Hardware" ausgeführt. ;)
 
Es gibt keinen integriertern PhysX Chip in nvidia grafikkarten, das wird alles über die Compute Cores berechnet.
Ähnliches kann auch bei AMD mit RT passieren
 
  • Gefällt mir
Reaktionen: Smartbomb, Rockstar85 und Volkimann
Eventuell wird es sich beim Hybrid-RayTracing wie bei Tesselation verhalten: Dafür wurde zunächst auch fixe Logik in die Pipeline integriert, aber sobald man den Tesselator dann angeworfen hat, haben sämtliche anderen Aufgaben massivst gelitten. Praxistauglich war Tesselation daher nie. Die GPU-Hersteller haben dann angefangen, den Geometriedurchsatz zu erhöhen und die Entwickler haben die ingame Models einfach ordentlich aufgebohrt und für ausreichend LoD-Stufen gesorgt. Heute trauert niemand mehr Tesselation hinterher.
 
Chaos Theory schrieb:
Nvidia: "wir haben Raytracing 10 Jahre lang erforscht und hier ist das Ergebnis unserer langer Arbeit, die Turing Architektur."
AMD: "wir waren grad im Keller und haben mal eben auf die schnelle eine GPU mit Raytracing zusammengeschustert.."

Und die Konsumenten so: hrgnnn arr! Moore brainZ! Take dollares, give brains!
The vendor that i've chosen is better than your's! BrainZ!
Ergänzung ()

[wege]mini schrieb:
was, wie, warum, womit und vor allem zu welchem preis die neue technik einzug hält, ist auch egal...in 20 jahren kannst du sagen, du warst dabei. :heilig:
also der obere Teil: yo!

Du warst dabei? Egal!
Zählt doch heute schon nicht mehr in Gänze was du drauf hast, sondern nur, was du zum aktuellen Thema X grade mal liefern kannst... :evillol:
 
Pleasedontkill schrieb:
Kommt doch komplett auf das Verhältnis zum Performanceverlust drauf an. Hheee??
Ergänzung ()

Habe gestern mal die Quake2 RTX Demo ausprobiert.

RTX off = über 1000fps
RTX on = min. 10(hight) max.27fps (low)

...etwa gleichwertige xpMod (mit nochmal besseren Texturen) ca. 100+fps
Siehe:


Thema: VERHÄLTNIS
Du hast nicht verstanden worum es hier geht- Die xpMod Version ist statisch und vorberechnet - die RTX Version ist volldynamisch und wird in realtime erstellt.

Erstens sieht man sofort, dass die Lichter und die Schatten in der xpMod Version völlig unnatürlich fallen und zweitens könntest Du bei der RT Version die gesamte Umgebung z.B. zerstörbar machen, Dachluken und Türen generieren, die auf- und zu gehen, und damit das Licht- Setting beeinflussen. Mehrere Raumschiffe mit Beleuchtung und spiegeln drinnen rumfliegen lassen, Lichter die man ausschiessen kann und und und....

Und dann versuch das mal mit der xpMod Version zu verwirklichen. Und schau Dir dann mal die Framezahlen an.

LG
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer
Ben81 schrieb:
So siehts aus... "Nvidia`s Raytracing ist eine Totgeburt braucht keiner",
"AMD`s Raytracing ist echt toll gute entwicklung"
Nun ja, ehrlicherweise muss man ja sagen, dass RT de-facto bislang wirklich eine Totgeburt ist.
Nvidia kann nur hoffen das AMD und andere auch mitmachen, sonst bleibt das Thema auch eine Totgeburt.
 
Langweilig und das Fake-tracing von NV sieht ja nicht mal besser aus. Preis/Leistung stimemn einfach hinten und vorn nicht. Bei AMD wird es nicht anders sein.
 
  • Gefällt mir
Reaktionen: Pleasedontkill
@DaTheX
Da liegst Du aber ziemlich falsch. Die Entwickler / Engine- Hersteller sind so rührig beim Thema Raytracing, wie sie es seit DX9 bei keinem Thema mehr waren.

Alle anderen haben bereits angekündigt mitzumachen.
Ergänzung ()

Botcruscher schrieb:
Langweilig und das Fake-tracing von NV sieht ja nicht mal besser aus. Preis/Leistung stimemn einfach hinten und vorn nicht. Bei AMD wird es nicht anders sein.
Sieht nicht mal besser aus als was? Als die Fake Grafik, an die sich Deine Augen über all die Jahre in Sachen Computerspiele gewöhnt haben?
An der subjektiven Empfiindung der Optik kann man natürlich nicht rütteln. Da brauche ich nicht argumentieren.
Gibt ja auch genug Menschen, die auf 200Kilo- Frauen abfahren (sei ihnen gegönnt).
Die Grafiken, wie sie heutzutage generiert werden, sind aber wenn nicht vorberechnet, alles andere als physikalisch korrekt.

Preis-/Leistung wird hier nach alter Wertung leider von einigen pauschal immernoch mit $/FPS festgelegt.
Dieser Maßstab gilt bei einem Technologiewechsel nicht mehr, da nicht vergleichbar.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu und KlaraElfer
ZeroZerp schrieb:
@DaTheX
Da liegst Du aber ziemlich falsch. Die Entwickler / Engine- Hersteller sind so rührig beim Thema Raytracing, wie sie es seit DX9 bei keinem Thema mehr waren.

Alle anderen haben bereits angekündigt mitzumachen.
10 Monate ist die Nvidia-2000er-Generation mit RT nun auf dem Markt. Passiert ist seit dem quasi nichts. Ankündigungen sind schön und gut, wenn aber nach fast einem Jahr noch rein gar nichts passiert ist kann man denke ich ohne umschweife und auch mit aller Neutralität von einer Totgeburt sprechen.
 
  • Gefällt mir
Reaktionen: russianinvasion und geist4711
Apocalypse schrieb:
Irgendwo zwischen 6k und 8k bringt mehr Auflösung für Desktops dann aber auch nix mehr und bei Fernsehern ist bei üblichen Größen und Abständen ja 4k schon genug. ;-)

Naja ohne Natives 4K Material mit der Richtigen Bitrate bringt der dir aber auch relativ wenig ;-), Hoffentlich wirds nicht genau so ein FailTracing wie bei Nvidia, wo man für Teilweise 0 Grafik unterschied locker 50% der Fps verliert xD
 
DaTheX schrieb:
10 Monate ist die Nvidia-2000er-Generation mit RT nun auf dem Markt. Passiert ist seit dem quasi nichts. Ankündigungen sind schön und gut, wenn aber nach fast einem Jahr noch rein gar nichts passiert ist kann man denke ich ohne umschweife und auch mit aller Neutralität von einer Totgeburt sprechen.
Nochmal- Wer reden hier von einem Technologiewechsel. Dem Wechsel zu der Ultimativen Methode Grafik darazustellen.
Nach einem halben Jahr nach Erscheinen der CD hatte auch jeder nen Player und tausende von CDs?
Wich frag mich immer, warum sich leute nicht mehr daran erinnern können, wie lange es braucht neue Technologien einzuführen. Wie lange hats bei 3d Beschleunigern, Soundkarten etc. gebraucht?
DX10/DX11?

Dagegen verläuft die Adaption von DXR geradezu rasend schnell.

Nach einem dreiviertel Jahr ist nichts passiert? UE4.22?? Mit die verbreitetste Gameengine umgestellt.
5 erschienene Spiele, 15 in der Mache.

Wer da mit neutralität von einer Totgeburt sprechen will, der hat ein verschrobenes Verhältnis zum Wort Neutralität.

Egal- Dein Zappeln hilft nix. In 5 Jahren wirst auch Du DXR nutzen, Du wirst es geniessen und Dir wirds vorkommen, als wenn Du nie andere Sachen genutzt hättest.
Nur wenn Du dann tatsächlich mal einen Blick zurück auf die glanzleistungen der Rasterisierung wirfst "Crysis", wird Dir plötzlich auffallen, wie viel da tatsächlich zwischenzeitlich passiert ist.

Nureinnickname! schrieb:
Hoffentlich wirds nicht genau so ein FailTracing wie bei Nvidia, wo man für Teilweise 0 Grafik unterschied locker 50% der Fps verliert xD
Oder auch bei hochkomplexen Szenen mit besserer Verschattung mal eben 100% und mehr schneller sein kann...als mit der Fake- frickel- Rasterisierung.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, USB-Kabeljau und KlaraElfer
acc schrieb:
stell dir mal vor, dass voxel basiertes raytracing schon länger existiert. mit miscreated von 2015 gibt es sogar ein spiel, dass das mittels cryengine inplementiert hat. mit amd hat das also wenig bis gar nichts zu tun.
nun stell dir weiterhin vor, das es dxr gar nicht interessiert ob die gpu das alles mittels shader oder spezialisierten cores ala tc und rt macht. sind jetzt tc und rt cores deiner rmeinung nach immer noch hinfällig?

Joa, sogar noch mehr als vorher.
Wenn es auch ohne Tensor Cores funktioniert und AMD diesen Weg gehen wird, dann setzt sich wohl mit Verbreitung von Raytracing auf den Konsolen, die "alte" Technik durch.

AMD mag im PC Gaming Bereich ein kleines Licht sein... So wie es scheint aber wieder in beiden neuen NextGen Konsolen.

So lange es keinen offenen Standard gibt (wo doch eigentlich jeder davon profitiert),.. Wird nVidia weiterhin die Spieleschmieden breit unterstützen müssen um ihren RT Ansatz zu integrieren.

Crytek zeigte letztens die Herangehensweise auf einer Vega 56 mit Voxel Technik.

Und jetzt ist eben die spannende Frage wie AMD RT implementiert.
Meiner Meinung nach wird sich die von AMD gestützte Technik durchsetzen... Eben wegen den Konsolen.

So gut wie alle proprietären nVidia Techniken sind zur Nische geworden (PhysX,... Sogar GSync wenn man so will haben sie mit "Gsync kompatibel" selbst unterwandert..)

Ich mag vielleicht nicht das tiefgreifende Hintergrundwissen besitzen...

Aber ich lass mich auch nicht von Firmen blenden, die bekannt sind Quatsch zu erzählen. (Holz GPU, 970 Speicher,...)
 
  • Gefällt mir
Reaktionen: Pleasedontkill, Unnu und Thraker
Inxession schrieb:
@t3chn0
...Mittlerweile sind die Preise ja in Pascal Regionen vorgedrungen... (ausgenommen 2080ti)
Naja, nicht wirklich. Bei dem Rest, Stimme ich dir zu. Habe damals meine EVGA GTX 1070 FTW für 368€ zu Release gekauft. Dafür bekomme ich momentan keine EVGA GTX 2060. Eine 2070 schonmal gar nicht.
 
t3chn0 schrieb:
Also wenn AMD das macht, dann ist Raytracing bestimmt auf einmal voll geil und sinnvoll =).
ZeroZerp schrieb:
Es ist KEINE nVidia Erfindung und keine proprietäre Art RT durchzuführen.
Auch DXR ist nichts proprietäres.
Die RT Cores auf den nvidia Karten sind fixed function Einheiten, die die DXR Instruktionen z.T. erheblich beschleunigen können.

NV ist selbst schuld, wenn sie es vermarkten, als wäre die Erfindung seit Jahrhunderten. Sie sind es, die dann Vergleiche mit einem riesen Pascal machen. Klar wird ein Shader nie so effizient wie eine fix function Unit sein, besonders wenn die Software an einer fix function angepasst ist.
In meinen Augen ist es mit Tessellation oder AMD Push bezüglich Low-Level API für PCs (Mantel). Wir wissen, wie lange es dauert, bis sich sowas mal durchsetzt.
AMD selbst hat sich auf alle Fälle nicht lustig gemacht. Als NV die ersten Demos vor Turning Einführung präsentierte, gab es von AMD selbst erste Stellungsnahmen, dass man daran arbeitet und diese Technologie in Zukunft mehr und mehr in Games zu finden sein.
 
  • Gefällt mir
Reaktionen: E1nweg, Chismon und Apocalypse
Zurück
Oben