News Grafikkarten: AMD will auf der E3 auch über Raytracing sprechen

Inxession schrieb:
So lange es keinen offenen Standard gibt (wo doch eigentlich jeder davon profitiert),.. Wird nVidia weiterhin die Spieleschmieden breit unterstützen müssen um ihren RT Ansatz zu integrieren.

DXR ist von allen für alle Hersteller.
nVidia schafft also gerade mit eigenen Geldern eine Softwarebasis, auf die AMD sofort und ohne Investition aufspringen könnte.

Crytek zeigte letztens die Herangehensweise auf einer Vega 56 mit Voxel Technik.

Die Voxeltechnik ist bei Crytek inzwischen ein alter Hut. Wenn man sich aber mal eingehender mit dem Thema beschäftigt, werden die Nachteile dieser Technik offenbar.


Es kommt eben nicht an RT ran (max 30FPS auf einer Vega 56), Szenen müssen feststehen, da sonst bei jedem Szenenwechsel teilweise Sekunden! Berechnung für die Voxel Struktur benötigt wird.:
Auf Partikel oder fließendes Wasser sollen sich die Effekte bisher noch nicht anwenden lassen. Weitere Einschränkungen sind ein Versatz von ein bis zwei Frames bei der Darstellung von indirekter Beleuchtung und dass es durchaus ein paar Sekunden dauern kann, bis das System funktioniert, wenn die Kamera an einen komplett anderen Ort springt – offensichtlich benötigt die initiale Berechnung der Voxel-Umgebung viel Zeit.

Zudem spart sich das System derzeit noch das, was eigentlich den Aufwand bei RT darstellt (diffuse, nicht zu 100% reflektierende Flächen).


Und jetzt ist eben die spannende Frage wie AMD RT implementiert.
Meiner Meinung nach wird sich die von AMD gestützte Technik durchsetzen... Eben wegen den Konsolen.
AMD hat die fahrtrichtung der Technik bereits mit nvidia, intel und microsoft abgestimmt. Daraus ist DXR entstanden.

So gut wie alle proprietären nVidia Techniken sind zur Nische geworden (PhysX,... Sogar GSync wenn man so will haben sie mit "Gsync kompatibel" selbst unterwandert..)
PhysX ist in großen Gameengines inzwischen die standard- Physikbibliothek. -Nische?? T&L Nische?
Da sag ich nur, wie gut, dass DXR offen für alle Hersteller nutzbar ist.

Ich mag vielleicht nicht das tiefgreifende Hintergrundwissen besitzen...
Genau darin liegt ein Problem.


pipip schrieb:
NV ist selbst schuld, wenn sie es vermarkten, als wäre die Erfindung seit Jahrhunderten.
Naja- Also abgesehen von allen sonstigen Präsentationen wo Hersteller und Entwickler immer so "super excited" sind, hat es bei der Präsentation von realtime Ratracing tatsächlich eine Berechtigung.

Sie sind es, die dann Vergleiche mit einem riesen Pascal machen. Klar wird ein Shader nie so effizient wie eine fix function Unit sein, besonders wenn die Software an einer fix function angepasst ist.
Das hätten sie garnicht müssen. Ich hätte auch ganz nüchtern die Zahlen präsentiert, nämlich dass man mit 11-12 TFlops 1 Gigaray berechnet und die neue Generation theoretisch davon 10 und in der Praxis "nur" noch 6-7.

In meinen Augen ist es mit Tessellation oder AMD Push bezüglich Low-Level API für PCs (Mantel). Wir wissen, wie lange es dauert, bis sich sowas mal durchsetzt.
Eben- Gerade weil man weiss, wie lange so was dauert, ist es doch erstaunlich wie stark dieses Thema von allen Entwicklern/Herstellern forciert wird. Unreal hat in einem Kraftakt die Engine innerhalb eines halben Jahres umgestellt. Was glaubst Du was für eine Kraftakt das war?
Sowas machen die sicherlich nicht, wenn sie nicht von der Technik und Zukunftsträchtigkeit der neuen Technik überzeugt wären.

AMD selbst hat sich auf alle Fälle nicht lustig gemacht. Als NV die ersten Demos vor Turning Einführung präsentierte, gab es von AMD selbst erste Stellungsnahmen, dass man daran arbeitet und diese Technologie in Zukunft mehr und mehr in Games zu finden sein.
Ja- Die haben das ja schliesslich mit Intel und Microsoft zusammen genau so mitentwickelt bzw. der API zugestimmt.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, USB-Kabeljau, KlaraElfer und 2 andere
ZeroZerp schrieb:
Jetzt wird T&L schon Nvidia zugeschrieben?

Also sowohl ATi Radeon 7200 als auch GeForce 256 konnten T&L - quasi beide zeitgleich erschienen. Ebenso der Savage 2000 von S3, der aber total verbuggt war, sowohl von Hard- als auch Softwareseite.
 
  • Gefällt mir
Reaktionen: Apocalypse
Volkimann schrieb:
Jetzt wird T&L schon Nvidia zugeschrieben?
Genauso, wie DXR jetzt nvidia zugeschrieben wird...
AMD kam ein dreiviertel Jahr später.

Bei RT wirds wieder ähnlich laufen.
 
  • Gefällt mir
Reaktionen: KlaraElfer
ZeroZerp schrieb:
Du hast nicht verstanden worum es hier geht- Die xpMod Version ist statisch und vorberechnet - die RTX Version ist volldynamisch und wird in realtime erstellt.
Korrekt, aber ich denke, da sind wir uns einig. Weder AMD noch Nvidia werden 2020 RT Massenmarkttauglich bekommen. Wie du ja sagtest, Realtime und Dynamik benötigt Rechenpower.. Ich denke in 5 Jahren werden wir sicher viel RT sehen. Aber Intel hatte das Problem ja schon 2007. Vllt gibts auch seperate RT Beschleuniger, mal schauen
 
  • Gefällt mir
Reaktionen: yummycandy und .Sentinel.
Rockstar85 schrieb:
Wie du ja sagtest, Realtime und Dynamik benötigt Rechenpower.. Ich denke in 5 Jahren werden wir sicher viel RT sehen. Aber Intel hatte das Problem ja schon 2007. Vllt gibts auch seperate RT Beschleuniger, mal schauen
Genau so wird es laufen -
Der ganz normale Ablauf eben, wenn so etwas eingeführt wird. Wie oben in meinem Sheet verlinkt, kostet letztenendes der ganze hybride Ansatz unnötig viel Leistung. RT könnte schon jetzt schneller sein.
Der Hybride Ansatz ist aber aufgrund der Installationsbasis natürlich erstmal ein Muss.
Auch um sich Zeit zu verschaffen die Technik und die Programmierung in Sachen RT zu optimieren und überhaupt erst eine anständige Erfahrungs- und Softwarebasis zu schaffen.

Epic hat ja gerade erst wieder angekündigt, dass sie in kürze aus RT weitere 30-40% Leistungssteigerung rausholen können.
Wenn man sieht, woher wir kommen (FullHD Demos bei Ankündigung mit 30FPS) - und wo wir jetzt stehen (Battelfield 5/FullHD/ RT Ultra mit teils 100FPS), dann zeigt sich der enorme Optimierungsfortschritt. Und auch das Potenzial, was da noch schlummert.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, USB-Kabeljau und KlaraElfer
ZeroZerp schrieb:
Genauso, wie DXR jetzt nvidia zugeschrieben wird...
AMD kam ein dreiviertel Jahr später.

Bei RT wirds wieder ähnlich laufen.
Also zwischen Februar 2000 (GeForce 256) und April 2000 (Radeon 7200) sind es irgendwie nicht ganz ein 3/4 Jahr :freak:

Und wenn man es ganz genau nimmt würde der Savage 2000 schon Ende August 1999 mit einer T&L Einheit vorgestellt, bevor überhaupt Nvidia oder ATi was auf dem Markt hätten.

Also T&L stammt nicht von nvidia.
 
  • Gefällt mir
Reaktionen: Kodak
Rockstar85 schrieb:
Korrekt, aber ich denke, da sind wir uns einig. Weder AMD noch Nvidia werden 2020 RT Massenmarkttauglich bekommen.
Nochmal die PS5 kommt mit RT und sie kommt 2020.
 
Volkimann schrieb:
Also T&L stammt nicht von nvidia.
Dann hast Du meinen Post nicht verstanden. PhysX stammt auch nicht von nVidia.

Es ging mir darum ad Absurdum zu führen, dass viele hier meinen, dass nvidia die hier von ihnen selbst entwickelte Technik proprietär pusht. Das ist alles offen, uralt- Techniken. AMD könnte sofort einen Treiber für ihre Karten stricken und jeder Radeon besitzer könnte Metro Exodus mit DXR spielen.

Das ist wie wenn ich AMD unterstelle, etwas proprietäres unterstützt zu haben, nur weil sie als erste DX10.1 Funktionen in ihre Grafikkarten/Treiber gegossen haben.

Zudem
Die Bezeichnung GPU wurde erstmals von Nvidia intensiv genutzt, um die 1999 erschienene Nvidia-GeForce-256-Serie zu vermarkten. Diese Grafikkarte war (im Endkunden-Geschäft) als erste mit einer T&L-Einheit ausgestattet.
Quelle:https://de.wikipedia.org/wiki/Grafikprozessor

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
Inxession schrieb:
Joa, sogar noch mehr als vorher.
Wenn es auch ohne Tensor Cores funktioniert und AMD diesen Weg gehen wird, dann setzt sich wohl mit Verbreitung von Raytracing auf den Konsolen, die "alte" Technik durch.

du verstehst es nicht oder? der game engine ist es völlig egal, wie die gpu das letztendlich handhabt.
 
  • Gefällt mir
Reaktionen: KlaraElfer, xexex und .Sentinel.
Apocalypse schrieb:
Nochmal die PS5 kommt mit RT und sie kommt 2020.
Wir haben von einer breitflächigen Umsetzung gesprochen. Auch 2020 wird bei den Konsolen nicht von heut auf morgen RT das beherrschende Thema sein...

Ich glaube, dass 2025 schon ein guter Rahmen ist, ab dem kein Hahn mehr danach kräht, sondern RT zur Selbstverständlichkeit geworden ist.
Immerhin 10 Jahre früher als lange Zeit vorhergesagt. Insofern ist das schon ein Meilenstein.

LG
Zero
 
  • Gefällt mir
Reaktionen: USB-Kabeljau und Rockstar85
@ZeroZerp ich habe weder etwas gegen Nvidia, habe selbe Jahrelang eine GTX besessen bis ein vernünftiges P/L-Verhältnis ad acta gelegt wurde, noch habe ich etwas gegen neue Technologien, Fortschritt befürworte ich eigentlich ausnahmslos.

Wenn nach einem Jahr jedoch 5 "fertige" Spiele, die ehrlicherweise mit RT auch nur semigut laufen, und 15 angekündigte Spiele als finale Weisheit erklärt werden ist`s mit der Neutralität leider nicht weit her.

Das es in 10 Jahren Branchenstandard sein könnte will ich dem gar nicht absprechen, aber Stand heute ist es einfach noch zu unausgereift und Nieschenhaft um da von einer echten Zukunftstechnologie für den Spielemarkt zu reden. Für den Profibereich von mir aus. Beim Heimanwendermarkt muss sich jedoch noch zeigen ob die Technologie noch die Kurve kriegt. Bislang bin ich nicht überzeugt. Da könnte immer noch eine alternative um die Ecke kommen die RT obsolet macht.
 
ZeroZerp schrieb:
Als die Fake Grafik, an die sich Deine Augen über all die Jahre in Sachen Computerspiele gewöhnt haben?

Als Fakegrafik die 10x schneller läuft und echtes Raytracing das den Namen aufgrund der Genauigkeit verdient.
Was in Metro als Global Illumination vermarktet wurde ist ein schlechter Witz. Ein Zwitter voller Grafik-Bugs die bei echtem RT überhaupt nicht auftreten können.
 
ZeroZerp schrieb:
Dann hast Du meinen Post nicht verstanden. PhysX stammt auch nicht von nVidia.
Stimmt, die Version die allgemein verhasst ist, die stammt von Nvidia. Die hat dann auch sehr lustige Einschränkungen gehabt. ;-)

Wobei ich zugeben muss, so eine 400€ RT-Booster Karte wäre schon verlockend, so zum zustecken zur normalen Karte um RT Hybrid Lösungen und RT Only Lösungen ordentlich zu beschleunigen. So wie damals bei PhysX oder 3D. ;-)
 
Botcruscher schrieb:
Als Fakegrafik die 10x schneller läuft
Genau deswegen gibt es Fakegrafik. Das ist ja genau der Witz der sache. Je schlechter die Qualität umso schneller das Ergebnis.

und echtes Raytracing das den Namen aufgrund der Genauigkeit verdient.
Wieso verdient ein waschechter Pathtracer z.B. das Prädikat "Raytracing" nicht in Deinen Augen?

Du kannst Dir übrigens irgendwann aber von Geschwindigkeit nichts mehr kaufen (ab 110FPS lt. Wissenschaft).

Was in Metro als Global Illumination vermarktet wurde ist ein schlechter Witz. Ein Zwitter voller Grafik-Bugs die bei echtem RT überhaupt nicht auftreten können.
Dann erklär mir mal, was an der Global Illumination dort konkret ein schlechter Witz ist.

LG
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer
ZeroZerp schrieb:
Dann hast Du meinen Post nicht verstanden. PhysX stammt auch nicht von nVidia.
Nein, sie haben einfach Ageisa aufgekauft, deren Zusatzkarten eingestampft.
Es ging mir darum ad Absurdum zu führen, dass viele hier meinen, dass nvidia die hier von ihnen selbst entwickelte Technik proprietär pusht.
Nvidia kaufte proprietäre Technik auf und macht diese GPU Beschleunigung exklusiv für ihre GPUs und die CPU Beschleunigung war ein absichtlich mit x87 verhunzter Witz.
Das ist wie wenn ich AMD unterstelle, etwas proprietäres unterstützt zu haben, nur weil sie als erste DX10.1 in ihre Grafikkarten gegossen haben.

Zudem

Quelle:https://de.wikipedia.org/wiki/Grafikprozessor

LG
Zero
Am 30. August 1999 stellt S3 nach den eher glücklosen 3D-Modellen Savage 3D und Savage4 den Savage 2000 vor, den ersten Chip mit einer Hardware-TnL-Einheit.
https://www.pcgameshardware.de/Retr...das-Ende-von-Ati-PCGH-Retro-30-August-693605/

The Radeon R100 is the first generation of Radeon graphics chips from ATI Technologies. The line features 3D acceleration based upon Direct3D 7.0 and OpenGL 1.3, and all but the entry-level versions offloading host geometry calculations to a hardware transform and lighting (T&L) engine
https://en.m.wikipedia.org/wiki/ATi_Radeon_R100_Series

R100 = Radeon 7000 Serie

Zuerst wurde die Funktionalität in den Grafikchip Savage 2000 von S3 Inc. und die Nvidia GeForce 256 implementiert
https://de.m.wikipedia.org/wiki/Transform_and_Lighting
 
Volkimann schrieb:
Nein, sie haben einfach Ageisa aufgekauft, deren Zusatzkarten eingestampft.

Nvidia kaufte proprietäre Technik auf und macht diese GPU Beschleunigung exklusiv für ihre GPUs und die CPU Beschleunigung war ein absichtlich mit x87 verhunzter Witz.
Jup- Bis sie es freigegeben/weiterlizenziert haben. Heute gehört es zu der weiterverbreitetsten Physik- Bibliothek.

Zum Rest- Nochmal T&L ist keine nvidia Exklusive Technik. PhysX auch nicht. Trotzdem wird es ihnen zugeschrieben. Und so passiert es hier ebenso fälschlich mit RT und DXR.

LG
Zero
 
Ich denke AMD muss dazu endlich eine Lösung anbieten, sonst hört man immer wieder das Verkaufsargument: "Aber Nvidia hat doch zusätzlich Raytracing."
 
ZeroZerp schrieb:
Genauso, wie DXR jetzt nvidia zugeschrieben wird...

Mit keinem Wort hab ich das erwähnt. Du solltest besser lesen...
Und verstehen.
 
ZeroZerp schrieb:
Genauso, wie DXR jetzt nvidia zugeschrieben wird...
AMD kam ein dreiviertel Jahr später.

Bei RT wirds wieder ähnlich laufen.

ist doch egal was wer wie "erfunden" hat, tatsache ist das DXR RT kompatibel macht für alle Grakas und nicht wieder so ein proparitärer scheiß wie G-Sync & co ist, davon haben nämlich die Kunden nichts außer einen Hersteller der phantasie Preise für seine GPUs raushaut und die Low End Karten zum Preis von Midrange Karten verkauft .... ja toll da haben wir wirklich eine Bereicherung in diesem Bereich erfahren dürfen ;-)
 
  • Gefällt mir
Reaktionen: .Sentinel.
ZeroZerp schrieb:
Genauso, wie DXR jetzt nvidia zugeschrieben wird...
AMD kam ein dreiviertel Jahr später.

Bei RT wirds wieder ähnlich laufen.

Moment mal, kam ein dreiviertel Jahr später? Also meinst du sie kommen jetzt mit RT Kernen bei Navi? Ich glaube ehrlich nicht daran, dass Navi schon hardware RT-Kerne hat. Ich fände das natürlich sehr geil und das würde auch RT schneller verbreiten helfen, wenn mehr User RT fähige Karten im Rechner hätten. Die Spieleindustrie würde dann sicherlich mal einen Zahn zulegen wenn die Karten mehr Verbreitung hätten als jetzt. Ich schätze vielmehr, dass erst die nächste Navi Generation RT fest implementiert hat, unabhängig von den Konsolen die es ja bekommen sollen.
Als Lisa gefragt wurde ob Navi RT implementiert hat, sagte sie ausweichend, wir werden zur E3 auch auf die Roadmap der Grafikkarten eingehen für die Zukunft. Daher denke ich das Navi jetzt noch keine Hardwarebeschleunigung implementiert hat, leider, leider, leider...
 
Zurück
Oben