News GPUOpen: AMD FidelityFX wächst um vier neue Effekte an

Otsy schrieb:
@Shoryuken94

Du sagst explizit und vollkommen korrekt, dass Spiele nicht von heute auf morgen entwickelt werden. Ferner, dass die Implementation den Entwicklern viel und lange Arbeit erspart. Ich erwiderte darauf, zutreffend, dass RTX dem Endkunden seit September 2018 zur Verfügung steht, und dass überdies Entwickler bereits im Vorfeld Zugriff hatten. Dann verwies ich auf die Liste sämtlicher sowohl releaster als auch angekündigter RTX-kompatiblen Titel und stellte fest, dass irgendwo in deiner Gleichung ein Vorzeichenfehler vorhanden sein muss.

Wo genau möchtest du jetzt Äpfel mit Birnen verglichen sehen? Erkennst du den direkten Widerspruch nicht? Ich möchte die Logik dahinter einfach begreifen, verstehe das also bitte nicht falsch.
Letztlich ein Henne-Ei Problem:
Entwickler können - egal welche Tools vorhanden sind - erst RT einsetzen, wenn die Spieler, die das Spiel nachher kaufen sollen alle RT Hardware haben. Das heißt es muss zuerst eine Marktdurchdringung geben. Erst wenn Ende 2020 AMD auch RT fähige Hardware bringt (die hoffentlich so leistungsfähig oder noch leistungsfähiger als Turing ist) sowie die Konsolen ordentlich RT fähig sind wird ein Entwickler es bei der Entwicklung berücksichtigen
 
  • Gefällt mir
Reaktionen: Otsy
Otsy schrieb:
Erkennst du den direkten Widerspruch nicht?

Nein, du hast die Variable Absatzmarkt wieder vergessen. Diese ist für Gewinnorientierte Unternehmen aber enorm wichtig und dieser Absatzmarkt wird sich mit den kommenden und angekündigten Produkterscheinungen deutlich ändern.

Turing war der erste Schritt diese Technik umzusetzen. Nicht wenige Entwickler nutzen diese Technik zur Zeit und arbeiten damit. Das resultiert nicht gleich in einem finalen Spiel. Besonders nicht bei heute üblichen Entwicklungszyklen von 3-5+ Jahren. Mittlerweile unterstützt fast jede große Engine Raytracing, erste Spiele nutzen es und das obwohl dafür entsprechende low Level APIs nötig sind und der Absatzmarkt sehr gering ist.

Wie gesagt, letzteres ändert sich ja nun, Entwickler haben entsprechende Erfahrungen gesammelt, Engines sind darauf vorbereitet und nun nimmt das ganze auch massenmarkttaugliche Formen an. Und man sollte sich auch vor Augen führen, dass die technik sogar ziemlich fix von entwicklern adaptiert und umgesetzt wird. Wenn man mal andere Bereiche sieht. Alleine wie lange es gedauert hat, bis sich DX11 durchgesetzt hat. Noch heute ist das Geweine groß, wenn ein Ein Spiel mal SSE4.2 voraussetzt.... Von daher sehe ich nicht so ganz deinen Punkt. Fast alle größeren Studios arbeiten mehr oder weniger offen an der Technik, die Technik fließt in viele Tools mit ein und erste Ergebnisse sind am Markt verfügbar, obwohl nur von wenigen Nutzbar.

Ich sehe hier durchaus einiges an Anstrengung seitens der Entwickler was das Thema RT angeht, da es für Entwickler in erster Linie eine menge Arbeitserleichterung bedeutet, wenn es erst mal vernünftig läuft. Das sowas ein wenig Zeit braucht, ist wenig verständlich. Schaut man sich die ersten DX12 Gehversuche mal an, war das Ergebnis auch recht gruselig.

Aber auch da haben Entwicker das massive Potential in Low level APIs erkannt und heute ist es nicht ungewöhnlich, dass Spiele komplett ohne DX11 Fallback kommen und vollständig auf DX12 und Vulcan setzen.

Am Anfang ist die lernkurve immer sehr steil für Entwickler, aber es zahlt sich dann meistens auch aus. Und genau diese Parallelen sieht man auch gerade bei Raytracing. Quasi alle größeren Entwickler arbeiten mit der Technik und lernern damit umzugehen, die Früchte erntet man, wenn man Sie in massen einsetzen kann. Und das zeichnet sich mehr als Deutlich mit den neuen Konsolen und Grafikkarten ab.
 
Nvidia haut bald die nächste Generation RT Karten raus und AMD kommt mit SSR. Es ist niedlich...
 
BAR86 schrieb:
RAYtracing ist natürlich noch nicht so weit, aber die ganze Arbeit die jetzt in Effekte geht, die Raytracing bald automatisch kann, könnte auch gleich in die Optimierung von RT gehen.
Einige Effekte durch und Algorithmen von RT haben nämlich noch enormes Optimierungspotential, so hat Fabien Sanglard (https://fabiensanglard.net/revisiting_the_businesscard_raytracer/index.html ) die Corona-Zeit mal genutzt sich selbst Raytracing näher zu bringen und zu optimieren und hat einen vorher schon als effizient geltenden Raytracer um den Faktor 700 beschleunigt (durch Optimierung an Hardware, Software etc).
Sorry die 700 Prozent sind ja ein Witz. Der Vergleich hinkt. Die Software ist "Uralt" und das rendering was verglichen wird ist CPU vs GPU und klar schlagen sich zig Streamingprozessoren besser als ne CPU hier. Nur wir sprechen hier von Software die bereits auf der GPU läuft... Mal sehen wie viel Tensacors NV auf die Grafikkarte verbannen wird.
Und wegen den Konsolen - AMD verfolgt einen Hybridansatz. Das wird leitstungstechnisch vermutlich nicht so stark wie die NV Lösung. Spart aber Geld weil Konsolen für > 1000€ verkaufen sich nicht..
 
Shoryuken94 schrieb:
Das wissen wir bisher nicht. Wir wissen nicht, was die AMD Lösung kann. Aber selbst mit Turingperformance geht da schon einiges bei einem optimierten und von Grund auf darauf konzipierte Spiel.

AMD weiß es aber und sieht anscheinend Bedarf für die konservativen Techniken. Mir ist nicht ganz klar, worauf sich deine Überzeugung stützt.
 
Novasun schrieb:
Sorry die 700 Prozent sind ja ein Witz. Der Vergleich hinkt. Die Software ist "Uralt" und das rendering was verglichen wird ist CPU vs GPU und klar schlagen sich zig Streamingprozessoren besser als ne CPU hier. Nur wir sprechen hier von Software die bereits auf der GPU läuft... Mal sehen wie viel Tensacors NV auf die Grafikkarte verbannen wird.
Und wegen den Konsolen - AMD verfolgt einen Hybridansatz. Das wird leitstungstechnisch vermutlich nicht so stark wie die NV Lösung. Spart aber Geld weil Konsolen für > 1000€ verkaufen sich nicht..
Was bitte sind Tensacores?
Und klar, ist der Vergleich nur ein Beispiel, oder. Steht auch dort...
Genaus klar ist, dass bei den Algorithmen hinter RT sowohl in Software als auch in HW noch viel Potential steckt.
 
Nur weil RT bereits teilweise verfügbar ist, kann man jetzt doch nicht den Nutzen von verbesserten "klassischen" Methoden absprechen. Die Verwendung von RT in Spielen steckt noch eher in den Kinderschuhen und es kann auch längst noch nicht alles gleichzeitig über RT berechnet werden. Eine 2080Ti ist jetzt auch nicht gerade eine Mainstreamhardware und eine 2060 hat in Sachen RT eben schon deutlich weniger zu bieten. Darunter gibt es nicht einmal RT-Hardware, also beispielsweise die 1660, heißt also, dass immer noch diverse GPUs verkauft werden, die nicht mal RT können und andere eben nur bedingt.

Daher ist es doch schön, dass die Grafik in Spielen dann doch nicht stagniert, bis RT dann endlich mal soweit ist. Auf dem Weg dorthin wird man dazu dann beide Techniken kombiniert einsetzen können, sodass wir Spieler von beiden profitieren können. Steht auch im Artikel, dass RT es zwar besser kann aber auch mehr Power benötigt. Ist auch gut, wenn man für mehr Performance nicht zwangsweise auf RT setzen muss.
Wir werden sicher noch einige Jahre zweigleisig fahren, bevor RT in der Lage ist, die klassischen Methoden komplett abzulösen.

Auch die neuen Konsolen werden nichts an der Zweigleisigkeit ändern, weil die mit RT längst nicht alles übernehmen können werden. Da kommt eine Konsolen-APU auf uns zu, die höchstwahrscheinlich nicht an die RT-Leistung einer 2080Ti ran kommt. Und die Konsolen werden einige Jahre Bestand haben. Also wieder gut, dass nicht alles nur noch auf RT gesetzt wird und alles andere auf der Stelle steht. Denn die neuen Konsolen werden dann auch nur einige Effekte mit RT berechnen und der Rest erfolgt über den klassischen Weg.

Ja, die Zukunft wird in Richtung RT gehen, aber der Weg ist noch weit, bis die klassischen Methoden komplett abgelöst werden können. Bis dahin kann man sich auch an verbesserter Grafik erfreuen, die kein RT voraussetzt und nicht elendig viel Leistung kostet.
 
  • Gefällt mir
Reaktionen: Beyazid und Baal Netbeck
Otsy schrieb:
Die Entwickler scheinen nVidia die Türen förmlich einzulaufen. Wenn es sich um sehr kleine Türen handelt, und wenn wir unter 'laufen' das langsame Verteilen einer zähen Flüssigkeit verstehen.
So wie bei Pech? ^^

Warum meckern hier eigentlich Anwender die vermutlich fast alle nicht in der Entwicklung tätig sind dass AMD ein neues, für aktuelle Hardware optimiertes Werkzeug bereit stellt?
Jammert ihr auch so wenn jemand neue Schweißroboter anbietet? Gibt ja schließlich auch Autos die nicht geschweißt werden müssen. Also theoretisch zumindest, man kann ja auch kleben, schrauben, nieten und pressen.

Irgendwann kommt raytracing schon noch, aber bis dahin gibts weiter 'fake'-effekte und so ein bisschen verstrahltes 'fake'-effekten und ein bisschen mehr verstrahltes rendering, ein neues S.T.A.L.K.E.R., vollständiges rendering mit raytracing in 12,8 FPS @ 640x480, noch ein bisschen mehr verstrahltes rendering ... bis die Leistung eben ausreicht. Könnte aber noch ein bisschen dauern.
 
@BAR86 TensoCores heißen sie bei NV. Wie du weißt nicht was die sind? Ok ursprünglich hat NV die für Ki entworfen. Nur musste man die teure Hardware iegendwie auch an Gamer verscherbeln. Weglassen hätte eigenes Chipdesign bedeutet was sehr teuer ist. Irgendwer hat (im Zweifel durch Zufall) bemerkt dass die Teile Raytracing in Hardware beschleunigen... Tata die Marketing Abteilung NV's konnte die Sache als neue Funktion vermarkten. (echtzeit Raytracin)
Spannend wird sein wie NV es dieses Jahr löst. AMD hat die Aufspaltung der Professionellen Grafikkarte zu Gamerkarten vollzogen. [Vega/Rdna2] Das bringt Vorteile mit sich. Da die Ansprüche von Ki Beschleunigern andere sind als von Gamer-Gpus. Man munkelt NV hat das noch nicht. Das würde bedeuten das die neuen Karten recht teuer sein könnten (auf der anderen Seite nix neues bei NV).
Da aber Raytracing noch immer nur eine überschaubare Nische darstellt... Und AMD eben eine Hybridlösung anstrebt (weil man Raytracing auch ohne spezielle Cores auf ner GPU recht gut hin bekommt...) könnte die Strategie diesmal nicht aufgehen für NV..
Aber nix genaues weiß man.. Wir dürfen gespannt sein.
Das AMD aber seine offene "Softwarebibliothek" pflegt ist ganz klar zu begrüßen.
 
Shoryuken94 schrieb:
Aber immerhin stellt es AMD Open Source zur Verfügung. Das muss man wirklich loben. In meinen Augen kommt das ganze aber wie gesagt einfach einige Jahre zu spät. Vor 3-5 Jahren hätte man damit sicher mehr Interesse geweckt.

GPUOpen ist nicht neu. Hab schon 2018 ihren HEVC Encoder (teil von AMF) in eine unserer Applikationen eingebaut.
 
  • Gefällt mir
Reaktionen: Shoryuken94
NMir schrieb:
AMD weiß es aber und sieht anscheinend Bedarf für die konservativen Techniken. Mir ist nicht ganz klar, worauf sich deine Überzeugung stützt.

Die Firma AMD hat schon in vielen komischen Dingen ein Bedarf gesehen, der Markt aber nicht :)

Ozmog schrieb:
Nur weil RT bereits teilweise verfügbar ist, kann man jetzt doch nicht den Nutzen von verbesserten "klassischen" Methoden absprechen. Die Verwendung von RT in Spielen steckt noch eher in den Kinderschuhen und es kann auch längst noch nicht alles gleichzeitig über RT berechnet werden.

Noch mal, es geht nicht darüber alles zu raytracen. Es geht genau um solche Effekte die AMD hier zeigt. Zum einen kann man Sie seit Jahren mit relativ geringem Leistungsaufwand faken, zum anderen kann man schon heute viele dieser Effekte auch per Raytracing darstellen.

AMD selbst sagt ja nicht mal, was man davon hat nun FidelityFX Varianten zu nutzen und liefert keinerlei Zahlen, wie viel effizienter das nun sein soll... Wenn es ähnlich viel leistung kostet, könnte man sich das ganze beispielsweise auch sparen, denn dann bietet es Null anreiz für Entwickler

Ozmog schrieb:
Wir werden sicher noch einige Jahre zweigleisig fahren, bevor RT in der Lage ist, die klassischen Methoden komplett abzulösen.

Wenn alle solche Technikmuffel sind, wie das CB Forum im Allgemeinen sicherlich... Man kann natürlich die 10. Lösung für ein Problem anbieten, dass schon seit Jahren besteht... Man könnte aber auch aktiv das Problem aus der Welt schaffen.

Ozmog schrieb:
Auch die neuen Konsolen werden nichts an der Zweigleisigkeit ändern, weil die mit RT längst nicht alles übernehmen können werden. Da kommt eine Konsolen-APU auf uns zu, die höchstwahrscheinlich nicht an die RT-Leistung einer 2080Ti ran kommt.

Auch wenn ich mich ständig wiederhole, RT soll nicht alles übernehmen, der selektive Einsatz kann aber extrem die Arbeit der Entwickler vereinfachen und beschleunigen. Es spart z.B. extrem viel zeit, wenn man z.B. nur Shatten per Raytracing darstellen würde, besonders bei dynamsichen Leveln.

Wie stark die Raytracingleistung von RDNA2 ist wissen wir heute nicht. Aber man braucht eventuell auch nicht die Leistung einer 2080Ti, um effekte gut umzusetzen, wenn diese entsprechend optimiert sind.

Ozmog schrieb:
Eine 2080Ti ist jetzt auch nicht gerade eine Mainstreamhardware und eine 2060 hat in Sachen RT eben schon deutlich weniger zu bieten. Darunter gibt es nicht einmal RT-Hardware, also beispielsweise die 1660, heißt also, dass immer noch diverse GPUs verkauft werden, die nicht mal RT können und andere eben nur bedingt.

Und genau das wird sich in relativ kurzer Zeit ändern...
Bigeagle schrieb:
Warum meckern hier eigentlich Anwender die vermutlich fast alle nicht in der Entwicklung tätig sind dass AMD ein neues, für aktuelle Hardware optimiertes Werkzeug bereit stellt?
Jammert ihr auch so wenn jemand neue Schweißroboter anbietet?

Das stört ja keinen, viele sehen nur nicht den Sinn jetzt eine Lösung für ein Problem zu bringen, dass längst gelöst wurde und auf absehbarer Zeit ganz aus der Welt geschafft werden kann.

Der Vergleich hinkt zudem etwas. Da ist der Vergleich zum Telekom Vectoring sehr passend. Vectoring ansich ist nichts schlechtes. Es ist ein Ansatz um aus alten Leistungen mehr rauszuholen. Macht heute aber keinen sinn, wenn man stattdessen auch auf eine bessere Lösung, namentlich Glasfaser, setzen könnte.

Tja, nun setzt mal halt massiv auf Vectoring und lässt die eigentlich viel bessere Alternative halt links liegen. Ist ja unbequem und teuer. Ähnlich ist es mit den neuen AMD Funktionen. Das kann man alles heute schon machen. Aber statt sich auf Fortschritt zu konzentrieren optimiert man weiter alte Technik.
 
  • Gefällt mir
Reaktionen: AdBlockPlus
@Shoryuken94 nur dass AMD hier nicht Vectoring in Masse von oben herab diktiert durchsetzt, sondern nur Anbietet. Nett für die die noch kein Glasfaser haben. Wer etwas besseres hat, oder auch nur etwas anderes nehmen möchte kann das weiterhin tun.

Sowas ist einfach nur eine Erleichterung für Entwickler.
Auch ist die Annahme dass es sich um bereits gelöste Probleme handelt vermutlich falsch. Jede Hardware will eigene optimierungen, das kostet teils viel Zeit. Ist doch nett wenn das der Hersteller übernimmt, der weiß doch noch am ehesten wie das geht und so gibt es eventuell weniger Unterschiede in der Performance zwischen den einzelnen Entwicklern.
Zumal das doch möglicherweise auch parallel zu raytracing verwendet werden wird.
Sind die Softwareentwickler im Grafikbereich so knapp dass man nicht mal aktuelle Hardware unterstützen kann ohne die nächste vernachlässigen zu müssen?
 
DrFreaK666 schrieb:
Nur blöd, dass nur eine Minderheit RT-fähige Hardware hat. Das wird sich auch Ende des Jahres nicht ändern, wenn NV und AMD neue Grafikkarten veröffentlichen
Noch blöder daran ist, dass AMDs Technik Ende des Jahres noch weniger Spiele unterstützen werden. ;)
 
@Shoryuken94
Du solltest eigentlich erkennen können, wie zäh der Hardwaremarkt ist. Etwa 80-85% der kaufbaren Grafikkarten sind nicht RT-fähig und der Rest kriegt das gerade noch gebacken. Selbst eine über 1000 Euro Grafikkarte bekommt kaum 4K60 bei MINECRAFT hin obwohl es mit und von Nvidia selbst optimiert wurde. Ein uraltes Quake 2 ebenfalls.
Bis RT ausreichend verbreitet ist, kannst du definitiv von mindestens 5 Jahren ausgehen. Denn 2020 ist eine 1060 immer noch die verbreitetste Karte und die ist aus dem Jahre 2016 also mittlerweile 4 Jahre alt. Die Leute werden somit erst nach und nach aufrüsten und selbst dann wird eine 2060 und darüber nur Nische bleiben. Das liegt zum Teil am Preis von mindestens 350-400 Euro in Deutschland und vergleichsweise deutlich mehr in ärmeren Ländern.

DX12 (1.Gen) ist seit bald 5 Jahren draußen und es ist immer noch nicht verbreitet und nur bei Grafikkarten ab den Vegas/Navis und 20XX Karten vollumfänglich unterstützt. Das ist aber der Grundstein für RT und ist ein Richtwert wie schleppend sich das entwickelt und nun kommt ein DX12 Ultimate raus, das weitergeht.
Mit anderen Worten: Es wird vermutlich noch eine gefühlte Ewigkeit dauern bis DX11 vollständig abgelöst ist und DX12 die neue Grundlage darstellt.

Da hat Nvidia zu viele Erwartungen geschürt und hätte einfach die RT Cores mit den Titans und Quadros veröffentlichen sollen als Spielerei und für die Entwickler und zusammen mit den ersten entwickelten Spielen dann auch Consumer-Karten bringen können. Die Strategie die sie gewählt haben zeigt nämlich, dass sie sich sicher waren, dass jeder aufspringt, alles aus den Händen reißt und innerhalb von 1-2 Jahren jeder Entwickler dabei ist und AMD somit außen vor bleibt, da sie keine Unterstützung bieten. Bei den Traumpreisen die sie aufrufen wird das aber schwierig und nun verkommen sie zum Steigbügel für AMD die quasi perfekt zum Release mehrerer RT-Spiele ihre eigenen RT-Karten anbieten zusammen mit ihren Konsolenchips.
 
ClickBase schrieb:
Noch blöder daran ist, dass AMDs Technik Ende des Jahres noch weniger Spiele unterstützen werden. ;)

???
DX12 kann RT, Vulkan kann RT.
Wieso sollte die Hardware nichts damit anfangen können?
 
Novasun schrieb:
@BAR86 TensoCores heißen sie bei NV.
Ich weiß natürlich was TensoR Cores sind, ich wollte auf den Rechtschreibfehler hinweisen, aber du hast ihn erneut gemacht. Danke eine Erklärung ist nicht nötig, ich habe einige Jahre im Bereich Parallel/Scientific Computing gearbeitet und dort auch diverse RT Simulationen gemacht/betreut.

Bitte beim Erklären die Fachbegriffe auch richtig verwenden und schreiben. Sie heißen Tensor Cores, nicht "Tensacors" wie du sie weiter oben beschrieben hast und auch nicht TensoCores.

Novasun schrieb:
Wie du weißt nicht was die sind? Ok ursprünglich hat NV die für Ki entworfen. Nur musste man die teure Hardware iegendwie auch an Gamer verscherbeln. Weglassen hätte eigenes Chipdesign bedeutet was sehr teuer ist. Irgendwer hat (im Zweifel durch Zufall) bemerkt dass die Teile Raytracing in Hardware beschleunigen... Tata die Marketing Abteilung NV's konnte die Sache als neue Funktion vermarkten. (echtzeit Raytracing)
So wie du das darstellst ist es absoluter Nonsense. Die RT Forschung von Nvidia geht auf die späten 90er Jahre zurück. Da ist überhaupt nichts durch Zufall entstanden. Die Fähigkeiten der Tensor Cores sind auch nicht Zufall und auch nicht zufällig im Gamingchip. Denn diese wären ohne Tensor Cores und RT Cores schlanker - würden aber eben kein Echtzeit-Raytracing beherrschen (zumindest nicht in praktikablen Frameraten)
Novasun schrieb:
Spannend wird sein wie NV es dieses Jahr löst. AMD hat die Aufspaltung der Professionellen Grafikkarte zu Gamerkarten vollzogen. [Vega/Rdna2] Das bringt Vorteile mit sich.
Das hat Nvidia schon längst. Etwa bei Volta. Oder hast du viele Gamer-GPUs mit Volta drauf gesehen? Aja die Titan V. Günstiges Teil

Novasun schrieb:
Da die Ansprüche von Ki Beschleunigern andere sind als von Gamer-Gpus. Man munkelt NV hat das noch nicht.
"man munkelt". Entschuldigung, wie kommt man zu solchen Aussagen. Schreib doch einfach "ich wüsste von keiner Nvidia-Lösung, vielleicht irre ich mich". Dann kann man dir deine Wissenslücke auch freundlich ergänzen.
Aber so provozierst du fast mit einer Falschaussage und der Andeutung, dass es viele so denken würden.


Novasun schrieb:
Das würde bedeuten das die neuen Karten recht teuer sein könnten (auf der anderen Seite nix neues bei NV).
Da aber Raytracing noch immer nur eine überschaubare Nische darstellt... Und AMD eben eine Hybridlösung anstrebt (weil man Raytracing auch ohne spezielle Cores auf ner GPU recht gut hin bekommt...) könnte die Strategie diesmal nicht aufgehen für NV..
Ob gewisse Prozesse nun ein extra RT Core löst, oder ob diese Fähigkeiten direkt in die Pipeline integriert sind, ist fast völlig schnuppe. Nvidas Ansatz hat den Vorteil, dass RT und Tensor Cores recht einfach aus einer bestehenden Architektur auch entfernt werden können (GTX 16xx), bei AMDs Ansatz ist das weniger einfach möglich.
Spezielle Hardware für RT hat also auch AMD an Board, die große Frage ist aber: hat AMD auch Tensor Cores mit denen sich das Bild nachher entrauschen lässt oder per AI Hochskalieren lässt, ODER muss AMD das über die Shader lösen, die aber eigentlich schon voll mit anderen Berechnungen sind -> Leistungsdefizit.

Und der Teil mit "weil man Raytracing auch ohne spezielle Cores auf ner GPU recht gut hin bekommt..." ist leider völlig falsch. Wenn die GPUs mal 100-500x mehr Leisten als heute, kann man meinetwegen darüber reden

Novasun schrieb:
Aber nix genaues weiß man.. Wir dürfen gespannt sein.
Das AMD aber seine offene "Softwarebibliothek" pflegt ist ganz klar zu begrüßen.
Da sowieso beide auf DX-R aufbauen als API und Raytracing ein wirklich deppeneinfacher Algorithmus ist, hilft Geheimniskrämerei bei der Software hier wenig. Das eigentliche Geheimnis ist in der Hardware. Und da muss AMD noch zeigen, ob deren Lösung mit Nvidias mithalten kann. Was man weiß ist, dass AMD RT spezifische Funktionen/Funktionseinheiten (bzw. in den Folien "Raytracing in Hardware" verbaut.

Wenn du mehr über Nvidias SM erfaren möchtest ist hier ein interessanter Lesestoff https://fabiensanglard.net/cuda/index.html und hier https://towardsdatascience.com/what-on-earth-is-a-tensorcore-bad6208a3c62 (über Tensor Cores und deren Nutzen, auch bei RTX)
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
... ist aber auch alles nichts neues und in meinen Augen größtenteils unnötig. Es sind bekannte Effekte, welche einfach nur für AMD optimiert wurden. Die Vergleichsbilder sind ziemlich nutzlos, da sie nur An vs Aus zeigen und nicht den unterschied zu den klassischen Methoden.

Nur blöd, dass mittels Raytracing genau solche "Fake Effekte" ja eigentlich der Vergangenheit angehören sollen. Denn wenn Raytracing erst mal erfolgreich in die Engine integriert ist, ist es für Entwickler deutlich einfacher zu programmieren. Man muss nicht mehr jede Szene extra anpassen und so inszenieren, dass man nicht sieht, dass z.B. die Beleuchtung etc. nur fake ist und nicht wirklich dynamisch generiert werden kann.

Gerade jetzt wo AMD auch in absehbarer Zeit Hardwarebeschleunigtes Raytracing anbietet, wirkt es doch ein wenig falsch jetzt so prominent diese alte Technik zu promoten.

Ob Entwickler sich nun viel Zeit nehmen werden um das zu implementieren? Mal gucken. Die meisten dürften eher Interesse daran haben solche Techniken durch Echtzeitraytracing zu ersetzen.

Aber immerhin stellt es AMD Open Source zur Verfügung. Das muss man wirklich loben. In meinen Augen kommt das ganze aber wie gesagt einfach einige Jahre zu spät. Vor 3-5 Jahren hätte man damit sicher mehr Interesse geweckt.

Bis RT-Raytracing in voller Pracht fast überall Einzug halten wird, werden - wie bei DX12 damals (und selbst das ist noch nicht allgegenwärtig) noch etliche Jahre vergehen und wieso soll man den RDNA1 nichts gutes damit tun?

Ich finde es erfreulich und sicherlich nicht unnötig, denn jeder RDNAler nimmt es gerne mit zumal RT-Raytracing Fähigkeit bei RDNA2 nicht unbedingt auch passende Spielbarkeit in allen Settings bedeutet ;).

Des Weiteren könnte der Ausbau an Features bei AMD FidelityFX auch ein versteckter Hinweis darauf sein, dass evt. nur die beiden größten oder nur der größte RDNA2-Chip auch RT-Raytracing (leistungstechnisch relativ uneingeschränkt) bringen wird.

Insgesamt finde ich, dass es positiv zu bewerten ist, auch wenn es bedeutend weniger Aufmerksamkeit als das eher sinnlose Ampere "Koch"-Video von nVidia CEO Huang bekommen dürfte.
 
Zuletzt bearbeitet:
Ich hab jetzt lange gewartet und muss doch mal mein Senf dazu geben, erst mal man kann soviel ein stellen:
Radeon Bildschärfe
Anti Aliasing
Anisotropische Filterung
Qualität der Texturfilterung
Tessellation Modus

Ich habe diese Funktionen erst garnicht genutzt und später bei GTA 5 verwendet, weil das Monty auf Youtube ein Video dazu gemacht hatte und möchte keines dieser Funktionen mehr missen, es sorgt bei 2K für ein gestochen scharfes Kino Film Bild.
Schaut euch einzelne Bilder an Wolken, Staub, Sonne und Schatten, Lichtbrechung usw.

Ich verzichte gerne auf besondere Spiegelungen alias Raytracing wenn aus Kosten gründen alle anderen Funktionen geopfert werden sollten!!!

Bei GTA5 bekomme ich auch diese Funktionen so hin. Ich würde erst diese Funktionen die oben genannten weiter ausbauen und sie nicht gegen Raytracing als Ersatz stellen.
 
Zurück
Oben