Test Battlefield V mit DXR: Update beschleunigt Raytracing massiv

IXI_HADES_IXI schrieb:
Ist schon klar wenn man Raytracingeffekte durch was anderes ersetzt, das die FPS dadurch höher werden. Kurz gesagt sieht es für mich einfach nur so aus als wenn man Raytracing weiter beschneiden muss um auf halbwegs vernünftige Bildraten zu kommen.

das ist aber sicher nicht dass was hier in erster Linie getan wurde. Viel eher wurden in der Tat einfach die Prozeduren optimiert. Dass man dabei in diesen Extrem Szenen wie mit dem Laub auch RT rückbauen muss ist ein anderes Thema. Wer sich etwas mit der Materie befasst und das Technik Video zum Patch auch gesehen hat kommt schnell zur Erkenntnis dass es aktuell immer darum geht möglichst "intelligent" die begrenze Leistung einzusetzen. Wenn man es schafft unnötige Rays zu vermeiden dann hat man mehr Ressourcen da wo sie gebraucht werden.

Und das ist die eigentliche Optimierung die her im Fokus stand, nicht der Rückbau auf klassische Effekte.
 
  • Gefällt mir
Reaktionen: FCK-THIS, Baal Netbeck und Hias_L
Pure Existenz schrieb:
@Damien White [...]
4k brauch ca 2,2x mehr Leistung gegenüber Full HD (bei gleichen Einstellungen).
Die 2080Ti ist nicht 120% schneller als die 2070. Zudem noch mehr fps?
Never ever.

4K benötigt ca. 4 x soviel Leistung als FullHD

1980 x 1080 = 2.138.400 Pixel
3840 x 2160 = 8.294.400 Pixel

= ca. 3,9 mal
 
Firesign schrieb:
4K benötigt ca. 4 x soviel Leistung als FullHD

1980 x 1080 = 2.138.400 Pixel
3840 x 2160 = 8.294.400 Pixel

= ca. 3,9 mal

Ähm es ist exakt das Vierfache an Pixeln. Weils 1920 und nicht 1980 ist.
3840 ist das doppelte von 1920 und 2160 das Doppelte von 1080.

Somit sind es exakt 4x soviele Pixel... dafür braucht man nichtmal nen Taschenrechner.
 
  • Gefällt mir
Reaktionen: hurcos, FCK-THIS, Krautmaster und 2 andere
styletunte schrieb:
Allein schon der erste Absatz disqualifiziert Raytring schon dermaßen, dass ich nicht mehr weiter gelesen habe.

Zitat"Positiv ist nun, dass sich Laub per klassischer Screenspace-Reflexion nun auch in Pfützen und weiteren Objekten spiegelt. Dieser Teil ist vor dem Update einfach weggefallen. Da die Effekte nicht per Raytracing berechnet werden, sind diese teilweise allerdings falsch – was dennoch besser aussieht als würden diese vollständig ignoriert."

Man bedient sich also zusätzlich der bisherigen Verfahren um es echter wirken zu lassen. Oberpeinlich!
Immer schön haten was ??? Dein Kommentar ist sowas von voll dummem Zeug, das sich die Balken biegen.

Aber deiner Signatur entsprechend ( AMD Fan ) wundert das nicht.
Können uns ja mal drüber unterhalten wie "oberpeinlich" der Vega Release waren, und der jetzige "Fine Wine" sind.
 
eLdroZe schrieb:
Gebt der neuen Technik doch einfach etwas Zeit, man hat sie den Vegas auch gegeben.

Die (Zeit) wird auch von den meisten gegeben werden ;).

Die paar Early Adopter, Hobby-Enthusiasten und HardCore nVidianer braucht es ja schliesslich auch fuer die ersten RTX "Extrawurst"-Karten um die Technologie erst einmal ein wenig anzuschieben/massiv gegen zu finanzieren.

Jeder halbwegs oekonomisch denkende/nuechtern analysierende GPU-Kaeufer wird den Kopf schuetteln wenn es darum geht jetzt noch in 12nm GPUs zu investieren (das gilt uebrigens auch fuer die RX 590 von AMD, es sei denn die aktuelle GPU ist gerade abgeraucht und man braucht dringend Ersatz), bevor nVidia dann hoffentlich in 7nm/durch den echten Shrink noch deutlich mehr Leistung fuer RTX und DLSS sowie vor allen Dingen mehr GPU-Speicher (Langlebigkeit) als bei der Vorgaengergeneration bietet, bei idealerweise humaneren Preisen und einem reichhaltigeren RTX-Spieleangebot ;).

Wobei, ob die angekuendigten RTX-Titel (von denen mich neben SOTTR eigentlich nur MechWarrior 5 richtig interessieren wuerde, zur Not noch Metro Exodus) alle im Handel sein werden, bevor ein nicht unwahrscheinlicher 7nm Turing Refresh (kurz nach RX 3080 (Navi 10) Marktstart mit einem RTX 3060 Konkurrenzmodell) aufschlaegt?

Im Vergleich zur Pascal Generation sind die aktuellen Turing Modelle trotzdem jetzt schon Ladenhueter, wenn man (zugegeben hohe) nVidia (Absatz-)Massstaebe anlegt und die RX Vega GPUs sind mittlerweile gute Alternativen bis zur 500 Euro "RTX-Extrawurst" bzw. 12nm-Fertigungs-Grenze.
 
Zuletzt bearbeitet:
Muss hier eigentlich in jedem verdammten Thema auf dieser Fanboy und Hate Schiene gefahren werden? Vor allem fast schon beachtlich wie dann versucht wird sachlich gegen diese Bullshit Posts zu argumentieren. Ihr könntet den Leuten das mit Beispielen und perfekt detaillierten Erklärungen auf dem Silbertablett servieren und die würden im nächsten Thread trotzdem wieder so ein Post verfassen. Manchen ist einfach nicht zu helfen und deswegen sollte man einfach die Ignore Funktion nutzen und die Leute in ihrer eigenen Welt zurücklassen. Wenn niemand mehr antwortet wird denen vielleicht langweilig.

Man könnte ja abseits von pro AMD oder Nvidia einfach mal verstehen was für eine Technik hier auf den Markt geworfen wurde. Aber das ist anscheinend zu viel verlangt.
 
  • Gefällt mir
Reaktionen: IgnazMK, FCK-THIS, .Sentinel. und 2 andere
Genau das ist das Stichwort: Begrenzte Leistung. Das verstehen einige hier wohl nicht so richtig.

Die RTX sind ja die ersten Karten, die Raytracing in Echtzeit berechnen können. Dass nicht gleich zu Anfang jedes erdenkliche Detail per RT in Echtzeit berechenbar ist, sollte eigentlich relativ klar sein. Da hat man für die Szene eben nur eine begrenzte Zahl von Rays zur Berechnung zur Verfügung, da muss man eben Spezialisieren und weiter diverse Tricks anwenden, um einen Kompromiss zwischen Bildeindruck und spielbare Leistung zu erzielen. Es bringt ja nichts, dass wegen "unwichtigen Laub" beispielsweise die Leistung einbricht, wenn eine akkurate Spiegelung eher weniger auffällt. Man will ja keine Diashow, nur damit alles über RT berechnet wird, das ist bisher einfach nicht praktikabel.

Vollumfängliche RT-Berechnung in Echtzeit wird noch einige Jahre dauern, bis dazu Grafikkarten in der Lage sind.

Dass RT Leistung kostet um das Bild aufzuhübschen ist unterm Strich auch nicht viel anderes, als wenn man Ultra-Settings statt Low verwendet. Immer noch kann der User entscheiden, was er für ein Kompromiss zwischen Bildqualität und Leistung für akzeptabel hält. Ist also doch wieder für jeden was dabei.

Ein Anfang für RT ist gesetzt und es wird noch weiter gehen in diese Richtung. Mit jeder Generation von Grafikkarten und mit Voranschreiten der Entwicklung der Spiele, wird immer mehr durch RT berechnet. Aber stand jetzt ist es ein Technologieträger, den es so zu optimieren gilt, dass Rays nicht für weniger sinnvolle Effekte verschwendet werden. Also gezielt die wichtigen Elemente berechnen und dafür sorgen, dass nicht die Leistung bei einigen Szenen bis zur Unspielbarkeit einbricht. Technik ist irgendwo immer ein Kompromiss...
 
  • Gefällt mir
Reaktionen: FCK-THIS, Unnu, Krautmaster und 2 andere
pietcux schrieb:
Ich kann das beurteilen, ich habe eine RTX Karte du nicht. Ziemlich simpel, gell?

Ernsthaft (?), geht es argumentativ noch tiefer als mit dieser plumpen Totschlagsargumentation ("ich habe es, Du nicht, also kann nur ich es im Gegensatz zu Dir beurteilen"), was fuer eine erbaermliche Diskussionskultur ist das denn?

Wieso springst Du nicht schon 'mal zuerst in den Brunnen, dann weisst Du auch mit Sicherheit, dass Du Dir dabei die Beine brichst, ich ziehe dann spaeter (als Mitlaeufer) nach :rolleyes:?

Und die Moral aus der Geschicht' ... man muss nicht bei jedem Ding mitmachen/-laufen bzw. dabei sein und die Erfahrungen aus erster Hand machen, um mitreden zu koennen ... siehst Du, wieder etwas gelernt ;).
 
  • Gefällt mir
Reaktionen: Sly123
ralf1848 schrieb:
Toller Artikel ! Wird den Nvidia Hatern sehr sauer aufstossen das Ganze. Hatte man doch jetzt so nen schönen wunden Punkt bei Nvidia entdeckt, der sich in nur 3 Wochen deutlich abgemildert hat.
Wobei es jetzt nicht lange dauern wird, bis dort dennoch wieder die restlichen negativen Punkt in den Vordergrund gestellt werden.

möchtest du ernsthaft trollen, bis in den tod alles schönreden bla bla bla .... (Ehrliche Kritik kann man bringen und das ist auch notwenig!).
Fakt ist der Start lief nicht gut, sei es optimierungsbedarf vom Hersteller od. entwickler. Wäre auch an und fürsich nicht so ein problem gewesen wenn Nvidia nicht exorbitante preisaufschläge mit diesem "feature" gerechtfertigt hätte und das stoßt viele einfach sauer auf. Thats it ;-)

und mal abgesehen davon das BFV ein Titel ala Bananenprinzip ist (reift beim kunden ....) zum vollpreis ist unverschämt trifft aber hier nicht NV sondern EA die die leute ebenfalls als Cashcow sehen ....

Ich denke wir alle können in einen angemessenen Rahmen eine diskussion führen ohne gleich in die trollkiste zu greifen ansonten kann man dir vorwerfen keine ernsthafte Diskussion zu wollen und dann sehe ich dich eigentlich als unnötig im Forum an.
 
  • Gefällt mir
Reaktionen: Unnu und Pisaro
spielt einer alles auf Hoch oder Ultra ? Ich hab aus Spaß mal die Qualität für das Terrain auf niedrig sowie die GebüschQualität auf niedrig gestellt. Erstaunlich wie viel Gegner ich auf einmal sehe :D die versuchen im Gras oder sonstigen Gebüsch sich zu verstecken !
 
  • Gefällt mir
Reaktionen: Unnu
kaka11 schrieb:
Frage: Wer spielt BF V kompetitiv mit RTX?
Ist es nicht mehr so, dass Pro-Gamer alle Grafikeffekte, welche die Sichtweite, Schärfe und Performance reduzieren (oder sonstwie unnötig sind) abschalten?
Wie wird es bei den Ligen gehandhabt? Referenz-Settings? (ernst gemeinte Fragen).

Ja, sehe ich sogar als Normalgamer so. Habe die oberen beiden Textureinstellungen auf Ultra und das Terrain. Den Rest wie Beleuchtung, Schatten und Post Processing auf niedrig, einzig HBAO ist noch an. Da geht es dann. Alles auf Ultra sieht natürlich richtig klasse aus, aber man sieht keinen Gegner mehr und es strengt beim doch recht schnellen Multiplayer sehr die Augen an.
Ansonsten läuft es mit dem Patch und 417.22er Treiber besser, wenn auch hier und da noch Ruckler auftreten. War gestern Abend auch bei meinen Mitzockern so. Denke, die ein oder andere Optimierungsschleife sollte bei Dice und NVIDIA noch gedreht werden.
 
KarlKarolinger schrieb:
Weil die Aussage, um die es ging, die war, dass Änderungen an der Qualität nur von Verschwörungstheoretikern vermutet würden. Bzw. konkreter im zitierten Beitrag, dass die Entwickler von einer solchen Änderung nichts erwähnt hätten, weshalb es sie auch nicht gebe. Diesen Aussagen zufolge dürfte es die von der PCGH festgestellte Änderung nicht geben.
Viele entdecken auf gezoomten Vergleichscreens garkeine Unterschiede.
Schau Dir mal unterschiedliche Reviews zum Update und DXR an. Da ist garnichts sicher und man ist sich offenkundig auch nicht einig.

Dann kommt wohl der gesamte Geschwindigkeitsvorteil von der Reduzierung der Rays auf spiegelnde Bereiche.
Nein- Sie haben einige schwerwiegende Bugs beseitigt, wo wie blöde Strahlen auf Dinge verschossen wurden (teils unsichtbare geometrische Hilfskonstrukte), obwohl diese, wie gesagt garnicht sichtbar sind.
Die legen in den Videos und ihren technischen Referenzen genau offen, was im Patch alles gemacht wurde und warum es jetzt schneller ist. Und woran man arbeitet bzw. die Möglichkeiten, die man in Zukunft noch sieht.

Das wäre dann eine Optimierung, die man nur bei Spiegelungen anwenden kann. Wie man bei Global Illumination in bestimmten Pixelbereichen die Rays weglassen sollte kann ich mir nur schwer vorstellen.
Du hast bei Global Illumination bei weitem nicht die notwendige Abtasttiefe, wie Du sie für Pixelgenaue Spiegelungen brauchst, die auch Dinge außerhalb des Screen- Spaces erfassen müssen.

Du kannst hier sehr schön sehen, dass man für GI derzeit mit ganz grob abgeleiteter Voxelisierung ein schöne Ergebnis erzielen kann (Kingdom Come).
https://docs.cryengine.com/download/attachments/25068259/screenshot0095.jpg
Und da sieht man auch sehr schön, mit wie wenigen Samples (Voxelboxen) man da auskommt, um ein gutes Ergebnis zu erzielen.

Aber schon komisch, dass der Bug rein zufällig das Verhalten von Screen Space Reflections zu simulieren scheint.
Artefakte/Pixelisierung sieht nunmal einfach so aus.


Vielleicht initiale 20 Rays pro Pixel, aber sobald ein Ray auf etwas trifft, teilt er sich ja wieder in mehrere Rays auf und die teilen sich auch wieder auf, wenn sie auf etwas treffen. Den Frameraten nach zu urteilen werden so aus einem Ray teils deutlich mehr als 20.
Deswegen rechnet man für eine ordentliche abtast- Qulität mit Sekundär- Strahlen mit 4 Rays pro Pixel.
Die berechneten 20 Rays sollen nur veranschaulichen, wie weit wir über den 4 Rays/Pixel liegen, wenn man die maximale Leistung der RT- Cores nutzt.

Wenn die RT Cores so toll und die Shader so lahm wären, dann wären DICE ja Vollidioten, bei RTX überhaupt noch Shader einzusetzen und nicht gleich auf 100% Ray Tracing zu gehen.
Genau dieser Satz zeigt zum Beispiel ein deutliches Unverständnis auf, wie Du glaubst das Raytracing derzeit funktioniert.

Derzeit haben wir eine Art Fake- bzw. Hybrid- Raytracing. Das funktioniert noch mal ein Stück anders. Die RT Cores prüfen nur die Intersections. Du hast dann Hit- und Miss- und wahrscheinlich noch einen Alpha- Test- Shader die angestoßen werden und entscheiden, wie es mit dem Ergebnis weiter geht. Dann muss es derzeit noch den üblichen Weg durch die Raster- Engine gehen, so dass der engültige Farbwert des Pixels bestimmt werden kann.

Da liegt zum Teil auch der Hund begraben. Wenn BFV als Shaderlastiges Spiel dort die Grafikkarten schon gut auslastet, wo soll dann der Platz für die RT Shader- Routinen bleiben?
Die Shaderlast ist wiederum so hoch, weil viele Effekte gefaked werden müssen.
Wenn im Nachhinein in den Screenspace irgendwelche Tricks benutzt werden um Effekte zu faken, dann kann diese von den Rays nicht erfasst werden. Eine Engine die nicht von Grund auf mit Raytracing- Hintergedanken aufgebaut wurde, tut sich sehr schwer, ein ordentliches Ergebnis zu erzielen.

Hier die Hintergründe dazu (ich weiss.... wird sowieo nicht gelesen):
https://devblogs.nvidia.com/introduction-nvidia-rtx-directx-ray-tracing/

In dem Beitrag sind auch Links, die es Dir über Visual Studio ermöglichen, selbst Nachforschungen anzustellen.
Dann wirst Du sehr schnell sehen, dass die RT Cores absolut ausreichen und man nur Sparsam ist, weil die Shader einer modernen auf Tricks basierenden Engine aufgrund hoher Shaderlast das im Hintergrund garnicht auswerten könnte, was man da so alles verschiesst.
Vor allem, weil aufgrund noch fehlender Funktionen im nVdia Treiber einige Shader- Operationen, die für DRX wichtig wären noch nicht parallel ausgeführt werden können.

Zudem widerspricht das deinem Punkt zum Denoiser, den man auch nur braucht, wenn die Rays pro Pixel nicht ausreichen. Bei 20 Rays pro Pixel gäbe es wohl keinen Noise mehr.

Hier mal ein kleiner Ausflug, was die Anzahl der Rays per Pixel anrichten:

1544171711891.png


Die 4 Rays per Pixel sind der Grad an dem der Deep- Learning Denoiser der Tensor Cores ein rauschfreies Bild generieren kann. Die 16 Rays per Pixel ist die Basis, wo übliche Softwaregesteuerte Denoiser (so wie Dice einen benutzt) in entsprechender Zeit ein rauschfreies Bild generieren kann. Und Du kannst sehr schön sehen, dass das Rauschen auch bei 64 Rays pro Pixel noch deutlich vorhanden ist. Die Qualität steht und fällt also, wie von NVIDIA schon richtig erkannt hat mit dem Denoising. Und das wird derzeit in zusätzlicher Last schlecht auf den Shadern ausgeführt und nicht auf die dafür gedachten Tensor- Cores.
In Sachen Qualität und Speed ist somit allein deshalb noch einiges zu erwarten, außer die vollmündigen Ankündigungen von dem, was die Tensor- Cores zu leisten im Stande sind, waren eine Lüge...

Mal ganz abgesehen von der Tatsache, dass man mit RTX off mehr fps bekommt, obwohl die Shader dann die meiste Arbeit haben. Dass die Strahlen die Arbeit der Shader behindern würden passt nicht zur Präsentation von Lederjacke, nach welcher die RT-Cores erst anfangen, wenn die Shader bereits fertig sind.
Also das Argument ist leider völlig abwegig, das Problem ist viel eher die mangelnde Leistung der RT-Cores.

Siehe oben. Du hast eine komplett falsche Vorstellung davon, wie das hybrid- Raytracing derzeit funktioniert.
Wir sind nicht bei einem Full- Scene Raytracer. Die RT Cores sind derzeit nur Beschleunigereinheiten für die Strahlenverfolgung und können nicht mehr verarbeiten.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: IgnazMK, Unnu, KarlKarolinger und 4 andere
Chismon schrieb:
Ernsthaft (?), geht es argumentativ noch tiefer als mit dieser plumpen Totschlagsargumentation ("ich habe es, Du nicht, also kann nur ich es im Gegensatz zu Dir beurteilen"), was fuer eine erbaermliche Diskussionskultur ist das denn?

Wieso springst Du nicht schon 'mal zuerst in den Brunnen, dann weisst Du auch mit Sicherheit, dass Du Dir dabei die Beine brichst, ich ziehe dann spaeter (als Mitlaeufer) nach :rolleyes:?

Und die Moral aus der Geschicht' ... man muss nicht bei jedem Ding mitmachen/-laufen bzw. dabei sein und die Erfahrungen aus erster Hand machen, um mitreden zu koennen ... siehst Du, wieder etwas gelernt ;).
Na da hab ich dich ja schön an der Nase herum geführt. Ich hab mich nur mal mit einem kurzen Satz auf dein Niveau begeben. Und den Sprung in den Brunnen überlaß ich dir auch noch.
 
"Mit dem ersten kostenlosen Update"

entweder hat sich hier ein fehler eingeschlichen, oder... ich glaub es hackt.

oder ich hab was verpasst ^^
 
Phear schrieb:
Manchen ist einfach nicht zu helfen und deswegen sollte man einfach die Ignore Funktion nutzen und die Leute in ihrer eigenen Welt zurücklassen. Wenn niemand mehr antwo

Agree, allerdings sollte man dann auch ersichtlich machen wie viele User den jeweiligen Post ignoren - ggf setzt dann bei manchem das Hirn wieder ein ;)
Ergänzung ()

Firesign schrieb:
4K benötigt ca. 4 x soviel Leistung als FullHD

1980 x 1080 = 2.138.400 Pixel
3840 x 2160 = 8.294.400 Pixel

= ca. 3,9 mal
:D danke dafür. Musste laut schmunzeln.
 
  • Gefällt mir
Reaktionen: FCK-THIS
@Wolfgang

Wäre es möglich wenn ihr in Zukunft die Videos in 1440p rendert?
Von der Quali her kann man das nicht Streamen und wie auch immer gerendert wird (Settings), könnte man überdenken.
Mit den richtigen Settings muss keiner die Dateien runterladen um sie ordentlich anschauen zu können und sollte am Ende dennoch in der Dateigröße weitaus geringer sein (850 Mb erreichen bei mir 20 Minuten Dateien, bei weitaus hübscherer Streamingquali).

Könntet Euch das ja mal überlegen, wäre aber so als Leser wesentlich entspannter und fast schon Luxus.
 
Ich verstehe den negativen grundton mancher leute gegenüber dieser spannenden technik nicht. niemand der es nicht mag muss es nutzen und auf dem graka-markt gibt es genug alternativen zu rtx karten um die preise nicht bezahlen zu müssen.
der neue patch hat rt in einen spielbaren zustand versetzt, das ist gut so und macht technikenthusiasten wie mir freude.
die behauptung damit nicht kompetitiv spielen zu können halte ich bei einem spiel wie battlefield auch gewagt, an dem spiel ist sowieso nichts kompetitiv.
ich jedenfalls schneide mit "rtx on" auf wqhd mit rund 80fps immernoch gut genug ab und geniesse die effekte bis ich mich sattgesehen habe, dann gehts zurück auf dx11 mit rund 130fps.
 
  • Gefällt mir
Reaktionen: FCK-THIS, Hias_L und Laphonso
Knecht_Ruprecht schrieb:
Eine generelle Aussage zur Performance unter DirectX 12 kann man nach wie vor nicht treffen, oder? Bisher wurde ja eher empfohlen weiter bei DirectX 11 zu bleiben. Hast sich das geändert? Hat man insbesondere mit einem "älteren" Rechner (i5 5675C und einer AMD 390 nonX) mit DirectX 12 Vorteile?

Auf Raytracing geschissen! Wer hat den alles eine!?

Interessant wäre tatsächlich was all die Updates an Treiber und Spiel in DX12 für uns alle gebracht hat. Das wäre interessante NEWS!
Danke @Knecht_Ruprecht
 
Das Wochenende für die Nvidia und Turing hater startet ungut, denn "1080p und nicht mal 60 fps!!! :grr:" mit Raytracing war ja für viele schon gesetzt und der "Tod" der 2000er Generation. :D

Als alter Knacker bin ich fasziniert von dieser Technik, nachdem ich als Jugendlicher nach der Konfirmation auf meinem (von Konfigeld gekauften, lol) Amiga 500 Raytracing Demos gesehen habe. Wo wir heute stehen, finde ich fantastisch. Nun haben wir eine Spektrum an RT Funktionen verbaut auf Konsumerhardware.
Nvidas durchaus beschämendes business Modell und Verhalten (siehe
- Nvidia - Anti-Competitive, Anti-Consumer, Anti-Technology) ist das eine, als fps Junkie und Grafikenthusiast feiere ich die Ingenieursleistung und den Fortschritt und die neue Technologie (die nicht neu ist, aber in der Anwendungsmöglichkeit schon), die Nvidia auf den Markt gebracht hat.
 
  • Gefällt mir
Reaktionen: Pleasedontkill, Hias_L, .Sentinel. und 2 andere
Laphonso schrieb:
Das Wochenende für die Nvidia und Turing hater startet ungut, denn "1080p und nicht mal 60 fps!!! :grr:" mit Raytracing war ja für viele schon gesetzt und der "Tod" der 2000er Generation. :D

Als alter Knacker bin ich fasziniert von dieser Technik, nachdem ich als Jugendlicher nach der Konfirmation auf meinem (von Konfigeld gekauften, lol) Amiga 500 Raytracing Demos gesehen habe. Wo wir heute stehen, finde ich fantastisch. Nun haben wir eine Spektrum an RT Funktionen verbaut auf Konsumerhardware.
Nvidas durchaus beschämendes business Modell und Verhalten (siehe
- Nvidia - Anti-Competitive, Anti-Consumer, Anti-Technology) ist das eine, als fps Junkie und Grafikenthusiast feiere ich die Ingenieursleistung und den Fortschritt und die neue Technologie (die nicht neu ist, aber in der Anwendungsmöglichkeit schon), die Nvidia auf den Markt gebracht hat.
Ich finde auch man sollte die diskussion über geschäftsmodelle und technik trennen. die preispolitik ist mies, wenn auch als monopolist im highendbereich nachvollziehbar.
die technik hingegend ist fazinierend und hat in der ersten implementierung, die nicht mehr als ein proof of concept ist, gezeigt das sie potential hat.
hoffentlich springen AMD und Intel in den nächsten jahren auf den DXR zug auf, wäre für alle technikenthusiasten nur zu wünschen!
 
  • Gefällt mir
Reaktionen: Hias_L, FCK-THIS, Ozmog und eine weitere Person
Zurück
Oben