Test Battlefield V mit DXR im Test: Die Strahlen sind los

Unabhängig von der schwachen Leistung bin ich ziemlich verwundert darüber, wie in den Reflexionen die Details reduziert werden.

Mit Raytracing sind die gespiegelten Häuser voller schwarzer Löcher, während mit Screenspace Reflections auch Fenstervorhänge und Türen dargestellt werden.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Während das grundsätzlich noch nie ein Argument gegen eine neue Technologie gewesen ist, ist es für GeForce RTX dann doch ein Problem, weil auch nach Battlefield V weiterhin offen ist, ob Käufer die Funktion über die Laufzeit der Grafikkarten in der breiten Masse auch sinnvoll nutzen können werden. Um das zu beurteilen sind weitere Spiele mit DXR notwendig. Ein wirkliches Fazit zu „DXR On“ auf GeForce RTX wird so erst im Laufe des nächsten Jahres gefällt werden können.

Genau das, nur wenn man jetzt eine nVidia RTX/Turing Grafikkarte kaufen will, bekommt man die Katze im Sack ;).

Dass die Turing-Karten aktuell floppen (angesicht RT-Raytracing und DLSS-Versprechungen bzw. bisher nur unausgegorener Umsetzung dieser neuen, laut "Lederjacke" jetzt schon revolutionaeren Features) ist auch am aktuellen nVidia-Boersenkurs abzulesen und nicht alleinig auf Ueberschaetzung des Mining-Booms zurueck zu fuehren, denn wie man so gerne sagt "an der Boerse wird die Zukunft gehandelt") und da hat nVidia mit den RTX Karten momentan fuer die Mondpreise zu wenig zu bieten.

Das Fazit am Ende des Artikels ist an sich richtig ausgefallen :), aber ich haette mir hier ein noch deutlicheres/negativ konnotierteres Fazit von Wolfgang/CB gewuenscht (dass nVidia RTX-Turing Grafikkarten aktuell aus Kundensicht zu unrund sind und zum Kauf nicht empfohlen werden koennen), aber dann wuerde vermutlich wohl die NDA-Keule bzw. Liebesentzug von nVidia drohen :rolleyes:, schade!
 
Zuletzt bearbeitet:
cookie_dent schrieb:
Ok, Danke für die Erläuterung, das ist dann selbst für NVLink zuviel. Da ist glaub ich bei 25 GB/Sek. Schicht im Schacht.

Bissl mehr ist es schon, 100GB/s bidirectional bei der 2080ti, die 2080 glaub ich 50GB/s. Aber ob das für eine Extra RT Karte reichten würde, weiß ich nicht.
 
ZeroZerp schrieb:
Wenn keine Nachfrage nach einem Produkt besteht, entwickelt die Industrie dieses auch nicht weiter.
Hätten sich vor 5 jahren sich nicht zumindest ein par Leute für die 4K TVs interessiert, wären sie erstmal wieder in der Versenkung verschwunden.


Genau das ist falsch. Auf Nvidia gemünzt, die springen von Rekordgewinn zu Rekordgewinn, können ihre Forschungs und Entwicklungskosten abschreiben usw.. RT hätte es nicht gebraucht für diese Generation, das hat irgendjemand entschieden und offensichtlich einen großen Fehler gemacht. Nicht wegen RT sondern einfach weil die Effekte zu wenig sind und zu viel Performance kosten + die Auflösung.

Der einzige Grund warum man einen 30.000euro tv anbietet ist Prestige fürs Unternehmen, reines PR. da brauchts keinen Analyst, dass das quersubventioniert werden muss. Die Technik ist dann eben noch nicht so weit, nur wird sie nicht billiger wegen eines sinnlos teuren early adopter gerätes sondern weil sie durch den entstehenden Markt/Nachfrage und die höhere absatzmenge sowie die steigende Produktivität der Fabriken.

Die Nachfrage nach RT kommt doch auch nicht von Nvidia oder haben Sie geweckt. Grob ist das ein alter Hut, den jeder gerne haben möchte, aber doch dann nicht in dieser Weise wie jetzt. Das ist die Zukunft in meinen Augen, aber nicht solang RT an FHD gebunden ist, nicht solang nicht Licht, Schatten und Reflexionen gleichzeitig berechnet werden kann.
Geht noch nicht? Ok dann ist es halt noch nicht Marktreif, die 2000er Serie ohne RT im gleichen Preisrahmen wie die Vorgänger hätten keine jubelstürme ausgelöst aber sicher auch nicht weniger Umsatz/gewinn generiert.
 
Man hätte es so einbauen müssen, dass es auf jedenfall gut läuft.

Auch wenn es dann schlechter aussieht. Raytracing ist eigentlich wie andere Grafikeinstellung sehr gut skalierbar (Grafische Auflösung, Entfernung, zeitliche Auflösung etc.) oder einfach weniger Pfützen...
und dann hätte es halt 2 oder 3 Monate länger gedauert.

Aber diese FPS-Einbrüche sind einfach inakzeptabel und ganz schlechte Werbung, eine miese Techdemo.

Raytracing ist auf jedenfall die Zukunft und wahrscheinlich in 20 Jahren Standard, vor allem im Zusammenhang mit VR. Auch mag ich noch nicht an ein Hardwareversagen glauben, es kostet sicher für Studios einiges an Erfahrungsarbeit mit den neuen Kernen umzugehen.
Hier gibt es einfach mal 0 Punkte für die Implementierung wegen "unspielbar".
 
Capthowdy schrieb:
Um mal beim 4K Beispiel zu bleiben: nachdem 4K TVs auf dem Markt waren, gab es trotzdem noch neue FHD TVs und nicht nur den alten Kram zu besseren Preisen.

Deine Argumentation kannst du aber auch wunderbar umdrehen. Wieso sind heutzutage praktisch alle TV Geräte ab 40" nur noch in 4K zu bekommen? Ich hätte lieber billigere Geräte mit Full-HD Auflösung.

Für die Hersteller lohnt es sich aber einfach nicht, noch eine zweite Schiene mit solchen Geräten laufen zu lassen. Die reinen Kosten für ein Display machen nur einen Bruchteil des Preises aus, genauso wie es letztendlich bei den Tensor Cores der Fall ist.

Solche unsinnigen Diskussionen hat man aber schon zu genüge früher bei den ersten 3D Grafikkarten geführt oder später bei den ersten Karten mit DX9, DX10 oder DX11 Unterstützung. DXR ist nun mal am Anfang und die ersten Karten mit T&L Unterstützung, produzierten auch eine optisch schöne Ruckelorgie. Heute redet niemand mehr davon.

Neue Technik braucht immer etwas Zeit, aber jemand muss den ersten Schritt machen.
1542393947262.png

http://www.pcgameshardware.de/Dragon-Age-2-Spiel-21975/Tests/Dragon-Age-2-814915/

DX10
1542394424735.png


DX11
1542394447951.png


http://www.pcgameshardware.de/Dragon-Age-2-Spiel-21975/Tests/Hochglanz-Renderer-815403/

Es ist alles andere als ungewöhnlich, dass eine neue Technologie am Anfang viel Leistung kostet und das hatten wir schon mehrfach. Nach den letzten acht Jahren in denen kaum was passiert ist, gibt es endlich wieder einer grossen Schritt nach vorne und manche führen sich hier auf, als hätten sie "damals" noch in die Windeln gemacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schnefferaunzn, Gortha, t3chn0 und eine weitere Person
Neronomicon schrieb:
Alles gut und schön, aber ich kann getrost abwarten bis die Technik auch bei einer vergleichbaren 1050ti angekommen ist.
Ich lach mich tot. Auf einer 1050 ti wird diese Technik nie ankommen.
 
t3chn0 schrieb:
Mal rein theoretisch, was erreiche ich denn mit SLI? Wenn man damit vielleicht die FPS nahezu verdoppeln kann, hätten wir durchgehend ca. 120FPS. Würde mich sehr interessieren.

In 4K OHNE RT dann ja. Mit RT unter Full HD dann bei den 99th rund 55 FPS. Für zwei teure Karten natürlich geil.

Ich denke mal es wird noch mindestens zwei Grafikkartengenerationen brauchen bis RT wirklich sinnvoll wird. Ich freue mich wirklich auf die Technik, wenn sie denn ausgereift ist.
Ergänzung ()

Scriptkid schrieb:
Ich lach mich tot. Auf einer 1050 ti wird diese Technik nie ankommen.

Sein Satz impliziert doch deutlich, dass er damit eine "1050 Ti" Karte aus der Kartengeneration meint, in der RT einwandfrei läuft. Sozusagen die 1050 Ti der übernächsten oder über-übernächsten Generation.
 
  • Gefällt mir
Reaktionen: Swiffer25, Zitterrochen und Neronomicon
MX04HD schrieb:
Die Pfützen und Spiegelungen darin sahen in Mafia III nicht soo viel schlechter aus. Ganz ohne unverschämten 1300€ Aufpreis für Krüppel-Hardware die nicht mal derzeit aktuelle Titel (mit den beworbenen Features) halbwegs performant wiedergeben können.

Für mich sind die 2080 Karten reine Beutelschneiderei für Leute die Geld nicht selbst verdienen müssen, oder bereits zuviel davon haben.
So wie jetzt ist Gebrauchswert nahe 0, spätestens beim nächsten Grafikkracher mit RT brauchst Du dann wieder ne neue Karte, die auch kann was sie soll.


Sorry, aber solche ignoranten Kommentare kotzen mich einfach nur noch an.
 
Jetzt ist mal genug mit der RTX Diskussion - 3dfx bringt ne RTX Zusatzkarte für zusätzliche Performance raus 😎 .... ah, ne, ist ja bereits 20 Jahre her ☺️
 
  • Gefällt mir
Reaktionen: Gortha
xexex schrieb:
Wieso sind heutzutage praktisch alle TV Geräte ab 40" nur noch in 4K zu bekommen? Ich hätte lieber billigere Geräte mit Full-HD Auflösung.

Weil du z.B. bei nem 55er bei 1080p die Pixel schon fast einzeln zählen kannst. ^^

Billiger ist eben nicht immer sinnvoller.
 
MX04HD schrieb:
Die Pfützen und Spiegelungen darin sahen in Mafia III nicht soo viel schlechter aus.
Soso...


Es ist aber ein natürliches Phänomen, dass man "ältere" Dinge in verklärt positiver Erinnerung behält...

Trotzdem haben sie sich einen Haufen Arbeit in Sachen Spiegelung gemacht.Das nötigt einem schon Respekt ab:
https://www.gdcvault.com/play/1025467/Real-Time-Reflections-in-Mafia
Und das wiederum zeigt, was für ein Höllenaufwand für trotzdem nicht überzeugende Spiegelungen diese letzten % an Effekten und Grafikqualität kosten.

Für die Lösung einiger Probleme bei den Spiegelungen haben sie übrigens auch den Raytracing- Ansatz gewählt... (ab Seite 49), was wieder meine These stützt, dass heutzutage moderne Engines ohne Raytracing- ähnliche Ansätze die derzeitige Qualität nicht erreichen könnten.

It just works konnte sich auch wirklich einfach darauf bezogen haben, dass man eine Lösung implementiert, die ohne massig Tricks und Höllenaufwand (außer beim Berechnen) einfach läuft.

Es wurde hier ja auch schon unterstellt, dass man die Reflexionen bei Battlefield 5 absichtlich downgegraded hätte, bis eine Seite mal Vergleichsbilder zum Vorgänger online gestellt hat.
Die Spiegelungen, waren einfach immer schon so schlecht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oneplusfan
ZeroZerp schrieb:
Eine nette Verschwörungstheorie, nur gibt es inzwischen Die- Shots, die die einzelnen Funktionsblöcke zeigen.
Du meinst, dass die diese neuen Blöcke also aus kosmetischen Gründen dort integriert hätten und diese funktionslos sind?
Verschwörungstheorie? Nur weil ich es noch nicht ganz glaube, weil ich noch kein Test gelesen habe?
Solche großen, komplizierten Recheneinheiten beinhalten so viel, was kein normaler mensch zuordnen kann. Die Leutee können nur mutmaßen und den Sachen von den Herstellern glauben.

Ich bin nur skeptisch. Ich habe nicht mal gesagt, dass das so ist, sondern nur "Ich glaube". ;-)

Also nichts überstürzen. :D
Ich finds nur eben doof, das wenn man solche extra speziellen einheiten reinbringt, man nicht sieht, dass es richtig krass hilft. So stark wie die berechnungen zusammenbrechen, heißt für mich, das die GPU als solche viel mehr machen muss. Klar hilft wohl auch die neue Einheit. Aber viel cooler wäre es doch (und glaubhafter?), wenn man RT aktivieren kann ohne viel leistungsbußen, eben weil die neue Einheit so gut ist, das wollte ich damit zum ausdruck bringen.

Wie gesagt, das soll keine verschwörung sein, sondern eben meine Gedanken. :D
 
@Schnitzel128

Alles gut- Sah das auch nicht als negativ an, sondern als interessantes Gedankenspiel :)
Du kannst über die SDK die neuen Einheiten direkt ansprechen und prüfen, wie schnell diese arbeiten und dass diese überhaupt arbeiten.

Wenn man Dein Gedankenspiel weiterspinnt, könnte man aber auch unterstellen, dass nVidia treiberseitig die neuen Aufrufe abfängt und dann absichtlich für die alten Grafikkartengenerationen um den Faktor 10 abschwächt und die Strukturen auf den neuen GPUs nur nichtbefeuerte Fake- Strukturen sind.

Hehe- Wenn sowas rauskommen würde.....
 
anexX schrieb:
Weil du z.B. bei nem 55er bei 1080p die Pixel schon fast einzeln zählen kannst. ^^

Das ist Quatsch, weil du vor einem 55er meist nicht in einem Meter Entfernung sitzt und letztlich die wenigsten Inhalte heute überhaupt mit 4K gesendet werden. Die meisten werden quasi dazu gezwungen etwas zu kaufen, für das sie (derzeit) keine Verwendung haben.

1542399840174.png
 
  • Gefällt mir
Reaktionen: McTheRipper, LordLaden, Neronomicon und eine weitere Person
Jetzt wäre doch der richtige Zeitpunkt endlich wieder die Auflösung 1280 *720 in Benchmark einzuführen mit aktiviertem Raytracing.
Quasi zurück in die Zukunft
 
  • Gefällt mir
Reaktionen: Birke1511 und MX04HD
@belzebub79
Also wenn das dann wirklich in Full- Scene Raytracing mit allen Effekten und Möglichkeiten bei 60FPS läuft und dann mittels DLSS auf 1440P upgesampled würde, dann wäre das tatsächlich garkeine so dumme Idee, auch wenn es nicht ganz an die 1440P native Qualität rankommen würde.

Guter und ein wenig verrückter Ansatz, aber warum nicht?
 
In FHD sieht das Spiel, vor allem die Kantenglättung so mies aus, das Raytracing nichts bringt außer Input Lag. Verzichtbare, teure Tech-Demo ohne echten Mehrwert.

Inb4 BF6 ohne Raytracing erscheint.
 
Zurück
Oben