Test Battlefield V mit DXR im Test: Die Strahlen sind los

@Esenel Es sind doch Videos im Test hinterlegt, muss nicht zwangsläufig die exakte Testpsequenz sein, aber vermutlich ist das der getestete SP Abschnitt und die getestete MP Map. Zumal dort die FPS eingeblendet ist, sodass man an den selben Stellen die FPS wenigstens anhand des Videos vergleichen könnte.

Was heisst vertrauen, natürlich sind die Ergebnisse von CB in deren getesteter Sequenz richtig, genauso wie deine höheren avg FPS auf einer anderen Map. Liegt halt an den veränderten Parametern, woraus folgt, dass die Vergleichbarkeit für die Katz ist.
 
colin92 schrieb:
Sieht man sich mal Doom auf PC an mit Vulkan API das läuft bei mir mit bombastischer Grafik mit über 200fps. Warum können nicht alle Spiele so toll laufen mit so toller Grafik?

Doom und Wolfenstein (gleiche Engine), sind ein Paradebeispiel wie man es richtig machen kann. Aber auch die Frostbite Engine ohne RT/DXR ist eine sehr performante Engine die super ausschaut. Schau dir Star Wars Battlefront II an, das ist ein Augenschmauß und läuft mit maximalen Einstellungen auf nahezu jeder Mittelklasse Karte mit 80-100 FPS.
 
Esenel schrieb:
Kann man doch gar nicht.
Da CB immer ein Geheimnis draus macht was sie genau testen, anstatt mal ein einziges Video Online zu stellen.

? steht doch im Test ->
Die meisten spielen Battlefield V allerdings im Multiplayer-Modus. Entsprechend hat ComputerBase auch Benchmarks im Conquest-Modus auf der Karte „Rotterdam“ durchgeführt. Bei schönem Wetter zeigt die Testszene eine hohe Sichtweite, viele Gebäude und zahlreiche Pfützen. Da der Benchmark nur mit voller Spieleranzahl (64) durchgeführt wird, ist dieser jedoch nicht gänzlich reproduzierbar. Weil die Testreihe bei außergewöhnlichen Ereignissen wie Beschuss wiederholt wurde, konnten Abweichungen aber auf ein Minimum reduziert werden – der Zeitbedarf dafür war enorm.
Auflösung Grafik-Details 1.920 × 1.080Maximale Details, Future Frame Rendering „ein“


und ein Video gibt es auch...
 
Aldaric87 schrieb:
So, und wer garantiert mir das? Wer sagt das es nicht nur Marketing-Geblubber ist mit der Optimierung ?
Wer garantiert schon was ?
Wer garantiert mir das deine Posts nicht auch nur Geblubber sind ? Niemand !

Im Ernst : Gebe Goliath da Recht, es wird Spiele geben in denen Raytracing deutlich performanter laufen wird, und zugleich das Spiel "aufhübschen".

Da nehm ich jede Wette an mit all den Experten die noch letzte Woche schrieben : "Ich nehme Wetten an, das dieses Jahr kein Spiel mehr mit Raytracing erscheint".
 
  • Gefällt mir
Reaktionen: Gortha und HardRockDude
Also alles wie befürchtet.
RT ist hübsch, kostet aber massiv Leistung.....scheint in den Monaten zwischen Vorstellung zum hier und jetzt nichtmal besser in der Performance geworden zu sein....FUllHD liegt um die 60FPS und Explosionen usw. ruckeln.

Was ich mich frage sind zwei Sachen:
1. Kann man es auf einer nicht RTX Karte aktivieren?
Mir geht es gar nicht groß um die Performance, aber dass man(ich, falls ich doch BF V kaufen würde) sich die Effekte in echt anguken kann....ob 3FPS ist mir egal.....den in screenshots oder Videos fällt es mir schwer, mir eine eigene Meinung zu bilden.

2. Hat schon jemand genauer untersucht, wo der limitierende Faktor ist?
Hardware unboxed sagt, dass der Verbrauch sogar sinkt, was darauf schließen lässt, dass es eine große Bremse gibt, die optimiert werden könnte.

Ist es wirklich die fehlende Leistung der RT cores? Der starke Einfluss der Auflösung auf die Verluste durch RT on unterstützt diese These.
Es unterstützt aber auch die These, dass das Denoising, auf den klassischen Shadern limitiert.
Wenn das erst nachträglich berechnet wird, also die Shader blockiert, nachdem das Bild und RT bereits fertig sind, ist die GPU sicherlich nicht gut ausgelastet und der Verbrauch sinkt, während die Berechnung andauert.
Auch könnte ich mir vorstellen, dass das Denoising deutlich aufwendiger wird, je höher die Auflösung ist.
Würden die Tensor cores für das Denoising genutzt, könnten die Shader schon am nächsten Frame arbeiten....das zu implementieren ist sicherlich nicht einfach, aber in meiner bescheidenen Vorstellung machbar und im Grunde auch so von Nvidia angekündigt.

Ein Problem, könnten die Pipeline und die VRam Zugiffe werden.
Wenn Shader, RT cores und Tensor cores gleichzeitig mit Arbeit und Speicherzugriffen versorgt werden müssen, könnte sich hier trotz gestiegener Speicherbandbreite der 2000er Serie Probleme ergeben.
Da müsste man mal den VRam hoch und runter takten um zu sehen, ob das mit RT on stärkere Auswirkungen hat.

Fest steht......It just works! War reines Marketing. Wenn trotz intensiver Zusammenarbeit mit Nvidia, so lange nach der Vorstellung, noch immer die Performance enttäuscht und die Tensor cores brach liegen.....dann ist es für die Entwickler offenbar nicht die unkomplizierte Grafikpracht mit einem Klick aktivierbar,
 
matraj63 schrieb:
? steht doch im Test ->
Die meisten spielen Battlefield V allerdings im Multiplayer-Modus. Entsprechend hat ComputerBase auch Benchmarks im Conquest-Modus auf der Karte „Rotterdam“ durchgeführt. Bei schönem Wetter zeigt die Testszene eine hohe Sichtweite, viele Gebäude und zahlreiche Pfützen. Da der Benchmark nur mit voller Spieleranzahl (64) durchgeführt wird, ist dieser jedoch nicht gänzlich reproduzierbar. Weil die Testreihe bei außergewöhnlichen Ereignissen wie Beschuss wiederholt wurde, konnten Abweichungen aber auf ein Minimum reduziert werden – der Zeitbedarf dafür war enorm.
Auflösung Grafik-Details 1.920 × 1.080Maximale Details, Future Frame Rendering „ein“


und ein Video gibt es auch...

Schande übet mein Haupt.
Lese es genauer und teste nach.
 
  • Gefällt mir
Reaktionen: trockenerToast und matraj63
Ich finde es ja toll, dass es Raytracing jetzt in Hardware gibt. Nvidia hätte aber die RTX als Nebenreihe zur GTX bringen sollen. Und dann das Verhältnis zwischen Shaderleistung und RT-Cores anpassen müssen. 10 Gigarays passen wohl eher zur Shaderleistung einer 2070 oder noch kleiner. Was auch Tests zur Auslastung der Shaderleistung bei aktiviertem RTX zeigen. Da wäre der Preis für - in FHD gut gebrauchbare - RT-Leistung auch nicht so übel gewesen. Die GTX 2080Ti hätte auf die, in UHD eh unbrauchbaren, RT-Cores für einen besseren Preis verzichten können. Aber Nvidia wollte wohl breite Marktdurchdringung. Das wird so nur nur schwierig, weil man weiter nach Shaderleistung kaufen wird, niemand (bei Verstand) der in FullHD spielt gibt das Geld für eine RTX2080 aus und niemand der 1000+ für eine Grafikkarte ausgibt spielt damit in WQHD (bei um die 60FPS) geschweige denn FHD.
Diese Produkte sind so sinnvoll wie Erbeerkäse - man kann es verkaufen und einige finden es sogar toll, aber um zu dem Produkt zu werden geht es zu sehr an der breiten Masse vorbei.
 
Hallo erstmal,
auch wenn ich die Preispolitik von Nvidia zum kotzen finden, da Nvidia wie vorher statt die Performance bei gleichem Preis um 30-50 % zu erhöhen, nun "nur" diese Tensor-Cores eingebaut hat, möchte ich auch mal was positives über Nvidia sagen:
1. Die Erweiterung finde ich gut. Die Vorstellung aber übereilt und schlecht umgesetzt. Wie schon zuvor beschrieben, ist BF5 nicht das richtige Spiel. Aber nicht, weil es ein schneller Shooter ist, sondern weil die DX12 Umsetzung so grottig ist. Wie kann Nvidia so unüberlegt sein, diese Premiere einem Hersteller anzuvertrauen, der noch nichtmal eine gute DX12 Umsetzung im Spiel hat. Vermutlich wird Raytracing bei einer guten Engine auch effizienter umgesetzt. Vorbildhaft war bisher immer ID-Tech, was die Implementation von neuen Techniken.
Nun ja, Premiere gescheitert, mal gucken was die anderen Engines rausholen. Eventuell wirds dort ja rosiger. Für ein entgültiges Scheitern würde ich mich noch nicht festlegen.

2. Es gibt Neuentwicklungen, die Scheitern, es gibt Neuentwicklungen, die erst später geschätzt werden.
Das Iphone ist das beste Beispiel. Erst belächelt, dann die Einschränkung mit dem immer Online sein (Datenverträge waren damals nicht üblich und sau teuer, Nur T-Online erhältlich, etc.), aber es hat sich durchgesetzt. Wer weiss, wie die 2. Generation in 7 nm aussieht. Eventuell stellt Nvidia den Engine-Entwicklern mal eben für 1-2 Milliarden Euro Entwickler zur Seite, der Anteil der Tensor-Cores wird dramatisch erhöht, der Rest weniger und schon wird 2021 in fast jedem Spiel Raytraycing mit nur noch 10-20 Prozent Performanceeinbußen möglich sein.

3. Was für Nvidia aber ebenso entscheidend ist, ist wie diese Raytracing-Einheiten ausserhalb von Spielen genutzt werden kann. Wenn damit Filme schneller als in Echtzeit gerendert werden können, interessiert es die Filmstudios nicht wirklich, ob so eine Graka 5000 oder 50000 € kostet. Da ist ein Drehtag deutlich teurer.

4. Neuentwicklungen werden oft skeptisch gesehen. Das alte funktioniert doch gut und ist etabliert! Bei den Pferdekutschen sieht es ähnlich aus. Ich sehe keine mehr auf der Straße, außer vor dem Traualtar. DirektX 1 im Vergleich zu Glide: Baeh! Elektrisches Licht? Dafür muss ja jedes Haus mit Strom versorgt werden. Viel zu viel Aufwand, Kerzen und Öllampen gibt es an jeder Straßenecke. Nicht aktuell genug: 4k Fernseher? Viel zu teuer, wird eh nicht in der Auflösung ausgestrahlt. 2 Jahre später gibt es ab 1500€ statt 4000 € nur noch 4k Fernseher. Ok, da scheitert es noch immer am Content, aber die Stramingdienste liefern diesen immer mehr.
Stromsparlampen: Die ersten waren scheiße, dunkel, brauchten lange um etwas heller zu werden, viele Ausfälle. Mittlerweile gibt es richtig helle warmlichtige LEDs, die auch lange halten. Hat zwar 5 Jahre gebraucht, aber immerhin.... to be continued...
5. Klar, die Frühkäufer zahlen am meisten und haben mit den meisten Problemen zu kämpfen. Wo war es anders. Einfach aufhören zu jammern und abwarten. Sollen diejenigen, die das Geld haben, sich mit den Problemen herumschlagen und wenn Du zu denjenigen gehörst: Geschichtlich gesehen solltest Du Dir klar sein, worauf Du Dich eingelassen hast. Du kannst aber zumindest auf eins stolz sein: Du bist mit Deinem Geld der Motor des Fortschritts ;-)
 
  • Gefällt mir
Reaktionen: Gortha
Esenel, vergiss nie, dass deine Kiste durch CPU und RAM deine Graka ganz anders füttert...
 
  • Gefällt mir
Reaktionen: .Sentinel.
eax1990 schrieb:
War zu erwarten dass da nicht viel bei raus kommt. Battlefield 5 ist sowieso spielerisch ungeeignet für Raytracing. Raytracing bekommt erst dann einen echten Nutzen, wenn man es ins Gameplay integriert - ein schön langsames Spiel wo man Spiegel und Fensterscheiben dazu benutzen kann um seinen Gegner auszuspionieren, bei solchen Dingern wäre die Technologie 1A.
Ist das jetzt Mode einfach nochmal das zu schreiben was der test schon sagt?

Wie schon zuvor beschrieben, ist BF5 nicht das richtige Spiel

Es wurde sogar im test beschrieben. Aber sag es doch nochmal um total schlau zu wirken.
 
  • Gefällt mir
Reaktionen: Gortha
Hi also ich finde die effekte ein wenig beschämend wenn man überlegt was für eine Leistung gefordert wird.

Weiß eigentlcih jemand was für Hardware hier nötig war ??


Quake4 mit Raytracing.
 
Gortha schrieb:
OHHH MEIN GOTT!

Bitte installiere dir DOS 6.22 und spiel weiter Prince of Persia (2)!

Garnichtmal so eine schlechte Idee :D

Ich hoffe du hast aber wenigstens den Punkt von dem verstanden was ich damit sagen wollte.

Das dieses Raytracing nur ne Geld und Marketingmasche ist, ist doch wohl mehr als offensichtlich.
Die wissen ganz genau das die meisten so wie ich immernoch mit 1080p vollkommen zufrieden sind (spiele übrigens auf einem 240hz 24" panel) und diese Mehrleistung einfach die nächsten Jahre nicht brauchen werden.
Wer weis ob in paar jahren Raytracing nicht einfach nur noch eine option ist die man ausschalten kann...
Man weis nie was für wege das alles einschlagen wird, Kapitalismus hat leider schon längst seine faulen Wurzeln auch in dieser Branche eingeschlagen.

Aber nochmal in die Runde: Ist niemandem sowas ähnliches jemals aufgefallen? Das man einfach gezwungen wird Hardware aufzurüsten obwohl es nicht nötig wäre...
 
t3chn0 schrieb:
Es ist wie immer. Aller Anfang ist schwer.

Nvidia und Intel zu haten ist einfach total hip derzeit. Erinnert einen an Protestbewegungen aus den 60ern und 70ern.

Nein. Eigentlich überhaupt nicht. Amd zu haben wäre der richtige Vergleich. Das Equivalent zu Intel Nvidia ist Familie mit 2 Kindern in einer puritanischen Siedlung.

Passt aber zum derzeitigen Zeitgeist falsche Vergleiche zu machen. Die afdler sagen auch das die von konservativen und wirtschaftsliberalen Parteien gemachten Themen "linksgrün versiffte" Fehler sind, selbst wenn die grünen seid bald 20 Jahren nicht in der Regierung saßen. Intel Nvidia ist alles außer protest
 
Suffwurst schrieb:
Hi also ich finde die effekte ein wenig beschämend wenn man überlegt was für eine Leistung gefordert wird.

Weiß eigentlcih jemand was für Hardware hier nötig war ??


Quake4 mit Raytracing.

Also ganz ehrlich, ich seh da echt nichts besonderes.
Vorallem mit den Lichteffekten und virtuell projeziertem Licht auf die Spielfigur... gabs das nicht schon ganz viele Jahre vorher? Z.b. bei Counter Strike Source auf cs_office ?!
 
Reden wir in 2 Generationen noch mal darüber . Das bisher gezeigte läßt bei mir eher ein ' Mäh' zurück
 
Suffwurst schrieb:
Weiß eigentlcih jemand was für Hardware hier nötig war ??

http://www.q4rt.de/
1542374913883.png


Das was du in dem Video siehst ist aber NICHT live!
1542375536913.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HardRockDude
Naja finde die Raytracing effekte aber deutlich schicker Ich denke es dauert noch einige Jahre bis es vernünftig klappt. Bin mal gespannt wie gut der Ansatz von Vulcan funktioniert.
 
t3chn0 schrieb:
Naja, das kann man ja über jede Art von Bildverbesserung sagen.

Anti-Aliasing
Tesselation
Pixel-Shading

Das war auch immer "guck mal wie toll" und hat jede zu dem Zeitpunkt aktuelle GPU komplett in die Knie ........

Eine 2080Ti braucht derzeit 750mm² in 12nm, mit dem 7nm shrink wirds nicht soviel kleiner wie theoretisch Möglich. Wenn als Grundlage der AMD 7nm Vega genommen wird, ist Nvidia ohne zusätzliche Transistoren bei 450 - 500mm² beim exakt gleichen Chip wie jetzt.

Von einer Voodoo 5500 zu einem ATi R300 gingen in 3 Jahren die Transistoren von ca.15 auf 110mio hoch.

Jetzt gibts eine Ressourcen sparende Vulkan API und MS kommt mit DX12+ DXR !!!! Das wird also in 2019-2020 nicht so viel besser, oder der Effekt wird soweit zurück geschraubt das er halt noch auf der Packung steht.
 
Oh je... Mit Silizium dürfte es wohl schwierig werden 4K + Echtzeit-Raytracing (nicht nur Reflexionen) zu bewerkstelligen. Bei Steigerungen von etwa 35-40% alle 2 hätten wir 2030 etwa die 5,5 fache Leistung von Heute. Mehr wird man dann wohl auch nicht mehr "rauspressen" können.
 
Zurück
Oben