Test Battlefield V mit DXR im Test: Die Strahlen sind los

Chillaholic schrieb:
Stellt sich überhaupt die Frage ob es geeignete Spiele gibt für RT auf aktuellem Stand der Technik.


SotTR, FFXV zb.
 
Chillaholic schrieb:
Ja ihre DX11 Implementation ist gut, sehr gut sogar, aber was hält die davon ab mal ihr DX12 zu fixen? Dann sollen die lieber Vulkan einbauen, mit Mantle lief es doch auch super. Das zieht sich seit BF1 über Star Wars und ist immer noch ein Problem.

Ihre DX 12 Implementation in die Frostbite-Engine läuft seit Battlefront über BF1 und Battlefront 2 nicht richtig. Es wurde nie vollends gefixt. Auch jetzt gibt es ab und an noch Hänger und Nachladeruckler.
 
  • Gefällt mir
Reaktionen: hannes130185
Da es in diesem Fall sowohl EA als auch Nvidia betrifft, ist der Hate natürlich exponentiell größer.

Ohne Worte.
 
Aldaric87 schrieb:
Ihre DX 12 Implementation in die Frostbite-Engine läuft seit Battlefront über BF1 und Battlefront 2 nicht richtig. Es wurde nie vollends gefixt. Auch jetzt gibt es ab und an noch Hänger und Nachladeruckler.
Das ist genau was ich geschrieben habe. Aber schön, dass du mir zustimmst. ;)
XTR³M³ schrieb:
Die FFXV Tech-Demo ist nicht zum benchen geeignet.
Und soweit ich weiß gibt noch keine Implementierung in Spielen neben BFV.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Hylou schrieb:
Ah - heißt es ist aktiv ohne das ich es einschalten muss?
Erinnere mich das es bei Metro (bsp) Tessellation als einzelnen Menüpunkt gab.

Dein zweiten Satz versteh ich aber tbh nicht - ich sagte ja das es auf AMD Karten wesentlich besser lief, nun sagst du das es keine Barriere mehr darstellt?
Zur erfolgreichen Einführung von Tesselation (AMD war ja da Pionier, konnte damals aber die Technik mit dem ersten Vorstoß nicht etablieren) waren die nVidia Karten diesbezüglich deutlich überlegen.
Da die meisten Spiele damals in der Entwicklung auf nVidia Karten ausgelegt waren, waren die Presets für Tesselation am Anfang unnötig hoch eingestellt, so dass dies mit einem Leistungsverlust bei AMD Karten einherging.

Damals gab es da ein Ungleichgewicht. Das ist heute nicht mehr so. Und das meinte ich mit "Barriere".

Und ja- Inzwischen wird Tesselation genutzt, auch ohne dass Du da etwas dran rumstellen kannst. Viele Spiele sind inzwischen DX11. Dort gehört Tesselation zum integrierten Feature- Set.
 
  • Gefällt mir
Reaktionen: Baal Netbeck, Schnefferaunzn, Lübke82 und eine weitere Person
Verak schrieb:
Es geht bei der Kritik auch weniger um RT ansich, als wie das Nvidia da Marketingtechnisch auf dicke Hose macht und 500-600€ auf ihr Topmodell zum Release gegenüber der letzten Generation aufschlägt, für eine unterirdische Performance unter FullHD .

nvidia kann wenig defür wenn EA/Dice Raytracing so schlecht implementiert. Im Text steht dass für das Denoising die Shadercores genutzt werden und nicht die neuen Einheiten, die eigentlich genau dafür das sind.
Möchte nicht wissen wie viele FPS dadurch auf der Strecke bleiben.
 
  • Gefällt mir
Reaktionen: Lübke82
Saki75 schrieb:
30 fps bei einer RTX2080ti in 1440p , ja klar nvidia

Ich glaube wir lesen hier beide komplett andere Benchmarks. In 1440p gibt es avg FPS von 48,2 und 99thl von 36,4 FPS. Das ist nicht toll, aber wo siehst du da 30 FPS?

Edit: Sorry, mein Fehler. Hab nur auf die Online Benchmarks geguckt. Kampagne sieht ja noch böser aus, echt übel.

Raytracing ist ein sehr interessantes Feature. Ich denke aber, dass es erst mit der übernächsten Grafikkartengeneration wirklich gut laufen wird, schauen wir mal.

@Mustis : Langsam werden deine ultimativen NVidia-Fan-Postings wirklich extrem. Ich gehe auch davon aus das Raytracing in Zukunft richtig gut werden wird, stand jetzt ist es gemessen an der Leistung einfach nur Müll und keinen Cent wert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adretter_Erpel und Pulsar77
Ich könnte mir gut Vorstellen, dass spiele wie The Witcher 3 mit RTX wirklich wunderschön aussehen würde als jetzt.
 
  • Gefällt mir
Reaktionen: Lübke82 und hannes130185
Also ich hab die Testversion nun 3-4 Stunden mit einem 2600K und einer 1070 GTX gespielt. Einstellungen Mittel-Hoch bei 95-150 fps je nach Map. Für einen Multiplayer sind diese ganzen Effekte eher kontraproduktiv. Ich finde selbst jetzt auf mittleren Setting ist einfach zu viel Krams auf der Map. Deshalb ist BF5 leider nichts für mich. Gut das es eine Testversion für 3,99€ gab :). Und dieses WW2 Gefühl kommt bei mir überhaupt nicht rüber wie z.B. damals in COD2. Irgendiwe wirkt das Spiel "Herzlos". Keine Ahnung wie es es beschreiben soll :D
 
Mhm die Frostbite Engine wurde ursprünglich doch für DX10 geschrieben...... Dann lange Jahre für DX11 optimert und nun scheitert es immer noch an DX12...... kommt mir bekannt vor. Wenn du ne Holz-Blockhütte beginnst mit Fundament und Etage 1 danach wechselst du auf Stein in Etage 2 und 3.... dann kommt das Dach aus Glas und Stahl und alles glänzt und blinkt....

Und Fertig ist Battlefield V.... ziemlich wackelig halt haha!
 
  • Gefällt mir
Reaktionen: Pulsar77, Bänki0815 und Mcr-King
DocWindows schrieb:
nvidia kann wenig defür wenn EA/Dice Raytracing so schlecht implementiert. Im Text steht dass für das Denoising die Shadercores genutzt werden und nicht die neuen Einheiten, die eigentlich genau dafür das sind.
Möchte nicht wissen wie viele FPS dadurch auf der Strecke bleiben.

Gewagte These. Wer sagt dir das Denoising auf den Tensor Cores nicht noch mehr die Pipeline verstopft und zu noch größeren Leistungseinbußen führt?

nVidia ist beteiligt an der Entwicklung und unterstützt das DICE Team. Also anscheinend kriegen die es ja dann auch nicht auf die Reihe ? :confused_alt:
 
  • Gefällt mir
Reaktionen: Baal Netbeck, Mcr-King, Seskahin und eine weitere Person
@Wolfgang

Bitte korrigieren: ;)

Oder anders ausgedrückt: Ohne Raytracing ist die GeForce RTX 2080 Ti in der Sequenz zweieinhalb Mal so schnell wie ohne.

Oder anders ausgedrückt: Ohne Raytracing ist die GeForce RTX 2080 Ti in der Sequenz zweieinhalb Mal so schnell als mit.


EDIT:
Seite 2, über dem Video "Battlefield V in der Kampagne", vorletzter Satz.
 
Zuletzt bearbeitet:
DocWindows schrieb:
nvidia kann wenig defür wenn EA/Dice Raytracing so schlecht implementiert. Im Text steht dass für das Denoising die Shadercores genutzt werden und nicht die neuen Einheiten, die eigentlich genau dafür das sind.
Möchte nicht wissen wie viele FPS dadurch auf der Strecke bleiben.

Das ist ja noch nichtmal das schlimmste.
Das schlimmste sind die Leistungseinbrüche bei vielen Partikeln, Blättern etc., bei denen offen davon gesprochen wird, dass das ein Bug ist.
Und auch die Qualitätseinstellungen sind fehlerhaft und greifen nicht richtig- Ernsthaft?

Und seit der ersten Demo mit RTX waren sie nicht in der Lage Verbesserungen einzubringen?
Sogar die übertriebenen Spiegelungen, bei denen vollmundig angekündigt wurde, dass man sie auf ein natürliches Maß runtschraubt, wurden dringelassen?

Ich kann einfach garnicht fassen, dass man sich traut, sowas auf die Käuferschaft loszulassen. Wie dämlich kann man sein...
 
  • Gefällt mir
Reaktionen: CMDCake, matraj63, TheUngrateful und 3 andere
Die Bilder sprechen fuer sich und sagen mir klar:
DXR bringt kein bisschen Mehrwert, nicht mal beim direkten Umschalten der Bilder.
Es sieht anders aus, ok - mehr nicht.
 
  • Gefällt mir
Reaktionen: Pulsar77
gerzerk schrieb:
Was wird denn teuer bezahlt? Eine 2070 mit zusätzlichen Features gibt es bereits zu Preisen einer gleich schnellen 1080, ähnlich sieht es bei der 2080 aus.
1. Die RTX 2070 ist die Fail Grafikkarte der RTX Turing Serie schlechthin, da muss man nichts schönreden und ist auch ihren Preis nicht wert!

2. Die RTX 2070 kostet zwischen 550 bis 650,00 Euro und ist damit teurer als die GTX 1070 zum Release.

3. Die RTX 2070 ist maximal RTX Ready und das ist schon 100% schöngeredet dargestellt, sie hat gerade mal die Leistung einer GTX 1080, die GTX 1070 hat sich mit der Speerspitze der Maxwell Genration in Form einer GTX 980Ti gemessen und hatte 2GB mehr VRam.

4. Die RTX 2070 nutzt den GPU Chip, der normalerweise auf eine 2060 gehört, die es aber nicht gibt, weil eine RTX 2060 vermutlich nur noch Standbilder produzieren würde!

Nvidia hätte bei den Turing Grafikkarten mit RTX-Features alle Modelle [RTX 2070 / 2080 und 2080Ti] mit der gleichen RTX-Hardware im GPU-Chip ausstatten müssen, bei dem derzeitigen Leistungsvermögen bei Nutzung von Raytracing. Hier die RTX-Hardware im GPU-Chip zu beschneiden macht einfach keinen Sinn, wie man ja deutlich in den Benchmarks sehen kann.

Dann hätte man zumindest auch bei einer RTX 2070 und RTX 2080 den Mehrpreis ein wenig rechtfertigen können. So ist die RTX Serie eine reine Feature Serie und für die meisten User / Käufer zu teuer, uninteressant und mit zu wenig Leistungszugewinn gegenüber der Pascal Serie!
 
  • Gefällt mir
Reaktionen: MouseClick68, CMDCake, nargorn und 5 andere
Aldaric87 schrieb:
Gewagte These. Wer sagt dir das Denoising auf den Tensor Cores nicht noch mehr die Pipeline verstopft und zu noch größeren Leistungseinbußen führt?

So ziemlich alle News und Infos die es zu Turing, RTX, Tensor Cores und RT-Cores gibt. Es wurde immer wieder erwähnt welche Hardwareeinheit was tun soll in der Turingarchitektur. Und Denoising auf Shadercores gehört definitiv nicht dazu. Wenn der Spielehersteller das dann trotzdem macht, wirds halt auch nicht gut.

Natürlich wurde Dice von nvidia unterstützt, aber auch dann sind Deadlines eben Deadlines.
Denoising über Shader kann rein logisch nur eine Notlösung sein, weil es eben extra Hardwareeinheiten gibt die das tun sollen.

ZeroZerp schrieb:
Ich kann einfach garnicht fassen, dass man sich traut, sowas auf die Käuferschaft loszulassen. Wie dämlich kann man sein...

Da wirds sicher Gründe geben. Gründe die mehr mit spitzen Bleistiften und Anzugträgern zu tun haben als mit engagierten Entwicklern und Spieleenthusiasten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oneplusfan, CMDCake, Lübke82 und 2 andere
Biedermeyer schrieb:
Die Bilder sprechen fuer sich und sagen mir klar:
DXR bringt kein bisschen Mehrwert, nicht mal beim direkten Umschalten der Bilder.
Es sieht anders aus, ok - mehr nicht.
Die Bilder sagen aus, dass die Grafikqualität ansteigt und das Bild deutlich homogener wirkt. Genau das, was man mit neuen Grafikfeatures erreichen will.

Insofern ist das schon alles stimmig. Es sieht nicht anders, sondern einfach "richtig" aus. Das sollte auch das Ziel sein.
 
  • Gefällt mir
Reaktionen: Lübke82
Für mich persönlich gibt es mehrere Faktoren, die mich nicht wirklich überzeugen.
Generell bin ich ein Freund von neuer Technologie, allerdings sollte es auch einen wirklichen Mehrwert bringen und des weiteren nicht nur einem kleinen Teil der technikaffinen zu Verfügung stehen.
Eigentlich kann ich nur wiederholen, was hier oder auch in anderen Tests gesagt wurde.
Zum einen werde ich mit dem neuen Battlefield nicht warm, aber das ist meine persönliche Einstellung.
Es ist doch so, das der finanzielle Aufwand nicht mal im Ansatz den nutzen aufwiegt, zumindest was RT angeht. Die Leistung der 2000er Serie ist natürlich generell nicht schlecht.
Allerdings ist der Titel denkbar schlecht gewählt, weil es ein hektischer Multiplayer ist, der einem keinen Zeit lässt sich die RT Effekte auch genießen zu können.
Ich habe eher den Eindruck, das EA das implementiert hat um mehr zu verkaufen, weil RT hier zur Zeit noch ein Alleinstellungsmerkmal hat.
Just my 2 cents
 
  • Gefällt mir
Reaktionen: Baal Netbeck und m.Kobold
DocWindows schrieb:
nvidia kann wenig defür wenn EA/Dice Raytracing so schlecht implementiert. Im Text steht dass für das Denoising die Shadercores genutzt werden und nicht die neuen Einheiten, die eigentlich genau dafür das sind.
Möchte nicht wissen wie viele FPS dadurch auf der Strecke bleiben.

Die restlichen Games die RT unterstützen da ist die Performance doch noch schlechter als bei BF. Tomb Raider lief nicht mal in 30FPS unter FullHD. Weis nicht was du dir hier schönreden willst.
 
  • Gefällt mir
Reaktionen: malvan, Pulsar77, m.Kobold und 3 andere
Zurück
Oben