• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Battlefield V: DirectX 11 ist ohne DXR der Zünder der Wahl

@tic-tac-toe-x-o
Das hat aber jetzt erstmal nichts mit Microsoft selbst zu tuen. ;)
Das es auch viele schlechte Implentierungen gibt steht wohl außer Frage, alles eine Frage der Priorisierung.
Dieses Spiel hier wurde offenbar für DX11 entwickelt und DX12 wurde nur drübergebügelt, entsprechend dürfte "gut" dann auch die RT Version laufen. Das Spiel kennt man ja auch von Vulkan, wurde es erst nachträglich reingepatcht läuft es oftmals mehr schlecht als recht, wurde es hingegen dafür entwickelt dann kann die API zeigen was sie kann. Da DX12 aber nur auf Windows 10 nutzbar ist hat es offenbar einen recht schweren Stand.
 
Ich finde es grafisch nicht so toll. Ist für WW2 viel zu steril und sauber dargestellt.
Auch interessant ein Spiel was die ganze Zeit mit Raytracing beworben hat und bis kurz vor Release dieser Feature überhaupt nicht behinhaltet.
 
Zuletzt bearbeitet:
"Das spiel wirkt unter FullHD matschig"

In Streams sah es eigt. gut aus. Aber es gibt auch sowas wie Reshade: https://sfx.thelazy.net/games/preset/9704/ Mit Vergleich Sceens!
Könnte helfen... Damit wird alles schärfer ^^
Abseits davon find ich die Aussage von Usern "wo sind die Vega Trolle" und " 4k ist nur das Wahre und endlich sieht man es" (oder so) mal wieder zum Lachen.
Klar die kleine Vega zieht bei einem User ,,nur" 200-240W...lach... mein kompletter Rechner zieht nur ~120W und ich kann auch so ein Spiel spielen.
Dann das mit den Full HD und das 4k besser aussieht. Mal abgesehen das das auch supjektiv ist und man ein Multipl. SHOOTER spiel, wo man hektisch wie doof rumrennt, kriegt man das ja auch immer mit. lach
Damit ist schon alles gesagt. BF sieht so schon geil aus. Andere Teile damals auch. Was ist nur los in dieser Welt.
Ich gönne ja auch den 4k Gamern, das sich ihre Hardware, die einige immer verteidigen müssen (den Kauf), mal was bringt..^^ kleiner Scherz.

Aber mal im Ernst. Ich werd mir bestimmt nicht ein 4k Moni + 2xxx NV Karte kaufen, nur weil der Entwickler zu blöde, oder es nicht hinbekommen will/ kann, das es in FullHD nicht so matschig aussieht.
Ein Spiel was ich eh nicht spiele und auch so geht mir die Thematik ,,4k" am Allerwertesten vorbei.
Außerdem bin ich nicht ein Stück bereit, diese GAGA Hardware Preise zu bezahlen. Bin älter und kenne meine Prioritäten. Kann ja jeder machen wie er will.

"4k wird immer mehr Standard und seht es doch mal ein"

Nein. Der das geschieben hatte, hat keine Ahnung. Hier im ,,keinen Kosmos Forum" haben prozentual mehr Nutzer teurere OP Hardware. Die Realität sieht völlig anders aus.
Auf Steam werden Millonen Rechener erfasst. Da haben die FullHD Nutzer und darunter um die 90%. Soviel dazu.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BorstiNumberOne und Gruml
MouseClick68 schrieb:
und 4., als wäre das noch nicht genug, darf man nicht in 4K sondern nur in Full-HD spielen. und selbst dann werden noch immer nicht durchgehend 60 frames gehalten. und das widerum auch nur mit der teuersten ( 2080 ti ) karte für deutlich über 1200,- euro.

Ich würde mal gerne einen Benchmark für diese Behauptung sehen. Hört doch endlich auf irgendwelche Pre-Alpha-RTX-Umsetzungen von der Gamescom als in Stein gemeißelt zu betrachten. Wenn also deiner Meinung nach eine 2080 Ti keine 60fps in 1080p halten kann, was hat sich EA dann dabei gedacht eine RTX 2070 als "empfohlene" GPU für Battlefield 5 für RTX anzugeben?

Dice hat doch bereits im Vorfeld darauf hingewiesen, dass in Battlefield 5 eben auch Oberflächen existieren, die NICHT für Raytracing optimiert sind und sie dahingehend die Effekte reduzieren/herausnehmen, weil es sonst "too much" ist und die Performance nach unten drückt. Evtl. sollte DICE auch darüber nachdenken, ob DLSS eine Option für die Zukunft wäre. Eine 2080 Ti, die dann intern in 1080p rendert bei einem 4K-Screen würde wohl selbst mit RT On sämtliche anderen GPUs in so einem Szenario komplett auf der Strecke lassen.
 
D.h. AMD muss jetzt nur eine ~25% schnellere Vega64 bringen, und ist King of the Hill in DX12?
Yeah. :lol::lol::lol::lol:
 
  • Gefällt mir
Reaktionen: Unnu
Bei mir stürzt es mit übertakteter GPU (egal wieviel OC) ab, noch jemand das Problem?
 
HisN schrieb:
... 4K oder UHD ist ein definierter Standard seit Jahren. Du willst ihn blos nicht anerkennen oder wahrhaben oder benutzt das Wort in einem lustigen Kontext :-)

Ernsthaft (?), für Early Adopter und Hobby-Enthusiasten wie Dich vielleicht sowie die dahingehend hypende Fachpresse (PCGH, CB, etc.) mit z.T. gesponserten Systemen (wohl kaum repräsentativ für den Durchschnittsgamer).

Zudem glänzen passende 120+Hz 4K/UHD-Monitore für den von Dir angeblich seit Jahren bestehenden Standard eben seit Jahren durch Abwesenheit auf dem Markt (das muss ja ein toller Standard sein :rolleyes:).

Für den gemeinen Gamer mit einem halbwegs gesunden Preis-Leistungs-Verständnis (der eben nicht zum Spass spätestens alle 2 Jahre Tausende von Euros in neuer, zweifelhaft sinnvoller PC-Gaming-High-End-Hardware versenkt) wohl eher nicht 😉.


Zum Thema/was BF V angeht, so gibt es mehrere Möglichkeiten, einmal, dass die relativ spät durch nVidia in Auftrag gegebene Implementierung von RT sich negativ auf DX12-Implementierung auswirkt bzw. diese massiv erschwert hat.

Im Gegensatz zu BF 1 dürfte in BF V DX12 grundlegender/früher von Dice implementiert worden sein, dazu noch die vorherige BF 1 Erfahrung, was eine schwache Implementierung mangels Know-How eher ziemlich unwahrscheinlich macht.

Eventuell sind bei Crystal Dynamics/Nixxe's die gewählten RTX-Effekte (die wohl anderer Natur sind als bei BF V, dazu kommt noch eine andere Engine) in SOTTR einfacher umzusetzen, wer weiss?

Dass DX12 etwas taugt dürfte wohl SOTTR endgültig aufgezeigt haben, aber man muss es auch handhaben können, vielleicht wollte man bei EA/Dice etwas zu hoch hinaus oder wurde dahingehend von nVidia angehalten/verlockt/beeinflusst?

Manchmal ist weniger (ambitioniertes) eben mehr :p.

Was den Qualitätsvergleich angeht, könnte Dice/EA sicherlich mehr, aber darunter würden die fps leiden und somit macht man es den (semi-) professionellen Spielern mit möglichst hohen Frameraten (bei vergleichsweise schwächerer Detailpracht/Qualität trotz hohen Settings) in 720p und 1080p recht und den Grafik-Design/Artwork-Spielern in 1440p und 2160p mit massiv besserer Darstellung (auf Kosten von fps/wettbewerbsfähigem spielen), die RTX-Spiegelungen und anderes beim spielen bewundern wollen ... ach nee, letzteres geht ja nur in Full-HD (wenn überhaupt) einigermassen flüssig :lol:.

Also momentan sieht es jedenfalls noch so aus, als ob RT-Raytracing und DLSS (?) als RTX-Features Richtung PhysX/Bedeutungslosigkeit mit BF V marschieren und ob SOTTR danach die Kohlen noch aus dem Feuer wird holen können?

Ich gönne Square Enix/Crystal Dynamics/Nixxe jedenfalls die besseren Verkaufszahlen als EA/Dice, aber diese sind ja auch nicht immer unbedingt ein Qualitätsindikator (siehe bspw. PUBG, CoD, etc.) und gut möglich, dass BF V trotzdem deutlich mehr gekauft wird/umsetzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Recharging und BorstiNumberOne
Es war doch bereits in z.B. BF4 ein starker Unterschied zwischen FHD und UHD erkennbar. Ich konnte mir das Spiel nicht mit unter 150% interner Auflösung in FHD geben. UHD ist da eine gaaanz andere Welt.
Gleiches gilt für GTA V.
UHD Monitore kosten nur noch 200-300€ und haben meistens FreeSync dabei.
Was halt viele Leute noch zum kauf eines FHD Monitors bewegt sind mehr Hz, die Größe und evtl. der Preis (legitim) oder zu schwache Hardware (nicht legitim, da es sogenannte Regler gibt, zur Not Auflösungsreduzierung).
Es war seit BF4 absehbar, dass diese Spielereihe kacke aussieht, wenn die Auflösung zu gering ist.

Neronomicon schrieb:
Mal abgesehen das das auch supjektiv ist und man ein Multipl. SHOOTER spiel, wo man hektisch wie doof rumrennt, kriegt man das ja auch immer mit. lach

Ja geh mal zum Augenarzt, wenn du das subjektiv findest. Auflösung kriegt man immer mit, vor allem in Shootern mit großen Maps und vielen Zielfernrohren und Vergrößerungen.

Chismon schrieb:
das geht ja nur in Full-HD

Ich fordere einen Beweis für diese Aussage, ansonsten muss man das als dummes Geschwätz abtun.
Den Golem Artikel, der hier auch schon 5 mal gepostet wurde, hat anscheinend auch keiner gelesen?

Bei solchen grafik- und fortschrittsfeindlichen Nutzen wundert es mich nicht, dass PC Grafik seit Jahren stagniert.
 
Oneplusfan schrieb:
Auflösung kriegt man immer mit, vor allem in Shootern mit großen Maps und vielen Zielfernrohren und Vergrößerungen.


Aha..hast mich zum schmunzeln gebracht. "Zielfernrohren und Vergrößerungen"... Auch unter FullHD kann man sowas wie AA- Modi einstellen. Also mir reicht das...und wenn du in Zielfernrohren die Auflösung abcheckst.. dir dann was auffällt, solltest du nicht in 640x 480 spielen.:evillol::cool_alt:
Ok ...mal im Ernst, ich habe nichts dagegen wenn es Gamer gibt die gerne in UHD spielen. Aber das schlechtmachen des FullHD ist unangemessen.
 
  • Gefällt mir
Reaktionen: CMDCake und BorstiNumberOne
Oneplusfan schrieb:
UHD Monitore kosten nur noch 200-300€ und haben meistens FreeSync dabei.
Was halt viele Leute noch zum kauf eines FHD Monitors bewegt sind mehr Hz, die Größe und evtl. der Preis (legitim) oder zu schwache Hardware (nicht legitim, da es sogenannte Regler gibt, zur Not Auflösungsreduzierung).
Warum sollte man von einem guten FullHD-Monitor auf einen 0815-UHD-Monitor wechseln? Noch dazu haben die meisten eine Grafikkarte, die für UHD einfach nicht geeignet ist (VRAM) und es auch viele Spiele gibt, die immer noch nicht gut skalieren. Das man im schlimmsten Fall die Auflösung unter der nativen Auflösung reduzieren muss, damit es mit einer älteren Grafikkarte läuft, ist für den wenigsten akzeptabel. Für die meisten Spieler ist FullHD auch vollkommen ausreichend und UHD wird noch einige Zeit am PC vor allem nur bei Enthusiasten Anklang finden.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne und danyundsahne
Ctrl schrieb:
CPU Tests wären schön, die open beta ist ja auf Ryzen CPUs total eingeknickt...ein 2700x konnte da keine 1080ti auslasten..bin darauf gespannt ob das jetzt besser ist..

Also bei mir hat die Karte gut was zu tun, zwar nicht immer 99% aber im schnitt glaube ich so 80 - 95%
 
  • Gefällt mir
Reaktionen: Ctrl
Alter Falter, hätte nicht erwartet, dass die V64 so gut abschneidet :o
 
  • Gefällt mir
Reaktionen: danyundsahne
Otsy schrieb:
"Glänzen" ist im Falle von Frostbite leider wörtlich zu verstehen.

Ich sehe hier aber ein generelles Problem, welches mir bei immer mehr Spielen auffällt.

Paradoxerweise versucht Realismus mit einer Fülle von völlig unrealistisch glänzenden Oberflächen nachzuempfindende. Wasser, Fahrzeuge und selbst die Haut von Menschen glänzt mittlerweile in jedem zweiten AAA-Game.

Soldaten sehen teilweise aus, als wären sie vor einem Gefecht noch im Beautysalon oder in der TV-Maske gewesen.

Die Grafik im ersten Crysis wirkte teilweise realistischer als alles was man heute so zu Gesicht bekommt.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: CMDCake, Unnu, BorstiNumberOne und 2 andere
Finde Grafik,Sound und Performance sehr gut. Hier mal kurze 2 Minuten mit OBS (ca. 100-110Fps @1440p@stumpf Ultra)
 
  • Gefällt mir
Reaktionen: Cpt.Willard
zombie schrieb:
Hallo
Viele werden jetzt lachen aber ich nutze noch gern, da 90% Alltaganwendungen, einen 20" Eizo Monitor mit nur 1680x1050er Auflösung und schon bei BF1 habe ich das erwähnte Problem, dass die Grafik auffällig matschig wirkt. Bleibt nur ein neuer UHD Monitor aber ich will nur max. 22" und da gibt es nix mit so hoher Auflösung (mein ewiges Problem). Eine interne Lösung wie Downsampling gibt es nicht um das Problem zu verbessern ?

Es gibt einen Monitor der perfekt zu deinen Ansprüchen passt: LG Electronics UltraFine 4K 22MD4KA-B

4096x2304 auf 21,5". 219dpi.

Da flimmert bestimmt kein Strohhalm mehr. :D
 
  • Gefällt mir
Reaktionen: CMDCake und GERmaximus
Endlich haben die Hardware Nerds was zu Posen, leider wird über den Spielinhalt schon lange nicht mehr Diskutiert ^^
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, McTheRipper, GERmaximus und eine weitere Person
fschjgfw schrieb:
Finde Grafik,Sound und Performance sehr gut. Hier mal kurze 2 Minuten mit OBS (ca. 100-110Fps @1440p@stumpf Ultra)

Sieht nahezu wie Battlefield 1 aus. Das kam vor 2 Jahren auf den Markt.
Gameplay sieht auch nahezu genauso langweilig wie bei 1 auch schon aus.
Das einzig interessante Feature an dem Titel ist die kommende Raytracing Performance, ansonsten bleibt es eine 0815 EA-Cashcow.
 
  • Gefällt mir
Reaktionen: Recharging, CMDCake, Grundgütiger und eine weitere Person
MouseClick68 schrieb:
und 4., als wäre das noch nicht genug, darf man nicht in 4K sondern nur in Full-HD spielen. und selbst dann werden noch immer nicht durchgehend 60 frames gehalten. und das widerum auch nur mit der teuersten ( 2080 ti ) karte für deutlich über 1200,- euro.

Golem hat angeblich schon in 1440p BF V mit RTX gezockt.
War auch das Ziel von Dice. Die erste Demo war noch gar nicht richtig auf die Karten zugeschnitten.

Woher kommt also die Behauptung nur Full HD und keine stabilen 60fps zu erreichen?

Bis es nicht final von mehreren Seiten Test hat sollte man auch alles in Stein meiseln.
 
also wegen Unschärfe, da ist doch sicher wieder ein post-AA aktiv, welches man abstellen kann,
das kann sich hinter versch Schaltern in den Optionen verstecken -)
Oder mal per Inspector im Treiber alles mit FXAA auf off stellen.
 
Und ich sitze hier mit Battlefield 1 und es ruckelt bei mir mit low settings bei einer rx580 mit 8GB. Und ich dachte es wird besser, wenn ich meine alte gtx 660 gegen die rx580 austausche. Dabei lief BF1 mit der gtx 660 auf low mit konstanten 60 fps :(
 
Zurück
Oben