Test Battlefield V mit DXR im Test: Die Strahlen sind los

Das ist ja auch ein 8700K welcher Allcore mit 4.3Ghz läuft.

Ein 9900K mit 5 Ghz Allcore Turbo , DDR4-4000 und Cache Frequenz von 4.7Ghz ist eine komplett andere Hausnummer.
 
@owned139 Deine Aussage war, dass ne 2080ti nicht doppelt so schnell ist wie eine 980ti. Das ist halt falsch.
Daran ändern die beiden (in dem Kontext vollkommen zusammenhangslos) geposteten Videos auch nix dran.

Wenn es dir um ein CPU Limit geht, musst du das auch so kommunizieren.
 
  • Gefällt mir
Reaktionen: Gortha
t3chn0 schrieb:
Das ist ja auch ein 8700K welcher Allcore mit 4.3Ghz läuft.

Ein 9900K mit 5 Ghz Allcore Turbo , DDR4-4000 und Cache Frequenz von 4.7Ghz ist eine komplett andere Hausnummer.
Schon klar, aber +75% min Frames? Der Großteil dieses Unterschieds dürfte dann eher von den Low Settings und nicht von der CPU an sich kommen.
 
Eben und deshalb wollte ich mal ein paar Werte von der 2080ti. Meine Vega skaliert auch nicht mit dem CPU takt. Mit dem GPU takt schon.

Das Game hat ein Polygonenlimit deshalb würden mich mal ein paar weter interessieren
 
t3chn0 schrieb:
DX 12 "ON";Future Render "OFF" -> perfektes Gameplay im 150-160er Bereich, perfekte Auslastung, kein Lag!
Hab es heute mal ein Paar Runden ausprobiert und muss dir zustimmen. Die Performance ist ausserodentlich gut und kann 1:1 mit DX11 FFR:ON mithalten. Direkter fühlt es sich jedoch nicht an - ist bei dir sicher nur ein Placebo. ;)
 
xexex schrieb:

Schöne Chart - nur leider nicht stimmig, zumindest für mich. Ich hatte vor 3 Jahren nen 1080p 55er und und ich kann dir sagen der war keine Freude denn man konnte die Pixel tatsächlich sehen bei ca 2 Meter Entfernung - müsste ich es mit nem PC Monitor vergleichen würde ich sagen es war in etwa so als hätte man nen 24er mit 720p Auflösung.

Besagter 55er wurde dann eben wegen dieses "Handicaps" gegen einen 4K 55er getauscht und voila, ich konnte keine Pixel mehr sehen. Von daher kann ich die Chart und die damit verbundenen Sitzabstände für mich nicht bestätigen.
 
Oneplusfan schrieb:
@owned139 Deine Aussage war, dass ne 2080ti nicht doppelt so schnell ist wie eine 980ti. Das ist halt falsch.
Daran ändern die beiden (in dem Kontext vollkommen zusammenhangslos) geposteten Videos auch nix dran.

Wenn es dir um ein CPU Limit geht, musst du das auch so kommunizieren.
Nein eben nicht. Meine Aussage war, dass er nonsense redet und sie nicht mehr als doppelt geschweige denn 3x so schnell ist. 70 Fps -> 200 Fps ist das dreifache.

Wer zockt denn bitte mit einem 9900K und einer 2080 TI auf low in 1080p?
 
  • Gefällt mir
Reaktionen: Birke1511
anexX schrieb:
Schöne Chart - nur leider nicht stimmig, zumindest für mich. Ich hatte vor 3 Jahren nen 1080p 55er und und ich kann dir sagen der war keine Freude denn man konnte die Pixel tatsächlich sehen bei ca 2 Meter Entfernung
Diese Chart sagt für dein Szenario aber doch auch 4K
1542399840174.png


Ich lande in dieser Grafik an der Grenze von 720p und 1080p(55" bei 3,5m) und kann bei meinem TV keine Pixel sehen.

Daher würde für einen 4K TV bei mir auch nur mindestens 65" in Frage kommen, eher 75".
Aber selbst da würde sich 4K laut der Grafik nicht lohnen.

Ich sitze hier auch in 80cm Entfernung an einem 31,5" Monitor mit 1440p und kann ebenso keine Pixel sehen. Laut der Grafik wäre wohl ziemlich genau da auch die Grenze zwischen 1440p und 4K
 
Die Grafik macht echt Sinn. Allerdings macht es wiederrum sehr wenig Sinn eine 2080 Ti zu holen wenn man am 20" Monitor spielt.
Umgekehrt ist selbst ein 50" Fernseher mit 60 Hz und Full HD aus 1 Meter Entfernung um Welten besser als die ganzen Gamer Monitore mit 144Hz und 4K um die 30". Das ist einfach ein ganz anderes Spielerlebnis so als würde man Kino und Fetnseher vergleichen.
 
Zotac2012 schrieb:
Man hätte auch folgenden Titel wählen können:


Und wenn man das hier liest:

Da entscheidet nicht der persönliche Geschmack, eine RTX Turing wird einfach nicht gekauft! Warum soll ich die Entwicklungskosten bei Nvidia für Raytracing bezahlen und als Beta Tester fungieren? Nvidia soll sich ihre Turing Serie dahin stecken, wo die Sonne nicht scheint, Sorry!

Tja wenn jeder so denken würde wärst Du zum "Glück" nie geboren wurden. Aber es gibt Menschen die "Fortschritt" wollen, ich weiß Hinterwälder gehören nicht dazu.
Ein Glück war bis jetzt jede neue Technik immer sofort zu 100% richtig und fertig und man musste nichts dran machen.

Aber stimmt Du bezahlst ja mit egal was Du kauft die Entwicklungskosten ... ohhhhh nein geht ja gar nicht ;-)
 
xexex schrieb:
Das ist Quatsch, weil du vor einem 55er meist nicht in einem Meter Entfernung sitzt und letztlich die wenigsten Inhalte heute überhaupt mit 4K gesendet werden.

Oh Gott so viel Ignoranz tut doch weh und bekommt hier auch noch Plus! Auf drei Meter siehst du bei ordentlichem Kontrast 0,5mm "Pixel". Diesen Schwachfug von "kann keiner sehen" ist nicht mehr zu ertragen.

PS: https://www.spektrum.de/lexikon/optik/visus/3556

Visus Tabelle!

PSS: Noch ein paar Reflexionen 3dfx Power von 1998.


Unreal rulert. Solange RTX kein global ilumination macht wird das eh nichts. Das Marketing kratzt nur an der Oberfläche.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ridgero
@Botcruscher Bei einem 55" TV hat man 1218mm in der Breite.
Nehmen wir die 1920 Pixel, kommen wir auf 0,63mm pro Pixel.

Also bleibt es dabei, bei >3m Sitzabstand sieht man bei 55" von 4K nicht viel, und auch bei 3m muss der TV schon exakt eingestellt sein, was bei den wenigsten der Fall sein wird, um die Pixel zu sehen.
 
Der Sehtest ist lange nicht der worst case. Kontraste sieht das Auge noch _deutlich_ besser. Dazu kommt bei Computergrafik das klassische Kantenflimmern sowie aufploppen durch zu wenige Sample beim Rastern. Stromleitungen sind in Spielen der Klassiker oder Vegetation. Oder eben die Schrift hier im Browser.

Bei meinem UHD sehe ich zB gerade die Pixel vom Punk(oder besser das Viereck) am Ende des Satzes. Das sind ~155ppi. Die Schwelle wo ich ab 1m nichts mehr sehen sollte dürfte bei ungefähr 300 liegen. Einige Spezialfälle auch darüber.
 
Ich installier jetzt mal Unreal.
 
ampre schrieb:
mach mal einen screenshot bitte. Danke
Die Map war nicht Rotterdam sondern Vernichten

fps:
perfoverlay.drawgraph 1 bitte einschalten

Ps. wie skaliert das den mit dem Takt von der CPU?
owned139 schrieb:
Rede nicht so einen Müll. Ich habe zwischen 70 und 110 Fps mit meiner 980 TI und meinem 9900K auf 4.7GHz.
Deine Karte soll also 2-3x so schnell sein, wie meine? Genau. Wers glaubt...
Die 2080TI ist ungefähr 1.8-1.9x so schnell wie die 980 TI.

Natürlich bist auf 1080p in Low in 99% der Zeit auf 200fps.

Hab doch selbst in WQHD Ultra 159 fps avg.
Da ich nen Limiter auf 163 drin hab:
Ergänzung ()

Oneplusfan schrieb:
Doch, das kommt schon ungefähr hin.
Zumal


Eine 980ti ist knapp an einer 1070, eine 2080ti ist schon mindestens doppelt so schnell wie diese (v.a. in BF V). Zumal Turing mit hohen Auflösungen sowie der Treiberarbeit besser skaliert.

@Esenel kannst du bitte kurz 4k emulieren und mir sagen mit welchen Einstellungen man 4k60fps und RT on spielen kann? Nur wenns nicht zu viel Arbeit macht natürlich.

Teste ich Sonntag Abend.
 
Botcruscher schrieb:
Oh Gott so viel Ignoranz tut doch weh und bekommt hier auch noch Plus! Auf drei Meter siehst du bei ordentlichem Kontrast 0,5mm "Pixel". Diesen Schwachfug von "kann keiner sehen" ist nicht mehr zu ertragen.

Du meinst also man könnte mit guten Augen, "ordentlichen" Kontrast und wenn man sich drauf konzentriert vielleicht einzelne Pixel auf diese Entfernung erkennen?

Ist doch wunderbar, auch wenn ich es zumindest mit meinen Augen definitiv nicht kann. Die Frage die ich dir hier einfach nur mal so stelle ist, was interessiert es mich wenn ich meist bewegte Inhalte auf dem Bildschirm habe wo ich definitiv weder einen extremen Kontrast sehe noch die Zeit habe mir auf einen einzelnen Pixel zu konzentrieren?

Es ist schlichtweg Quatsch zu behaupten man könnte 55" mit 1080p die einzelnen Pixel zählen und das Bild wäre so unerträglich. Letztlich ist doch die Frage was auf dem Bildschirm angezeigt wird und inwiefern überhaupt die Tatsache, dass es physikalisch möglich wäre auf die Entfernung einzelne Pixel zu erkennen, relevant ist.

Die meisten dürften auf ihren TVs bis heute bestenfalls Full-HD Inhalte sehen und anscheinen kommen sie damit wunderbar zurecht. Ich selbst sitz vor einem 60" TV in gut 2m Entfernung und frage mich wieso in aller Welt ich zwingend 4K Auflösung nutzen sollte.

Am Ende wäre ich derzeit dazu gezwungen entweder mindestens ein 80" Display zu kaufen um etwas erkennen zu können oder wieder ein 60" Display und dann eine Skalierung zu verwenden. Letztendlich rausgeworfenes Geld.

Wir verkaufen tagtäglich Monitore an Geschäftskunden und die Auflösungsproblematik gibt es seit Jahren. Die Hersteller meinen mit immer größeren Bildschirmen und Auflösungen, allein durch Zahlen den Absatz steigern zu können. Die Kunden hingegen haben dann Bildschirme vor der Nase auf denen sie nicht mehr erkennen können oder mehr oder weniger gut alles wieder hochskalieren müssen.

In Foren funktioniert aber die Werbeindustrie bestens. Bildschirme die gestern völlig ausreichend waren und ein Superbild "hatten", sind heute nur noch "Augenkrebs". Alleine deshalb weil es Bildschirme gibt die eine höhere Auflösung haben oder mehr FPS unterstützen und nicht in etwa weil man eine neue Brille hat oder über Nacht einen Adlerblick bekam. Man könnte es in vielen Fällen schlichtweg Einbildung nennen. :evillol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sun_set_1
Es geht doch nicht darum einzelne Pixel zu sehen. Das Bild wird aber deutlich schaerfer und detailreicher, das sieht man ganz klar.
 
  • Gefällt mir
Reaktionen: Birke1511
OZZHI schrieb:
Direkter fühlt es sich jedoch nicht an - ist bei dir sicher nur ein Placebo. ;)

Ist kein Placebo was er meint, der reduzierte / nicht vorhandene Inputlag wenn FutureFrameRendering ausgeschaltet ist macht nen guten Unterschied. Wurde auch irgendwo mal explizit erklärt, was die Option macht.
60 FPS bei "Aus" (DX11) spielen sich fast so ziemlich genauso wie 110 FPS bei "An" aber wenn die FPS mal gleich sind dann merkt mans am Besten.

Hab das zwar nicht mit DX12, dem neuen Patch und Treiber getestet (Spiel is schon geflogen), aber selbst unter DX11 war es mit o.g. FPS bemerkbar.


Was die FPS von den RTX 2080/Ti angeht scheint wohl doch ein extremer Unterschied, sogar zur 1080 vorhanden zu sein. Wenn ich mir die Performance angucke von manch einem Streamer der die Karte hat, da fallen mir schier die Augen aus.

Für mich war die Performance von dem Game so unterm Strich, bzgl. Inputlag/FPS ziemlich hart an der Kotzgrenze, Singleplayer von mir aus aber Multiplayer Shooter muss so nicht sein.
 
@eax1990
Naja ich weiss ich nicht. Habe wohl einen kleinen Bias gegen Battlefield und DX12. In DX11 komme ich deutlich einfacher auf meine fixe 144-160 FPS und spüre vom zusätzlichen Inputlag nichts. Bin immer gut dabei in den Servern. Vielleicht ist mein Monitor schon das langsamste Glied in der Kette, nach mir natürlich. ;)

Wir dürfen aber nicht vergessen, dass t3chn0 ein besseres System für hohe FPS hat. Deswegen warte ich hier mal auf einen Bericht von Battlenonsense bis ich komplett auf DX12 umsteige.


Ich würde diesem Fazit zustimmen: Link
The moral of the story
Fewer pre-rendered frames/future frame rendering/renderaheadlimit WILL ALWAYS give you less input latency. But often, especially at high framerates, that improvement in input lag is so small that it is essentially insignificant, and quite often, the cost of it is FAR greater than the benefit, as you can get crappy framerates, variation in frametimes and input latency that make your aim inconsistent, and all that bad stuff.
 
Zuletzt bearbeitet:
Zurück
Oben