- Registriert
- Mai 2008
- Beiträge
- 5.560
@Wolfgang ich liebe deine kritische Berichterstattung, auch die von @AbstaubBaer, zum Thema Mikrotransaktionen etc.
Danke dafür
Danke dafür
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Wolfgang schrieb:Die PCGH hat mit den genutzten Einstellungen Krampfhaft ein CPU-Limit hervorgerufen. Das ist aber nicht unser Ziel bei den Spiele-Benchmarktests. Dort wollen wir zeigen, welche praktischen Auswirkungen verschiedene CPUs auf Spiel X haben. Dazu braucht es aber realistische Grafik-Einstellungen. Die zeigen dann eben, dass theoretisch Breakpoint vielleicht von schnellen CPUs profitiert. Praktisch aber so gut wie nicht.
Ergänzung ()
Ein wahres Kleinod des Computerspiele-Journalismus, eine Perle!Unter dieser seelenlosen Abarbeitung von Features leidet Breakpoint stärker als andere Spiele, vielleicht auch, weil es das mittlerweile x-te Produkt mit diesen immer deutlicher werdenden Schwächen ist, vielleicht, weil der Bruch zwischen Anspruch und Gameplay größer als gewöhnlich ausfällt. Um mit Freunden kooperativ eine Sandbox zu durchstreifen und Sammelleidenschaften zu fröhnen, mag das gut genug sein, ein gutes Spiel wird daraus aber nicht.
Breakpoint ist prinzipiell so glaubwürdig wie Frankenstein mit Clownsnase, der stotternd behauptet, Nikola Tesla zu sein. Das unterhält nur begrenzt, wenn Frankenstein erst gestern mit Perücke noch Albert Einstein und vorgestern mit gekünsteltem Akzent und unverändert schlechter Schauspielkunst Isaac Newton sein wollte – genug ist genug, die Grenze des Erträglichen erreicht.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Wolfgang schrieb:[...]Die PCGH hat mit den genutzten Einstellungen Krampfhaft ein CPU-Limit hervorgerufen. Das ist aber nicht unser Ziel bei den Spiele-Benchmarktests. Dort wollen wir zeigen, welche praktischen Auswirkungen verschiedene CPUs auf Spiel X haben. Dazu braucht es aber realistische Grafik-Einstellungen. Die zeigen dann eben, dass theoretisch Breakpoint vielleicht von schnellen CPUs profitiert. Praktisch aber so gut wie nicht.[...]
joel schrieb:Also zieht eure Konsequenzen, sowas kommt nicht auf meinen PC.
Die ist bei Presets immer so - Grafikkarten-Benchmarks kommen ja später mit normaler Skalierungsifusanders schrieb:interssante Skalierung der Graphen
Für eine 2080 Ti ist Ultra-Grafik weder für Full HD noch für WQHD unrealistisch. Bei anderen Grafikkarten sieht es natürlich anders aus.Rage schrieb:Warum sind Ultra-Details jetzt so realistisch? Ich lehne mich mal soweit aus dem Fenster, dass viele Leute in Hoch oder sogar Medium spielen, dann könnte es auf einmal auch Unterschiede zwischen den Prozessoren geben.
Der Paule schrieb:Das sind zwei unterschiedliche herangehensweisen. Aus eigener Erfahrung macht aber genau dieses "Praktisch aber so gut wie nicht" oft den Unterschied ob ich generell eine gute Performance habe, oder eben hin und wieder Spikes nach unten (auf das gesamte Spiel bezogen in meinen Settings und nicht nur nicht nur auf eine Benchmarkszene). Ich bevorzuge da eindeutig die CPU auch im CPU Limit zu testen. Besser wären beide Ansätze kombiniert, da mich natürlich die Alltagssettings auch interessieren, das wäre jedoch auch mit mehr Arbeit verbunden. Müsste ich mich entscheiden, würde ich den Ansatz von PCGH bevorzugen. Ich will in CPU Tests ja schließlich wissen, was mir eine bessere CPU theoretisch mehr bringt.
Die Settings bei Grafikkarten-Benchmarks in Spiele-Tests sind nie absichtlich nach dem GPU-Limit ausgewählt - das Verfahren resultiert nur oft darin.v_ossi schrieb:Sorry, aber das ist doch absurd. Bei den Grafikkarten fährt man absichtlich ins GPU Limit und testet mit Einstellungen, die die Grafikkarten überfordern, aber bei CPUs sollen jetzt "praktische Auswirkungen" aufgezeigt werden?
Wie realistisch sind denn Grafikeinstellungen, bei denen eine RX 580/590 oder GTX 1060 in FullHD im Schnitt bei ~30fps herumkrebsen und im 99,8 Percentile bei ~26 fps liegt. So spielt doch Niemand.
Ne GTX 1080 quält doch auch kaum Jemand in 4k auf unter 30 fps runter.
Das krampfhaft war in dem Fall nicht negativ gemeint. Die Kollegen haben halt alles versucht, um die GPU-Last zu reduzieren (720p und Temporal Injection an). Das ist regulär für CPU-Benchmarks im reinen CPU-Limit. Das wollen wir hier aber nicht zeigen.meckswell schrieb:Dann, die Formulierung "krampfhaft" im Bezug auf die PCGH Testweise, das finde ich nicht schön.
Ich habe mir eure 1080p CPU-Tabelle und die 720p CPU-Tabelle vom PCGH angesehen.Wolfgang schrieb:Das krampfhaft war in dem Fall nicht negativ gemeint. Die Kollegen haben halt alles versucht, um die GPU-Last zu reduzieren (720p und Temporal Injection an). Das ist regulär für CPU-Benchmarks im reinen CPU-Limit. Das wollen wir hier aber nicht zeigen.
Nero2019 schrieb:CPU spielt eine große Rolle in 720p und erst ab 1080p so gut wie gar nicht. Also vom CPU-lastiges (720p) zum GPU-lastiges Spiel (1080p und höher).
Wolfgang schrieb:[...]Ich gehe da folgenderweise mit vor: Als Grafikkarte nutze ich eine RTX 2070. Die muss in Full HD um die 60 FPS liegen. Tut sie das, wird das entsprechende Setting gewählt. Ist die Framerate höher, wird die Grafikqualität hochgedreht. Ist sie niedriger, wird diese reduziert. Für WQHD visiere ich mindestens ~45 FPS an, sodass die schnelleren Modelle noch gut spielbar sind. Für Ultra HD mindestens 30 FPS, dann reicht es halbwegs zumindest für die 2080 Ti noch.[...]