• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Ghost Recon Breakpoint im Test: Loot-Shooter mit extremen GPU-Anforderungen

@Wolfgang ich liebe deine kritische Berichterstattung, auch die von @AbstaubBaer, zum Thema Mikrotransaktionen etc.
Danke dafür :)
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC, Zitterrochen, Dandelion und eine weitere Person
Wolfgang schrieb:
Die PCGH hat mit den genutzten Einstellungen Krampfhaft ein CPU-Limit hervorgerufen. Das ist aber nicht unser Ziel bei den Spiele-Benchmarktests. Dort wollen wir zeigen, welche praktischen Auswirkungen verschiedene CPUs auf Spiel X haben. Dazu braucht es aber realistische Grafik-Einstellungen. Die zeigen dann eben, dass theoretisch Breakpoint vielleicht von schnellen CPUs profitiert. Praktisch aber so gut wie nicht.
Ergänzung ()

Das sind zwei unterschiedliche herangehensweisen. Aus eigener Erfahrung macht aber genau dieses "Praktisch aber so gut wie nicht" oft den Unterschied ob ich generell eine gute Performance habe, oder eben hin und wieder Spikes nach unten (auf das gesamte Spiel bezogen in meinen Settings und nicht nur nicht nur auf eine Benchmarkszene). Ich bevorzuge da eindeutig die CPU auch im CPU Limit zu testen. Besser wären beide Ansätze kombiniert, da mich natürlich die Alltagssettings auch interessieren, das wäre jedoch auch mit mehr Arbeit verbunden. Müsste ich mich entscheiden, würde ich den Ansatz von PCGH bevorzugen. Ich will in CPU Tests ja schließlich wissen, was mir eine bessere CPU theoretisch mehr bringt.

Muss ich aber i.d.R. nicht, da ich, wie z.B. im Falle von Breakpoint, auf mehrere Quellen zurück greifen kann. In sofern sehe ich da kein Problem.
 
  • Gefällt mir
Reaktionen: Palmdale und meckswell
Was soll man da eigentlich noch sagen.... AMD vs. Nvidia. Neue Generation vs. alte Generation. :lol:
 
Wildlands war doch schon richtig grottig!
Ich hatte mich nach den ersten Trailern darauf gefreut ... nach 2h spielen flog das Game vom PC.
Schön zu lesen, dass UbiSchrott mit diesem Teil auf die Fresse geflogen ist.
... und das eine 2080Ti schon in FHD an die Grenze stößt handklatschinsgesicht
 
  • Gefällt mir
Reaktionen: pblcprvrt
Unter dieser seelenlosen Abarbeitung von Features leidet Breakpoint stärker als andere Spiele, vielleicht auch, weil es das mittlerweile x-te Produkt mit diesen immer deutlicher werdenden Schwächen ist, vielleicht, weil der Bruch zwischen Anspruch und Gameplay größer als gewöhnlich ausfällt. Um mit Freunden kooperativ eine Sandbox zu durchstreifen und Sammelleidenschaften zu fröhnen, mag das gut genug sein, ein gutes Spiel wird daraus aber nicht.

Breakpoint ist prinzipiell so glaubwürdig wie Frankenstein mit Clownsnase, der stotternd behauptet, Nikola Tesla zu sein. Das unterhält nur begrenzt, wenn Frankenstein erst gestern mit Perücke noch Albert Einstein und vorgestern mit gekünsteltem Akzent und unverändert schlechter Schauspielkunst Isaac Newton sein wollte – genug ist genug, die Grenze des Erträglichen erreicht.
Ein wahres Kleinod des Computerspiele-Journalismus, eine Perle!

So deutliche Worte wünsche ich mir von den "echten" Spielemagazinen. So ein M!$t gehört knallhart abgestraft.

Sorry, aber die Zielgruppe die hier angesprochen wird... mir fehlen die Worte, da rollen sich alle Fußnägel gleichzeitig hoch (keine Ahnung ob das Video hier schon wahr)
Cringe hoch 1000.
 
  • Gefällt mir
Reaktionen: Palmdale, KlaraElfer, SIR_Thomas_TMC und 4 andere
Bei Wildlands war es die 1080Ti, die auf FHD in fordernden Szenarien nur 60 FPS schaffte. PCGH hatte damals noch einen erweiterten Test gemacht.

Aber Wildlands fand ich schon super und auch grafisch richtig legendär.
 
Wolfgang schrieb:
[...]Die PCGH hat mit den genutzten Einstellungen Krampfhaft ein CPU-Limit hervorgerufen. Das ist aber nicht unser Ziel bei den Spiele-Benchmarktests. Dort wollen wir zeigen, welche praktischen Auswirkungen verschiedene CPUs auf Spiel X haben. Dazu braucht es aber realistische Grafik-Einstellungen. Die zeigen dann eben, dass theoretisch Breakpoint vielleicht von schnellen CPUs profitiert. Praktisch aber so gut wie nicht.[...]

Sorry, aber das ist doch absurd. Bei den Grafikkarten fährt man absichtlich ins GPU Limit und testet mit Einstellungen, die die Grafikkarten überfordern, aber bei CPUs sollen jetzt "praktische Auswirkungen" aufgezeigt werden?

Wie realistisch sind denn Grafikeinstellungen, bei denen eine RX 580/590 oder GTX 1060 in FullHD im Schnitt bei ~30fps herumkrebsen und im 99,8 Percentile bei ~26 fps liegt. So spielt doch Niemand.
Ne GTX 1080 quält doch auch kaum Jemand in 4k auf unter 30 fps runter.

Entweder CPU Benchmarks im CPU Limit und GPU Tests im GPU Limit zwecks Vergleichbarkeit oder für beide Tests "praktische Einstellungen".

Die Aussage "Ghost Recon Breakpoint hängt immer im CPU Limit" hätte man wohl auch schon treffen können, als man die ~80fps bei der 2080Ti in FullHD gesehen hat.
 
  • Gefällt mir
Reaktionen: Sennox, Palmdale, Dedder und eine weitere Person
@Wolfgang
Zum Thema CPU Test: mein i7 2600k @4,6GHZ kommt bei Breakpoint über seine Grenzen. Anhand des CPU- Tests von PCGH ist dies auch klar ersichtlich. Bei eurem Test geht das leider nicht eindeutig hervor.
Trotzdem gute Arbeit und Danke für's benchen!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sennox
Ohe je, ein CPU Test im GPU-Limit, was soll man denn da erkennen können, außer dass ein reiner 4-Kerner nicht reicht.
Dann kommt man zu dem Schluss, dass mehr als 6 Kerne wenig bringen und 8 überhaupt nix. Das is leider ein Trugschluss.

Die Engine skaliert sehr gut mit mehr Kernen. Bereits ein R5 3600 is 20% schneller als ein 7700K und ein 9900K is 35% schneller als ein 7700K.

Wenn ich schon CPU-Tests mache, dann möchte ich doch sehen, wie die Engine skaliert, aber im GPU-Limit sehe ich leider überhaupt nichts.

Dann, die Formulierung "krampfhaft" im Bezug auf die PCGH Testweise, das finde ich nicht schön.
 
  • Gefällt mir
Reaktionen: Rage, KlaraElfer, Celinna und eine weitere Person
Verstehe gar nicht, wie so viele auf die Grafik abfahren.

Im Vergleich zu anderen und auch älteren Games sehen Breakpoint und Wildlands echt kacke aus :D.

Erinnert mich etwas an "Boiling Point".

Also im Vergleich (!). Es gibt schöne Eckchen und Texturen und dann gibts mehrheitlich Copy&Paste-Grafikmatsch.

Da sieht The Evil Within grafisch besser aus.
Oder von mir aus auch Resident Evil 2.

Ich sehe da keinerlei Rechtfertigung für diesen enormen Leistungshunger (Und ja, ich besitze die genannten Games und hab sie auch wirklich alle gespielt ^^).

Naja, Geschmackssache eben.
 
In eurem CPU Test sieht man nur, dass der 8100 zumeist im CPU Limit hängt, alles andere hängt zu >90% der Zeit im GPU Limit. Well done.
 
sifusanders schrieb:
interssante Skalierung der Graphen
Die ist bei Presets immer so - Grafikkarten-Benchmarks kommen ja später mit normaler Skalierung :)
Rage schrieb:
Warum sind Ultra-Details jetzt so realistisch? Ich lehne mich mal soweit aus dem Fenster, dass viele Leute in Hoch oder sogar Medium spielen, dann könnte es auf einmal auch Unterschiede zwischen den Prozessoren geben.
Für eine 2080 Ti ist Ultra-Grafik weder für Full HD noch für WQHD unrealistisch. Bei anderen Grafikkarten sieht es natürlich anders aus.
Der Paule schrieb:
Das sind zwei unterschiedliche herangehensweisen. Aus eigener Erfahrung macht aber genau dieses "Praktisch aber so gut wie nicht" oft den Unterschied ob ich generell eine gute Performance habe, oder eben hin und wieder Spikes nach unten (auf das gesamte Spiel bezogen in meinen Settings und nicht nur nicht nur auf eine Benchmarkszene). Ich bevorzuge da eindeutig die CPU auch im CPU Limit zu testen. Besser wären beide Ansätze kombiniert, da mich natürlich die Alltagssettings auch interessieren, das wäre jedoch auch mit mehr Arbeit verbunden. Müsste ich mich entscheiden, würde ich den Ansatz von PCGH bevorzugen. Ich will in CPU Tests ja schließlich wissen, was mir eine bessere CPU theoretisch mehr bringt.

Ja, klar sind das zwei unterschiedliche Herangehensweisen. Falsch sind beide nicht, doch haben beide halt ein anderes Ziel. Das zwangsweise entstehende Problem bei der PCGH-Variante ist natürlich, dass ich nach den Benchmarks keine Ahnung habe, wie das Spiel mit "meiner" (bzw. einer ähnlichen) CPU nun funktioniert. Der Nachteil unserer Variante ist entsprechend, dass man nicht zwangsweise (wie in diesem Fall) im absoluten CPU-Limit testet, sondern oft nur im teilweisen. Man müsste eigentlich beides machen, um alle relevanten Informationen zu erhalten.

v_ossi schrieb:
Sorry, aber das ist doch absurd. Bei den Grafikkarten fährt man absichtlich ins GPU Limit und testet mit Einstellungen, die die Grafikkarten überfordern, aber bei CPUs sollen jetzt "praktische Auswirkungen" aufgezeigt werden?

Wie realistisch sind denn Grafikeinstellungen, bei denen eine RX 580/590 oder GTX 1060 in FullHD im Schnitt bei ~30fps herumkrebsen und im 99,8 Percentile bei ~26 fps liegt. So spielt doch Niemand.
Ne GTX 1080 quält doch auch kaum Jemand in 4k auf unter 30 fps runter.
Die Settings bei Grafikkarten-Benchmarks in Spiele-Tests sind nie absichtlich nach dem GPU-Limit ausgewählt - das Verfahren resultiert nur oft darin.

Ich gehe da folgenderweise mit vor: Als Grafikkarte nutze ich eine RTX 2070. Die muss in Full HD um die 60 FPS liegen. Tut sie das, wird das entsprechende Setting gewählt. Ist die Framerate höher, wird die Grafikqualität hochgedreht. Ist sie niedriger, wird diese reduziert. Für WQHD visiere ich mindestens ~45 FPS an, sodass die schnelleren Modelle noch gut spielbar sind. Für Ultra HD mindestens 30 FPS, dann reicht es halbwegs zumindest für die 2080 Ti noch.


meckswell schrieb:
Dann, die Formulierung "krampfhaft" im Bezug auf die PCGH Testweise, das finde ich nicht schön.
Das krampfhaft war in dem Fall nicht negativ gemeint. Die Kollegen haben halt alles versucht, um die GPU-Last zu reduzieren (720p und Temporal Injection an). Das ist regulär für CPU-Benchmarks im reinen CPU-Limit. Das wollen wir hier aber nicht zeigen.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC, v_ossi, NMA und eine weitere Person
Loot-Shooter... ist doch immer das Gleiche... nach 1-2 Stunden farmen wirds doch immer langweilig.

Hab schon so einiges durch... Destiny 1 + 2, Division 1 + 2 usw...
 
Wunderbar!
Der Testartikel ist einfach wunderbar ausformuliert geschrieben.
Ich habe mich sehr gut unterhalten und informiert gefühlt.

@GPU
Das die "alte Garde" von AMD so deutlich schlechter abschneidet ist alarmierend.
Ein wenig muss ich dabei an die häufig benannten Vorwurfshaltungen, diverser Forenteilnehmer denken, diese eine gewisse Absicht, in Software manifestiert, darin zu erkennen vermag.

Ich danke sehr für diesen wohlmundenden Artikel.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC
Wolfgang schrieb:
Das krampfhaft war in dem Fall nicht negativ gemeint. Die Kollegen haben halt alles versucht, um die GPU-Last zu reduzieren (720p und Temporal Injection an). Das ist regulär für CPU-Benchmarks im reinen CPU-Limit. Das wollen wir hier aber nicht zeigen.
Ich habe mir eure 1080p CPU-Tabelle und die 720p CPU-Tabelle vom PCGH angesehen.
Meine Erkenntnis: CPU spielt eine große Rolle in 720p und erst ab 1080p so gut wie gar nicht. Also vom CPU-lastiges (720p) zum GPU-lastiges Spiel (1080p und höher).
 
Nero2019 schrieb:
CPU spielt eine große Rolle in 720p und erst ab 1080p so gut wie gar nicht. Also vom CPU-lastiges (720p) zum GPU-lastiges Spiel (1080p und höher).

Es hat nichts mit der GPU zu tun, wenn die CPU unter Spikes bei starkem Streaming leidet. Das kann man nicht mit GPU-Limit deckeln/maskieren.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Wieder ein Spiel wo die CPU (mehr als 4C/4T sollten es schon sein) irrelevant ist. Hier liegt es wohl aber an der GPU Belastung die immer immens ist und dabei eigentlich viel zu wenige fps raushaut.
 
Wolfgang schrieb:
[...]Ich gehe da folgenderweise mit vor: Als Grafikkarte nutze ich eine RTX 2070. Die muss in Full HD um die 60 FPS liegen. Tut sie das, wird das entsprechende Setting gewählt. Ist die Framerate höher, wird die Grafikqualität hochgedreht. Ist sie niedriger, wird diese reduziert. Für WQHD visiere ich mindestens ~45 FPS an, sodass die schnelleren Modelle noch gut spielbar sind. Für Ultra HD mindestens 30 FPS, dann reicht es halbwegs zumindest für die 2080 Ti noch.[...]

Das liest sich gut, aber wenn bei dem CPU Test der "kleine" Ryzen (6K/12T) aus der erster Generation, ein 4K/8T Kaby Lake und der 8K/16T 9900k im Bereich der Messungenauigkeit beieinander liegen, sollte man entweder andere CPUs wählen, den Test anspruchsvoller gestalten oder kann sich den restlichen Aufwand sparen und die Ergebnisse extrapolieren.
 
  • Gefällt mir
Reaktionen: KlaraElfer, bad_sign und Dedder
Breakpoint ist ein liebloser Loot Shooter.

Wir haben es uns leider gekauft, zocken aber wieder Wildlands.
Breakpoint ist in allen belangen schlechter als Wildlands, einzig die Animationen sind besser geworden. Das wars dann auch schon, der Rest ist ein Witz.
 
  • Gefällt mir
Reaktionen: MouseClick68 und KarlsruheArgus
Zurück
Oben