• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Ghost Recon Breakpoint im Test: Loot-Shooter mit extremen GPU-Anforderungen

WOW Und so gut siehts auch nicht aus. hm.. Patch regelt vielleicht etwas nach :)
 
@Vigilant

Er dürfte aber recht haben. Nur weil die CPU eine Auslastung von unter 100% zeigt bedeutet das nicht, dass kein CPU Limit vorliegt. Erhöhe mal die Auflösung (über DSR wenn schon bei nativ angekommen) und überprüf, ob die GPU Auslastung dann auf 99% steigt - dann hast Du den Beweis für das CPU Limit absolviert :)
 
  • Gefällt mir
Reaktionen: Mcr-King
CPU-Benchmarks von PCGH - das ist das erste Mal, dass ich einen i7 2600K so weit abgeschlagen sehe, noch deutlich hinter dem i5 7600K Vierkerner.
Oder ist denen ein Fehler unterlaufen?


GRB CPU Benchmark.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: [wege]mini und Mcr-King
Komisch mit dem 2500k bin 8ch in der Beta ganz gut gefahren. Seltsam was pcgh da misst 😮
 
m.Kobold schrieb:
Die heutigen Prozessoren sind nichts anderes als Refreshs vom 3-4 Jahre alten 6700k und nur paar Prozent schneller, du hast von Hardware anscheinend nur wenig ahnung. Und 99% der Spiele da draußen machen eh kein nutzen von den Mehrkernen von den neuen Intel/AMD CPU's.
Bei Spielen bis 2015 würde ich in Ansätzen zustimmen. Ansonsten ist deine Aussage eine erbärmliche Art sich seinen eigenen Prozessorkrüppel schön zu reden.
Mehrkernfähigkeit hat nix mit dem Spiel sondern immer mit der Engine zu tun. Und es gibt riesige Unternehmen die nur auf EINE Engine mit Mehrkernunterstützung setzen, EA z.B.
Dass das Spiel so schlecht performt ist also ganz einfach die fehlende Anpassung an die heutigen Gegebenheiten. Hier wurde geschlampt. Und nur deshalb ist eine solche Krüppel CPU (wie Deine) im Stande trotz total veralteter Technik bei solch einem Spiel/Engine als Klassenbester hervorzugehen (in diesem Benchmark).
 
  • Gefällt mir
Reaktionen: weltmeister, Öcher Tivoli und Mcr-King
Ohje...
Sieht wieder nach dem Trend aus alte Gens werden nicht mehr optimiert und die neuen laufen dafür super... schade... hat ja jetzt doch viele Jahre gehalten... denke durch das Ende der aktuellen Konsolengeneration und der anstehenden neuen 2020 und eben der neuen Architektur ist das schlüssig.

Was ich aber nicht verstehe, diese Art Games sehen kein Deut besser aus, teils sogar schlechter als vergleichbare Games, ziehen aber enorm viel Performance.
An der Rohleistung kann es nicht liegen, die ist nämlich bei GCN immer noch sehr hoch, bei Nvidia ist es (leider) normal, dass Mittelklasse wie jetzt die 1060 (mal wieder) schnell abgeschlagen ist... bei AMD hätte ich mir jedoch bessere Optimierungen erwartet und nicht nur auf Current Gen.
Ist einfach schwach, wenn eine 580 schon bei FullHD Probleme hat bei so einer bescheidenen Grafik... auch Vega müsste deutlich besser abschneiden. Da haben die Entwickler geschlampt und nur für neue Gen optimiert. Typisch PC mal wieder... was da möglich wäre.... aber naja in dem Punkt werden die Konsolen immer im Vorteil sein.

Am PC ist halt echt die Kruks, entweder man hat High-End die nie richtig ausgenutzt wird oder Last Gen die nicht mehr optimiert wird...
 
Schon bemerkenswert, dass selbst die 5700 non-XT die RTX 2070 in FHD und WQHD schlägt. Damit hätte ich so nicht gerechnet. Die RDNA-Architektur ist wirklich kein schlechter Wurf von AMD. Hut ab!
 
  • Gefällt mir
Reaktionen: adius, sifusanders und [wege]mini
Palitore schrieb:
Oder ist denen ein Fehler unterlaufen?

so richtig passen die werte nicht....

auf jeden fall bencht pcgh in 720p. das ist schon mal gut. damit sieht man auch tatsächliche unterschiede bei den cpu´s.

bei 1080p hängen ja, wie man bei CB schön sieht, schon alle cpu´s im gpu limit der rtx2080ti. :stock:

eigenartig sind die super miesen werte der 1ten vierstelligen core generation zwar wirklich, hier kann ich mir aber vorstellen, dass ghost recon massiv am ram durchsatz hängt.

mit DDR3 1600 mhz reißt man heutzutage keine bäume mehr aus. selbst mit einem auf 4ghz übertakteten system an der cpu.

mfg

p.s.

SV3N schrieb:
dass selbst die 5700 non-XT die RTX 2070 in FHD und WQHD schlägt

ohne jetzt auf die frage einzugehen, was die entwickler mit der ganzen power machen, rein von den daten her sind beide karten ja vergleichbar.

beide haben round about 8 tera flop leistung und 450 GB/s ram durchsatz.

jetzt muss die architektur bei amd in die konsolen, also haben sie von anfang an auf spiele leistung gesetzt. endlich kommt die leistung auch auf die straße und die software guys müssen halt auf RDNA(2) optimieren wegen der beiden neuen konsolen.

wirklich "überraschend" ist das nicht. treffen wird es aber die vega besitzer, die wohl davon nichts mehr haben werden. hier funktioniert die fine wine technologie dann leider mal nicht....
 
Zuletzt bearbeitet:
Bei mir ist selbst in 1440p die 2080ti nicht der limitierende Faktor. Die meiste Zeit bewegt sich die GPU-Auslastung zwischen 80-90%.
Ich gehe eher stark davon aus, dass die Software/API hier limitiert.

Das erinnert mich stark an The Evil Within2, wo auch die Engine der limitierende Faktor gewesen ist.
 
SKu schrieb:
Bei mir ist selbst in 1440p die 2080ti nicht der limitierende Faktor. Die meiste Zeit bewegt sich die GPU-Auslastung zwischen 80-90%.

Hm, aber ein CPU-Limit ist es nicht?! Bei mir war die Auslastung höher, aber ich spiele auch in UWQHD. Die CPU schien dabei nie das Problem zu sein.
 
SKu schrieb:
Ich gehe eher stark davon aus, dass die Software/API hier limitiert.

ja sry....das nenne ich immer gpu limit...hat natürlich wenig mit hardware der gpu zu tun.

kA warum hier die software heinis auf dx 11 gesetzt haben, evtl. einfach wegen der zeit. die "alte" engine musste halt weiter verwendet werden.

https://www.reddit.com/r/Amd/comments/5xeflc/ryzen_dx11dx12_draw_call_performance/

schöner überblick, wie sehr dx11 hier wirklich hinderlich sein kann, bei vielen objekten. :stock:

mfg
 
AYAlf schrieb:
Die Anforderungen sind nicht hoch, sie sind nur nicht auf die neuen Karten und Prozessoren angepasst, wie es ausschaut.
Wie kann es sonst sein, dass der schon bei Release uralte Intel Core i7-7700K (4K/8T) so gut abschneidet? Zumal ein 7700K immer noch relativ gut ist für fast alle Spiele.

Bitte was? Da das Spiel kaum Prozessorleistung braucht ist es doch logisch das der 7700K so gut abschneidet o_0.
Ergänzung ()

Vigilant schrieb:
Lol... das einzige, was hier limitiert ist, ist der Optimierungsgrad der Software.

Jain. Es ist dann definitiv ein CPU Limit. Ob das jetzt deswegen ist weil der Prozessor zu lahm ist oder die Software zu dumm ist die CPU richtig auszulasten ist da erstmal egal, dass Ergebnis ist das selbe.
 
Ich interpretiere es nicht so, dass das Spiel keine CPU-Leistung braucht, sondern dass das Spiel einfach nicht in der Lage ist, entsprechend zu skalieren.

Eigentlich weiss die Engine gar nicht, was sie eigentlich will.

"Ich will Leistung!"
"Hier hast du einen i9 9900k 5GHz all-core"
"Nein!"
 
  • Gefällt mir
Reaktionen: Zitterrochen, MurphysLaw, Aduasen und eine weitere Person
SV3N schrieb:
Schon bemerkenswert, dass selbst die 5700 non-XT die RTX 2070 in FHD und WQHD schlägt. Damit hätte ich so nicht gerechnet. Die RDNA-Architektur ist wirklich kein schlechter Wurf von AMD. Hut ab!
ich bin eher schockiert wie schlecht GCN , vor allem die RVII, abschneidet. Bin sonst mit der Karte eigentlich sehr zufrieden, vor allem wenn man sie übertaktet hat. Das hier ist allerdings ein Armutszeugnis.
 
[wege]mini schrieb:
auf jeden fall bencht pcgh in 720p. das ist schon mal gut. damit sieht man auch tatsächliche unterschiede bei den cpu´s.
bei 1080p hängen ja, wie man bei CB schön sieht, schon alle cpu´s im gpu limit der rtx2080ti. :stock:


Ich habe mich auch gerade gewundert, wieso mein i7 7700K so gut abschneidet. :D
Wenn man die reine CPU Leistung testen will, muss doch die Auflösung deutlich runter.
Ganz besonders, wenn man vorher schon festgestellt hat, dass eine 2080 TI selbst in FullHD ist GPU Limit rennt.
 
  • Gefällt mir
Reaktionen: Mcr-King und [wege]mini
hamju63 schrieb:
Wenn man die reine CPU Leistung testen will, muss doch die Auflösung deutlich runter.

am ende soll es ja aber auch kein cpu benchmark werden :heilig:

pcgh hat werte benutzt, die auf die geschwindigkeit der cpu rückschließen lassen und dafür settings benutzt, die keiner zum gamen nutzt.

die meisten werte sind, wie zu erwarten. (der i7 2600 ist aber echt schlecht)

bei CB zeigt man, dass mit FHD auch ein 7700k in das "gpu limit" rennt und nennt ganz zum schluss den wohl wahrscheinlich schuldigen (die DX11 schnittstelle).

dx12 oder mantle helfen doch nicht nur schlechten cpu´s....wenn die gpu wirklich viel power hat, limitiert irgend wann die schnittstelle auch richtig schnelle cpu´s.

mfg
 
Und was ist mit Frametimes? Die sind von einem Hexa- und Octacore viel glatter als mit einem Quadcore mit SMT. Aber schöne CPU-Benchmarks, jetzt kann ich jedem meiner Freunde erzählen, dass sie ihren 9900K verkaufen können, da der i3-8100 in 4K schneller unterwegs ist. Wieder Geld gespart!
 
Ion schrieb:
jetzt kann ich jedem meiner Freunde erzählen, dass sie ihren 9900K verkaufen können, da der i3-8100 in 4K schneller unterwegs ist.

man kann tatsächlich settings erzeugen, in denen ein i3 - 8100 optimiert schneller ist, als ein 9900k stock.

https://www.computerbase.de/forum/t...kelt-fps-brechen-ein-framedrops-lags.1367247/

ein schöner fred.

über nerd dinge wie auslagerungsdatei in der ramdisk wird ja dort noch gar nicht geredet. :evillol:

hier haben wir mal ein (weniger) gutes beispiel, wie man durch grafik und schnittstelle eine cpu limitieren kann, so etwas wird es aber am software markt immer geben.

mfg
 
Zurück
Oben