Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestJust Cause 3 Benchmarks: CPU-Limit bei AMD und weniger Speichertakt bei Maxwell
Genau so schauts aus, die big Maxwell Karten sind hier im leichten CPU Limit. Die sind so weit in Front bzw. das CPU Limit ist so nah, das beim einschalten des Effekts dann die FPS leicht stärker runter gehen als bei AMD die vom CPU Limit weiter weg sind. Bei hohen Einstellungen ist zwar dann die GPU mit dabei, aber da greift der CPU Overhead dann wieder mit rein.
Ansonsten wieder ein Trauerspiel bei Fury 4GB v. big Maxwell. Schon wieder komplett vernichtet worden. 1:1 Wie zu Zeiten 8800GTX v. HD 2900XT. Da waren zufällig auch die AMD Mittelklasse Karten ein weng besser als 8600GT und co.
@CB Bleibt bitte dran mit dem langsamen Speichertakt, da bin ich echt noch gespannt ob das gefixed wird.
Pff... dummes Geschmarr... der Treiber hängt wie auch beim neuen Batman, im P2 State fest... kann man mit nem Bios flash auch umgehen, ist zwar unsauber, aber geht...
Bei Batman wurde es auch einfach mit nem neuen Treiber gefixed...
Und bei jedem neuen Artikel muss mindestetens einmal die AMD/NV Debatte mal wieder angefacht werden... oder wie wichtig die Menge des Grafikspeichers ist.
Seltsames Verhalten das die AMD Gpus ins Cpu Limit laufen während die Nvidia Gpus das Problem seltsamerweise nicht zu haben scheinen. Hat sich wohl einer bei Nvidia gedacht lassen wir bei AMD Karten die Cpu noch zusätzlich Pi berechnen damit die AMD Karten ja nicht schneller sind.
Das Verhalten ist nicht wirklich seltsam sondern relativ normal. Nvidia schafft es einfach nur die CPU stärker auszulasten und so mehr von der vorhandenen CPU Leistung zu nutzen und kann deshalb im CPU Limit mehr Rechenleistung aus der Grafikkarte kitzeln. Für DX11 Spiele im CPU Limit ein recht normales Verhalten bei den Karten beider GPU Schmieden.
Wenn ich raten müßte dann würde ich tippen dass das Spiel selbst effektiv nicht mehr als 2-3 der vorhandenen CPU Kerne nutzt. Nvidia schafft es vermutlich mit dem einen oder anderen Treiber Trick die CPU stärker zu belasten.
Hier ist vermutlich auch die Erklärung für das Gameworks Verhalten.
Wenn sich die GPU aufgrund des CPU Limits so massiv langweilt das sie sich sogar runter taktet dann hat sie natürlich auch massig freie Rechenleistung die dann z.B. für die Tesselation zur Verfügung steht. Mit steigender Auflösung steigt dann auch die GPU Last, man rutscht immer weiter vom CPU Limit weg und die GPU kann endlich durchstarten.
Deshalb iszt es auch Blödsinn dass man für eine höhere Auflösung mehr CPU Leistung benötigen würde, das Gegenteil ist der Fall.
Diese ganze CPU Auslastungsproblematik sollte mit den Mantle, DX12 und Vulkan APIs aber weitestgehend Geschichte sein weil diese deutllich besser mit multicore Prozessoren harmonieren.
tic-tac-toe-x-o schrieb:
Das ist bei recht viele aktuelle Spiele so. Bei manchen fällts nicht auf (aber da limitiert dann auch die GPU, z.B. bei Witcher 3) und dann gibts eben so CPU intensive Spiele, wo die CPU so ausgelastet wird, dass sie die AMD Karten nicht mehr richtig füttern können. Die Nvidia Karten haben weniger DX11 CPU Overhead und da gehts einfach besser... Frag mich ja nicht wie.
Mehr Leistung aus einer höheren CPU Auslastung zu schöpfen hat nichts mit einem angeblich geringeren Overhead zu tuen. Da geht es nur um die effektivere und nicht um die effizientere Nutzung der Kerne.
Ergänzung ()
Kasmopaya schrieb:
Ansonsten wieder ein Trauerspiel bei Fury 4GB v. big Maxwell. Schon wieder komplett vernichtet worden. 1:1 Wie zu Zeiten 8800GTX v. HD 2900XT. Da waren zufällig auch die AMD Mittelklasse Karten ein weng besser als 8600GT und co.
@CB Bleibt bitte dran mit dem langsamen Speichertakt, da bin ich echt noch gespannt ob das gefixed wird.
Schwachsinn....die 2900XT brach vor allem beim FSAA massiv ein, die Fury Modelle holen mit steigender Auflösung immer weiter auf.
Mit anderen Worten die Maxwell Modelle brechen mit steigender Auflösung zum Teil deutlich stärker ein.
wenn ich mir das Grafikkarten Benchmark in 1920 anschaue, wo wäre denn meine Gigabyte GTX 770 OC 4gb einzuordnen?
Bei der GTX 770 direkt? Bin was Grafikarten betrifft nicht so aufm neusten Stand
Ich frage mich dauernd warum AMD es nicht schafft ihr CPU Overhead zu reduzieren.
Könnte es vielleicht daran liegen, dass sie sich in Punkto Mantle/Vulcan und DX12 verkalkuliert haben? Es ist ja ziemlich schade, dass die absolute Mehrheit der Entwickler noch immer nicht auf effizientere Schnittstellen umgestiegen sind.
Andererseits sind es ja gerade AMD APUs die, in Consolenform, den Technik-takt angeben.
Ich erwarte jedenfalls dass durch DX12 die ältere technik (2013) noch mal etwas länger als Mittelklasse Bestand haben wird. Mal sehen.
Also ich bin etwas enttäuscht von der Grafik und der dazu schlechten Performance. Spiele in 4K auf ner Titan X 1400Mhz / Speicher drosselt auch runter im Game. Game ready Driver ist drauf aber es läuft überhaupt nicht rund. Alles auf Maximum gestellt außer AA auf FXAA. Teilweise läuft das Spiel flüssig wenn man in die eine Richtung kuckt, und die GPU ist zu 99% ausgelastet, kuckt man in die andere Richtung gehen die Frames auf Ca 30 FPS runter, es ruckelt, und die GPU arbeitet nur mit 50-60% Auslastung. Habe zwar JC2 lange nicht mehr gespielt, aber glaube das sah bald besser aus. Naja ich glaube ich warte noch bis ein Patch/Treiber rauskommt. So macht das keinen Spaß. Und Details stelle ich nicht runter, das Game sieht so schon aus wie auf Minimalen Details:-P
Hier ist vermutlich auch die Erklärung für das Gameworks Verhalten.
Wenn sich die GPU aufgrund des CPU Limits so massiv langweilt das sie sich sogar runter taktet dann hat sie natürlich auch massig freie Rechenleistung die dann z.B. für die Tesselation zur Verfügung steht.
Die effizienteste Schnittstelle nützt dir nichts, wenn sie nur von 20% der verbauten oder erhältlichen Grafikkarten unterstützt wird. AAA-Spieleentwickler beschränken sich notgedrungen auf den kleinsten gemeinsamen Nenner. Wenn DX12 so weit ist, dass der Renderpfad in den GPUs rund läuft und bedenkenlos eingesetzt werden kann, wird das dann zum kleinsten gemeinsamen Nenner.
Das einzige was dann noch dazwischenfunken könnte ist die Tatsache, dass der Spieleprogrammierer bei DX12 mehr Eigenverantwortung hat und sich um mehr Dinge selbst kümmern muss als bei DX11. Es könnte dann länger dauern oder mehr Personal erfordern ein Spiel in einer bestimmten Zeit fertigzustellen. Sollte das ein Problem sein, würde man möglicherweise wieder auf DX11 zurückfallen.
Vermutlich will man bei AMD einfach nicht mehr so viele Mannstunden in die Optimierung des totgesagten DX11 stecken
Man muss aber auch sagen dass die letzten Games ohne irgendwelche speziellen Treiber relativ optimal liefen.
Und meistens muss man nur ein Setting abändern, mit dem man wieder einiges an Mehrleistung rausholen kann .. Bei Fallout war es Tesselation und Schatten und schwupps - 100fps geknackt. Aber das ist bei Nvidia Karten nicht anders ... speziell wenn GameMurks ins Spiel kommt.
beim Overhead verlässt sich AMD voll und ganz auf DX12. Hier steckt man nicht mehr viel Asche in den DX11 Pfad. Irgendwo muss man den Rotstift ansetzen, schaut euch die Zahlen an. Dafür steht AMD noch echt gut da... aber auch die Hardware "Vielfalt" der letzten 2 Jahre zeigt AMDs Sparkurs.
ComputerBase hat sich letztendlich für SMAA entschieden, das aktuell am meisten überzeugt.
XReaper schrieb:
Liebe Autoren: Wenn ihr testet, dann solltet ihr auch den aktuellen NVIDIA GeForce Driver 359.06 WHQL von heute nehmen, der für das Game optimiert ist.
Damals auf der PS2 hab ich das erste mal Just Cause gespielt. Das war echt einzigartig (Coco Fresco )
JC 2 hab ich mir für PC besorgt und musst leider feststellen, dass es nicht so richtig gut war. Habs vielleicht 5 h gespielt
JC3 hab ich mir noch nicht besorgt, weil ich nicht so richtig überzeugt bin. Mal gucken was die Zukunft bringt.
Tja dumm für ihn, dass das weibliche Hauptgeschlechtsteil hauptsächlich auf Druck und Reibung reagiert, kaum auf die Länge des mänlichen Gliedes. Dumm gelaufen ^^
Danke an CB für den Tipp mit dem DSR, die virtuelle Auflösung auf 3K gesetzt und es schaut damit echt knackig aus.
Keine Ruckler oder andere Probleme bei mir wieder mal. Einmal ist es gecrasht, der built-in Debug Uploader is übrigens auch eine gute Idee. Mir taugts, hab bis 4 Uhr früh gezockt, dafür hab ich jetz a so a Aug' ... *zzz-schlummer*
CB als seriöse Seite könnte ruhig mal versuchen dem auf den Grund zu gehn.
Es gibt doch bestimmt eine einfache Möglichkeit CPU Interaktionen (nicht nur anhand der Auslastung) zu visualisieren.
Mikey158 schrieb:
@CB:
Warte noch auf den Test mit den CPU´s; zwecks CPU-Limit (bitte FX einbinden)
Ansonsten wieder ein Trauerspiel bei Fury 4GB v. big Maxwell. Schon wieder komplett vernichtet worden. 1:1 Wie zu Zeiten 8800GTX v. HD 2900XT. Da waren zufällig auch die AMD Mittelklasse Karten ein weng besser als 8600GT und co.
Sag mal, hörst Du Dir eigentlich selber zu? In den Auflösungen, wo es auf viel Grafikspeicher ankommen sollte (2.560 × 1.440 und 3.840 × 2.160), sind es einmal 9% und dann 2% mehr für die 980Ti gegenüber der Fury X. Und Du nennst das "komplett vernichtet" xD. Ich glaube, dass es Dich insgeheim ärgert, dass obwohl die Fury X "nur" 4GB VRAM besitzt und obwohl es sich bei JC3 um einen Nvidia GameWorks-Titel handelt, trotzdem so gut abschneidet, nicht war? Oder ist es die 390X (Hawaii-Refresh aka Grenada XT), die mit "veralteter" Technik mit der 980 (Maxwell) mithält und diese in höheren Auflösungen sogar überholt?
Wie ich schon Deinem grünen Fraktionsfreund yui geschrieben habe: Der Neid ist die höchste Form der Anerkennung . Danke dafür.
Deine Kommentare sind wahrlich das einzige Trauerspiel hier, um ganz ehrlich zu sein.
Ich weiß ja nicht.... man bekommt das Gefühl, die ganze AA-Geschichte gelangt an die Grenzen. Vor allem wenn es um das Glätten von Vegetation geht. Im Laufe der letzten 10 Jahren wurden massig Methoden auf den Markt geworfen, aber keines überzeugt komplett.
Eigentlich wird es Zeit, die Renderingmethoden grundsätzlich zu überdenken.
Ich bin gerade noch dabei den Test zu Ende zu lesen und die Kommentare folgen danach,
wenn meine Frage daher schon beantwortet wurde tut's mir Leid.
Aber:
Wie kann es denn sein, dass die AMD Karten ins CPU-Limit rennen aber die Nvidia Karten mehr FPS bringen?
Ich dachte wenn ein CPU Limit herrscht, nützen stärkere Grafikkarten nur noch marginal etwas.
Müssten dann nicht auch die Nvidia Karten entsprechend ins Limit laufen??
Wenn ich hier 'nen Denkfehler hab oder etwas übersehe bin ich über jede Aufklärung dankbar,
mich verwirrt das gerade und ich würd's gerne verstehen ^^.