Test Fortnite, LOL, PUBG & Co.: Bis zu 26 Prozent schneller mit neuen Ryzen-2000-CPUs

motul300 schrieb:
Und auf welche Grafikkarte will man aufrüsten wenn schon mit einer 1080ti gemessen wurde?
Oder willst du mir erzählen dass du dir später ne 1180ti holen willst für Full HD?
Ich lese heraus, dass Du fälschlicher Weise davon ausgehst, dass die Auflösung das einzige Kriterium ist, welches den Grafikkarten Leistung abverlangt.

Bevor ich wegen Lieblingssoftware XY in der mir die 30 FPS in Full HD zu lahm sind, blind eine neue Grafikkarte kaufe, nur um dann festzustellen, dass sich die FPS keinen Deut erhöht haben, weil nämlich der Prozessor bremst, werfe ich und jeder annähernd vernünftige Mensch dann doch eher mal einen Blick auf die 720P Tests.

Verrückt sind eher die, die es nicht tun, Geld für die GK ausgeben und dann rumheulen, dass es nicht schneller geworden ist, weil von Grundauf die CPU den Flaschenhals dargestellt hat. Aber das hatten wir ja auch schon zu genüge in den Foren...

Grüße
Zero
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Bevor ich wegen Lieblingssoftware XY in der mir die 30 FPS in Full HD zu lahm sind, blind eine neue Grafikkarte kaufe, nur um dann festzustellen, dass sich die FPS keinen Deut erhöht haben, weil nämlich der Prozessor bremst, werfe ich und jeder annähernd vernünftige Mensch dann doch eher mal einen Blick auf die 720P Tests.

Und gibt es diesen von dir konstruierten Fall auch REAL mal an einem Beispiel ?

Welches game das in einem 1080p Test mit einer 1080 Ti bei 30FPS war so das das alle CPUs gestemmt haben und später mit einer noch stärkeren GPU man plötzlich noch mehr FPS bekommt. Und wo man das dann bei einem 720p Test gesehen hätte ?

Bis eine GPU kommt die 100% Mehr als eine 1080 Ti leistet ziehen 3 Jahre ins Land - oder mehr....

Also bitte 1 Beispiel für deinen Fall zeigen - dann glaub ich dir.
 
@Iscaran
Das kommt durchgängig vor. Im Normalfall wird die Grafikkarte weit häufiger aufgerüstet als der Prozessor bzw. die Systembasis.

Grüße
Zero
 
Esenel schrieb:
Um einen vernünftigen und auch durchwegs schnelleren 8-Kerner zu realisieren, müsste meiner Meinung nach Intel die iGPU entfernen und den gewonnen Platz für die Wärmeverteilung nutzen.

Aber die Intel-Jungs argumentieren doch immer, dass sie lieber Intel nehmen, um im Graka-Notfall noch ein Backup zu haben :hammer_alt: :freak:
 
ZeroZerp schrieb:
@Iscaran
Das kommt durchgängig vor. Im Normalfall wird die Grafikkarte weit häufiger aufgerüstet als der Prozessor bzw. die Systembasis.

Würdest du bitte meiner Frage nicht ausweichen sondern 1 Spiel ZEIGEN wo man deinen EFFEKT dass man aus einem 1080p Test heraus zu einem irreführenden GPU Upgrade kommen würde anstatt lieber die CPU aufzurüsten sieht.

EDIT: Das man die GPU öfter aufrüstet ist eben "normal" eben WEIL man in Games eigentlich NIE im CPU-Limit ist (sondern Engine/Software/API Limit/VRAM). Sieht man ja sehr gut am 2500K wie lange es gedauert hat bis man hier zu 100% CPU Last kommt. => Weiterentwicklung der Software (speziell auf mehr Multi) bringt sehr viel => "geringere" Alterung der CPU da bislang ungenutzte Threads ausgenutzt weden.
Siehe FX-8350.
 
Zuletzt bearbeitet:
Infect007 schrieb:
Aber die Intel-Jungs argumentieren doch immer, dass sie lieber Intel nehmen, um im Graka-Notfall noch ein Backup zu haben :hammer_alt: :freak:

Ja, das liest man doch schon häufig. Ich baue einfach ne alte Grafikkarte rein und bin dann noch flotter unterwegs, als mit Intel-IGP. Oder ich nehme meinen HTPC mit Ryzen 3 2200G, der hat auch mehr Grafikpower und kann die meisten Spiele deutlich besser bewältigen, als ein 8700K alleine mit seiner IGP.

So ein Grafik-Backup ist einfach weit hergeholt, wenn das tatsächlich so wichtig ist, sollte man auch Mainboard, Netzteil und Festplatte redundant verfügbar haben, und den Monitor auch.
 
Nachtrag:
Gehe ich von dem aktuellen Test aus und stelle die Frage lohnt sich ein GPU-Upgrade z.b. Auf eine RX580 oder GTX1060

Dann schaue ich nach Wieviel "langsamer" als eine 1080 Ti diese GPUs sind:
https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/

RX580 = ~52% 1080 Ti
GTX 1060 = ~50% 1080 Ti

Dann schaue ich in den Test hier mit 1080p (und zur Sicherheit nehme ich die 99%Perzentile weil uns ja stabile FPS wichtiger sind):
https://www.computerbase.de/2018-04/ryzen-2600-2700-fortnite-pubg-overwatch/2/

=> eine CPU die also mind. 52% der Leistung effektiv in dem aktuellen Test liefert ist stark genug die RX580 ins GPU Limit zu bringen.

Hier grafisch erklärt:
CPU_Limit_1080p.png

Das Limit verschiebt sich allerdings je nach INDIVIDUELLER Gusto und Wahl der Regler /Settings und ist auch individuell von Game zu Game verschieden...kann deswegen so einfach plakativ mit einem Avg Test überhaupt nicht angegangen werden. Ein 720p Test oder ein anderer Low-Res tests hilft mir hier also überhaupt nicht in der Entscheidung weiter. Es sei denn er teste GENAU DAS Spiel das ich möchte in Genau den Settings die ich auch habe !
Wenn dann kann man nur jeweils im EINZELFALL beim Vergleich EINES Games annähernd so etwas folgern.

EDIT: Im zweifelsfall rüste ich solange GPU nach bis ich irgendwann tatsächlich mal den Fall habe ein "CPU"-Limit zu sehen. Wenn das passiert rüste ich die CPU nach (und zwar idealerweise mit etwas das dann wieder 5-10 Jahre hält und nicht in 1 Jahre wieder zum alten eisen Zählt wie heute ein i3-8100)...

Wie ich selbst schnell und einfach sehen kann ob ich ein CPU-Limit habe geht mittels HisN-Methode:
https://www.computerbase.de/forum/threads/limitiert-cpu-xyz-die-graka-abc.818979/
"Es ist von Deiner Software abhängig, von der CPU-Last die sie verursacht und deren Einstellmöglichkeiten (die wir nicht kennen)
Es ist von Deiner Monitor-Auflösung abhängig (die wir nicht kennen)
Es ist von Deinen Vorlieben für Bildqualität abhängig (die wir nicht kennen)
"

Die einzige Antwort die es darauf geben kann ist: In der Regel betreibst Du Dein Game (vielleicht auch unbewusst) Graka-Limitiert. Es ist an sich egal wie schnell Deine CPU ist. Es würde sich allerdings anbieten kurz zu testen ob Du schon im CPU-Limit hängst.

"Schnelltest:
MSI-Afterburner installieren. GPU-Auslastung aufs OSD schalten.
Ackert die Graka 99%: Graka-Limit, ackert sie nicht 99%: CPU-Limit (oder vsync an). Einfach oder? Kann jeder innerhalb von 30 Sekunden die Frage selbst beantworten."
 
Zuletzt bearbeitet:
@Iscaran
Ich fürchte ich weiss nicht so recht, worauf Du raus willst, weil Beispiele gibts en Masse?

Dann nehmen wir mal ein aktuell beliebtes Beispiel:
https://www.youtube.com/watch?v=Hye-Yi7AtQQ

Ich sehe anhand dieses 720P Tests auf Ultra, dass wenn ich 60FPS erreichen will, es mit dem übertakteten 2600K, den ich vielleicht eingebaut habe überhaupt keinen Sinn macht eine stärkere Grafikkarte bei Seite zu stellen da der Prozessor nicht mal die 970er auslasten kann (GPU Limit durch 720p entfernt/abgeschwächt).

Ich kann also damit Rechnen, dass erstens die Performance mit ansteigender Auflösung eher etwas weiter in den Keller geht (gestiegene I/O- Last) und zweitens eine Grafikkarte, egal wie stark in höheren Auflösungen nicht mehr bzw. konsistentere Frames mit diesem Prozessor ausgeben wird.

Ansonsten - Arma, Gulid Wars, Mafia 3, Battlefield, Crysis etc. / Alle Spiele die in den 99te Perzentilen auf den Boden krachen, wenns auf die CPU geht sind anwärter für das Praxisszenario.

Grüße
Zero (der befürchtet, dass er nicht wirklich weiss, was Du meinst)
 
Zuletzt bearbeitet:
Ah....und deswegen wählst als Beispiel ein top aktuelles Game (wo alleine der Denuvo-VM kopierschutz eine eigene 8Thread CPU braucht um zu laufen) und eine CPU in unteren Segment der CPU liste (dieses Tests) welche nach 5/6 Jahren nutzungszeit nun also wirklich mal im CPU-Limit ist...und nimmst es als Beispiel wieso ein aktuelle CPU wie bsp. ein 2600X ja so schlecht ist.

In 5-6 Jahren wenn der 8700K und der 2600X wirklich an ihre Grenzen kommen werden - kann man ja nochmal den Vergleich ziehen und sehen wo die "performance" Lösungen i5-8400 oder i3-8100 geblieben sind. Vor allem wegen der 30€ gespart @8400 nicht SMT mitzunehmen ist eben leicht wenn man sich diese irreführenden 720p tests ansieht.

Zurück zu deinem Bsp. der 2600K schafft in ACO in dem Video immer noch ca 45-60 FPS avg.. Das reicht doch in dem Game zum zocken...=> Einfach die Grafiksettings hochdrehen bis die 970 schwitzt dann siehst auch dein CPU-Cap @60FPS nicht. Wegen der Grafikpracht zockt man das doch (und macht deswegen von Zeit zu Zeit GPU Upgrades).

Außerdem ist es genau das was ich in diesem CB-Test mit 1080p sehen kann....eine RX580 z.B. kann ich mit "nice" Einstellungen eben mit einem 2500K gerade noch so betreiben - denn die liefert in Max Settings eben auch nicht mehr FPS als 45-60.
https://www.computerbase.de/2017-10...afikkartenbenchmarks_von_full_hd_bis_ultra_hd
=> der 2600K reicht gerade so und ich stelle die 580 lieber auf MAX-Details. (reicht dann auch gerade so).

EDIT: und deine hochgelobte 970 kommt in ACO trotz allem nicht über 35 FPS und das obwohl das game bis zum erbrechen nVIdia optimiert ist...vermutlich schlägt hier der 3.5GB VRAM zu.

Vielleicht solltest du deine Frage dann anders Formulieren....welche GPU brauche ich um 100 FPS in ACO zu erhalten ?

Antwort: Gibt es noch nicht...die 1080 Ti capped bei 75....
=> Details runter drehen.
2. Antwort welche CPU bräuchte ich um 100 FPS (mit reduzierten Settings) zu erhalten...nur hier kann ein low-res test helfen...
Aber man möchte ja schon in mind. 1080p zocken...=> ich muss nicht darunter gehen.
Wenn das erst mit zukünftigen GPU Generationen vernünftig geht muss man halt 2-3 Jahre warten. Oder den Enginehersteller anpöbeln er möge doch bitte etwas performanter programmieren denn GPU Leistung wächst nicht auf Bäumen.
Ergänzung ()

Btw.

hier ein 1080p Test der mir SOFORT mitteilt dass ein 2500K in ACO hoffnungslos am Limit ist:
Und ein FX8350 ebenfalls (obwohl 8T, aber die IPC ist soviel niedriger dass die Gesamtleistung der CPU nicht an die eines 2600K rankommt:

Anhang anzeigen 677879

Selbt ein schneller 4C8T wie der 6700K ist hier nahe an seiner Leistungsgrenze...gerade ACO ist ein spiel das sehr schön zeigt dass man im Zweifel lieber NICHT auf das SMT verzichten sollte...der 8C16T Ryzen ist zwar gut ausgelastet hat aber noch Luft....auch bei einer 1080 Ti.

Wozu hätte ich hier also eine 720p Test gebraucht ? Nur um zu wissen das bei niedrigerer Auflösung (die ich lieber eh nicht am Display einstelle) die GPU bei niedrigen Settings immer noch CPU blockiert wäre ? Also nichts dass ich auch ohne Test nicht weiss ?
 
Zuletzt bearbeitet:
@ZeroZerp:

Iscaran hat schon richtig angemerkt, dass es ganz einfach ist herauszufinden ob die GPU oder CPU begrenzt. Starte ein FPS-Programm deiner Wahl; lass dir die Auslastugn der GPU und CPU anzeigen in den Spieleinstellungen deiner Wahl; logge es, wenn du es ganz genau wissen willst, mit um es auswerten zu können; dann siehst du was limitiert. Es ist besser zugeschnitten auf deine Bedürfnisse als irgendein Test dieser Welt es sein könnte und gibt dir genaue Auskunft wie es mit dem jeweiligen Spiel aussieht.
Wenn dein Ram anders getaktet ist als hier im Test, wenn du eine HDD statt SSD hast, wenn du eine andere Grafikkarte hast oder sonstwas anders ist als hier im Test gibt es dir wenn überhaupt Anhaltspunkte darüber wie DU abschneiden würdest, nicht mehr und nicht weniger.

Wieso kann denn nur die CPU oder GPU limitieren? Wenn die HDD nachladen muss brechen deine Frames ein, wenn du eine SSD hast die von 2011 ist hält sie selbstverständlich nicht mit mit den aktuellen SSDs also brechen sie da auch ein, hast du ein Onlinespiel ist deine Internetverbindung wichtig und auch die kann einbrechen, ein fehlerhaftes Mainboard was nicht genügend Saft bereitstellt und das System limitiert. Alles Faktoren die hier gar nicht mit einbezogen werden und auch nicht zur Argumentation hinzugezogen werden wollen. Sonst könnte man ja nicht so herablassend über die fehlenden 5% Leistung der AMDs äußern und müsste sich wirklich und tiefgehend mit seinem System und seinen vielen Komponenten auseinandersetzen.


OT:Man merkt aber schon wo die Reise hingeht: AMD holt weiter auf und die üblichen Fanboys werden noch schlimmer wüten und die kleinsten Prozentzahlen, minimalsten Vorsprünge, winzigsten Vorteile und miesesten Argumente heranziehen um ihre gekauften Produkte zu rechtfertigen. Es kann ja wohl nicht angehen, dass AMD Prozessoren hat die nicht nur mithalten können sondern gar besser sind in manchen (ebenfalls wichtigen) Szenarien. Was erlaubt sich AMD?
 
@Beyazid, Iscaran
Jetzt komm ich langsam garnicht mehr mit...

Genau diese Anhaltspunkte (CPU Limitierung etc. LIEFERT DER 720P TESTS DOCH!)
Irgendeinen Anhaltspunkt muss man den leuten doch liefern - Sonst bräuchte ich nämlich überhaupt nicht testen, weil die Wahrscheinlichkeit, dass der Leser exakt die gleiche Konfiguration betreibt wie der Tester, gegen 0 tendiert.
Auch die Engines entwickeln sich weiter.
Somit hätte kein Test Aussagekraft, die Zukunft bleibt Zukunft und wage Prognosen könnte man auch nicht treffen.

Und natürlich wähle ich bei meinem Beispiel eine CPU, die Limitiert, denn genau um dieses Thema geht es doch!
Der Nutzer mit einem Übertakteten 2600k erkennt sofort, dass es keinen Sinn hat, bei Assassins Creed Origins den 60FPS mit konstanten Frametimes hinterherzuhecheln. Das wird auch mit einer zukünftigen Grafikkarte nicht schneller laufen. Bingo! Den etwaigen Fehlkauf einer neuen Grafikkarte verhindert!

CPU Limit eben....

Und... Ein Test soll dem Leser ja gerade die Arbeit abnehmen alles selbst messen zu müssen. Was für Euch ganz einfach und logisch erscheint, ist für den 08/15 User eine unlösbare Aufgabe.

Und selbstverständlich sind CPU und GPU nur (wenn auch bedeutende) Teilaspekte, ob ein Spiel rund läuft.
Es ist immer das Gesamtsystem, was in Betracht gezogen werden muss.

Und wie gesagt- Tellerrand und so. Es gibt 144Hz Monitore, VR wo in knapp full HD 180 FPS erzeugt werden müssen - Da ist sowas wichtig! Wenn ich weiss, dass meine CPU in 720P in allen Spielen immer das maximale drückt, dann ist dieses Ding auch in VR mit an Sicherheit grenzender Wahrscheinlichkeit die beste Wahl.

Grüße
Zero
 
Zuletzt bearbeitet:
Der Nutzer mit einem Übertakteten 2600k erkennt sofort, dass es keinen Sinn hat, bei Assassins Creed Origins den 60FPS mit konstanten Frametimes hinterherzuhecheln. Das wird auch mit einer zukünftigen Grafikkarte nicht schneller laufen.

Korrekt und diese Aussage kann er exakt genausogut mit einem 1080P für ACO beantworten. (siehe GameGPU, siehe CB).
Wozud dann denn unnützen 720p der noch nichtmal im game relevanten 1080p settings läuft...wer weiss was da noch für limitierungen reinspielen (RAM I/O, HDD, SSD) etc. die bei 720p dann zwar als "limit" auftauchen bei 1080p aber fehlen würden.
 
Ich als neutraler User finde zb gut, dass AMD Druck macht, dies sollte schließlich dazu führen, dass Intel mit der 9th Core Generation mal wieder so richtig einen raus haut, haben dann alle was von. :)
 
Ozmog schrieb:
Infect007 schrieb:
Aber die Intel-Jungs argumentieren doch immer, dass sie lieber Intel nehmen, um im Graka-Notfall noch ein Backup zu haben :hammer_alt: :freak:
Ja, das liest man doch schon häufig. Ich baue einfach ne alte Grafikkarte rein und bin dann noch flotter unterwegs, als mit Intel-IGP. Oder ich nehme meinen HTPC mit Ryzen 3 2200G, der hat auch mehr Grafikpower und kann die meisten Spiele deutlich besser bewältigen, als ein 8700K alleine mit seiner IGP.

So ein Grafik-Backup ist einfach weit hergeholt, wenn das tatsächlich so wichtig ist, sollte man auch Mainboard, Netzteil und Festplatte redundant verfügbar haben, und den Monitor auch.

Anmerkung hier:
Das Grafik-Backup argument ist mmn. tatsächlich nicht besonders relevant.

Was aber nach wie vor kaum Beachtung findet ist die Tatsache, dass eine zweite Grafikeinheit prima für zusätzliche Monitore ist:
Musst man schauen was mit den Frames im Spiel passiert, wenn auf dem zweiten, an der gleichen Grafikkarte angeschlossenem Monitor GPU-Last (da reicht schon ein Youtube-Video) erzeugt wird. -> Die Frames brechen spürbar ein.
Läuft der zweite Monitor z.B. an der iGPU hat man diese Probleme nicht.
 
@Iscaran
Wenn sich aber Prozessor und Grafikkarte im getesteten Szenario die Waage halten, dann ist es eben nicht ersichtlich, ob bei einer Aufrüstung mit einer neu erscheinende Grafikkarte die FPS durch den Prozessor begrenzt würden.

Es geht um die Einschätzung der Reserven einer CPU im von der Grafikkarte ungebremsten Szenario und die sehe ich nicht, wenn eine GPU mit reinspielt
 
Xes schrieb:
Was aber nach wie vor kaum Beachtung findet ist die Tatsache, dass eine zweite Grafikeinheit prima für zusätzliche Monitore ist:
Musst man schauen was mit den Frames im Spiel passiert, wenn auf dem zweiten, an der gleichen Grafikkarte angeschlossenem Monitor GPU-Last (da reicht schon ein Youtube-Video) erzeugt wird. -> Die Frames brechen spürbar ein.
Läuft der zweite Monitor z.B. an der iGPU hat man diese Probleme nicht.

Wenn du den zweiten Monitor an der iGPU hast und auf dem ersten mit der GPU WoW spielst z. B., hast du selbst auf einem übertakteten i7 FPS Drops ohne Ende in WoW. Die iGPU schützt da in der Regel nicht davor, da es nämlich die CPU ist die dann die drops verursacht.
 
BestinCase schrieb:
Ich als neutraler User finde zb gut, dass AMD Druck macht, dies sollte schließlich dazu führen, dass Intel mit der 9th Core Generation mal wieder so richtig einen raus haut, haben dann alle was von. :)

Was soll denn bei IceLake großartig kommen, außer ein Shrink?
Der Shrink wird mehr Takt bringen, aber von der IPC hat sich seit Skylake nun gar nichts geändert und ich wüßte nicht, wie sie bei der Core Architektur plötzlich da nochmal wirklich messbare Prozent finden wollen, da die Core Architektur schon 8 Jahre optimiert wird?!

Von Skylake über Kabylake und Coffeelake leisten alle CPUs das gleich von der IPC, wenn sie gleich getaktet sind.
 
ZeroZerp schrieb:
Es geht um die Einschätzung der Reserven einer CPU im von der Grafikkarte ungebremsten Szenario und die sehe ich nicht, wenn eine GPU mit reinspielt

Reserven einer CPU lassen sich aber auch nicht aus einem 720p Test ableiten, da jedes Spiel, jede Engine eine CPU anders belasten. Hier treffen wir ja jetzt noch auf Engines die anfangs gar keine Ryzen Unterstützung hatten. Und wie Gamersnexus in seinem Ryzen Test angemerkt hat, ändert sich das grade drastisch. Spiele können mittlerweile mit Ryzen umgehen. Trotzdem helfen 720p Tests nicht für zukünftige andere Spiele. Der 720p Test kann eigentlich nur auf das eine Spiel bezogen werden und auch da nur, wenn nichts geändert wird über die Jahre. Aber grade diese Mainstream Games sind über die Jahre anspruchsvoller geworden. Neue Partikeleffekte, Schatteneffekte welche die CPU deutlich belasten etc etc.
 
In einem System in dem es sich die "Waage" hält wie du es schreibst müsste man also ca gleichweit vom CPU wie vom GPU Limit weg sein.

Nenne bitte auch hier 1 konkretes Fallbeispiel aus Spiel, CPU und GPU wo das der Fall ist und man das in einem 1080p Test daher "schlecht" schätzen kann, wo aber ein 720p Test wirklich MEHRWERT hat !

Wie ich oben schon schrieb: Im Zweifelsfall rüstest du erstmal die GPU auf so lange bis du NACHWEISLICH im CPU-Limit bist....

Ist das der Fall wechselst du die Plattform "nächstmöglich"...auf etwas mit Mehr Takt, Mehr IPC, Mehr Kerne als bisher und was dein Budget hergibt...im Idealfall wechselst du nur die CPU aus (z.B. von Ryzen 1400 => 2600X)...

Oder von i5-2500K auf => was auch immer dein Mainboard hergibt...und mindestens soviel C und T hat wie geht...
Oder eben komplett wechsel inklusive Mainboard (bei intel ja häufiger der Fall)
 
DonL_ schrieb:
Was soll denn bei IceLake großartig kommen, außer ein Shrink?
Der Shrink wird mehr Takt bringen, aber von der IPC hat sich seit Skylake nun gar nichts geändert und ich wüßte nicht, wie sie bei der Core Architektur plötzlich da nochmal wirklich messbare Prozent finden wollen, da die Core Architektur schon 8 Jahre optimiert wird?!

Von Skylake über Kabylake und Coffeelake leisten alle CPUs das gleich von der IPC, wenn sie gleich getaktet sind.

Weiß ich auch nicht, stell mir das so vor: Ein 9700K 8/16 mit Hochtakt 6GHZ, geringem Verbrauch und kühlem Kopf.
Oder mal was ganz Neues mit Multi-Chip-Ansatz ...
 
Zurück
Oben