Test Fortnite, LOL, PUBG & Co.: Bis zu 26 Prozent schneller mit neuen Ryzen-2000-CPUs

donend schrieb:
Es macht in jedem Fall Sinn CPUs auch in 720p...

Wie oft denn noch. Das hier ist ne Testreihe. Vorher wurden schon Midrange bis Highend GPUs im gleichen Testparcours getestet. Hier gehts darum wie die CPUs/GPUs in den derzeit beliebtesten Online Games, mit der beliebtesten und meist genutzten Auflösung skalieren und nicht um die Rohleistung der einzelnen Geräte. Wenn Du Deine Wüscnhe (720p Test) äußern willst, dann tu das in den dedizierten CPU Tests oder im Feedback Forum, aber hier ist es am Thema vorbei, sorry, aber ist so ! ;)

Und zum Thema "Fanboys blah blah blah". Ich hab vor ein paar Posts hier als jahrelanger AMD-User den i5 8400 als Preisleistungssieger des Tests hier gesehen, bezogen auf die Games, die Auflösung und die Kosten für die Hardware.
 
Zuletzt bearbeitet:
RichieMc85 schrieb:
Wenn jetzt noch in 720p getestet wird und eine 8700K mit 5 Ghz dazukommt, wäre des Test schon sehr gut. Einige Spiele sind ja selbst bei 1080p wieder im GPU Limit.

@min343 Das ist ein CPU Test :rolleyes:

Ja und in 640 x 480 kann man erst so richtig sehen wie die Abstände aussehen.:hammer_alt:
Wer mit einem 870K@5Ghz Fortnite in 720P spielt hat ganz andere Probleme........ :heilig:
 
DeadEternity schrieb:
Hier in der Testreihe geht es darum wie CPUs und GPUs in den typischen Online Games in der meist genutzten Auflösung performen und nichts anderes.

Naja eigentlich gehts um CPU Benchmarks...

Ich kanns bald nicht mehr lesen. Früher als die CPUs noch auf 720p getestet wurden haben alle geschrien, dass das weit ab von der Realität wäre, jetzt testet man ab 1080p und dann wird wieder nach 720p geschrien, ihr habt doch n Rad ab.

Das sind ja nicht die gleichen User...
 
@Gschwenni, hast Du die Testreihe überhaupt verfolgt oder gelesen ? Was denkst Du warum es noch gesonderte/detailiertere CPU Tests gibt ? ;)
Um die reine Rohleistung zu vergleichen wäre dort meinetwegen ein 720p Test angebracht, ok, da stimm ich dir zu.
Allerdings kann ich auch ohne Leben. Was bringts letztendlich, kein Mensch spielt in 720p und falls doch hat er mein Beileid.
 
Zuletzt bearbeitet:
@werpu
5GHZ/4500 Cache Ram 4133, nicht geköpft.

PS/2 = PlayStation2?
 
Hallo @ all^^

Ich möchte zuerst betonen, dass ich meine Computer Hardware rein P/L Kaufe.

Ich spiele nur noch 2 Spiele. Diese sind wow und wows.

Beides in 2560 x 1080 mit einer GTX 1050 Ti.

Ich lese nun schon die ganze Zeit dass ich bei meiner CPU Wahl vor ca. 6 oder 7 Jahren voll ins Klo gegriffen habe.

Ich habe nämlich das Schlimmste unter Gottes Sonne gekauft.

Ohne an meine Zukunft zu denken habe ich damals einen, O Gott, Intel I5 2500K bestellt.

Bis heute läuft WOW auf Stufe 7 ruckelfrei. Auch WOWS schafft in sehr hohen Einstellungen 75 FPS.

Jetzt muss ich ja laut der Mainstream Meinung aufrüsten, da ich nur 4 Kerne habe und WOW und WOWS in Zukunft mindestens

6 Kerne und HT benötigen. Da fällt dann der völlig überteuerte I5 8400 weg.

Achja, habe ich ganz vergessen. ich nutze 2 Bildschirme. Auf dem 2ten läuft beim WOW spielen TS oder Musik von YT.

Kann ja eigentlich, laut Auskunft der Testreihen, gar nicht funktionieren.

Also muss ich wohl auf einen AMD umsteigen mit 8 Kernen.

Jetzt hätte ich doch gerne einmal gewusst, wieviel Verbesserung ich erhalte, wenn ich für günstige (MB, CPU, Speicher)

750 Euro zuschlage. Ich bedanke mich im vorraus für die hilfreichen Antworten und verbliebe mit freundlichen Grüssen.
 
Was mich nur irgendwie wundert ist, wie kann der 8700K nur durchschnittlich ca. 250 fps in cs go haben wenn er bei mir fast durchgehend 400 fps liefert (zwischen 350 und 400) wenn ich fps_max 400 einstelle? Ohne mit Standard EInstellung bei den fps sind es durchgehend 300 FPS. Und ich spiel in 1440p und hab eine titan x maxwell und keine gtx 1080ti.
 
BestinCase schrieb:
@werpu
5GHZ/4500 Cache Ram 4133, nicht geköpft.

PS/2 = PlayStation2?

Jepp dacht ich mir... hast Glück sowas ohne Köpfung zu erreichen.
PS/2 nein das war eine Reihe von Rechner mit denen IBM; dass PC Geschäft, dass ihnen zu entgleiten drohte wieder ansich zu reissen versuchte.
Hat nicht funktioniert, die Kisten waren aber für die damalige Zeit richtig gut. Wenn man an einem normalen PC damals eine Steckkarte reindonnern musste musste man die Interrupts per Jumper einstellen damit es keine Interrupt Überschneidung gab die PS/2 Karten waren Plug and Play. Im Zuge der PS/2 Rechner wurde auch OS/2 als Ablöse für Dos veröffentlicht. Der Rest ist Geschichte (Sprich alles davon ist in der Versenkung verschwunden und der PC Markt wurde technisch 10 Jahre aufgehalten)
 
@all
Zu den 720P Tests (CPU). Es ist nicht zu 100% richtig, dass man nur mit 720P Tests die Leistungsfähigkeit einer Architektur bei Spielen testen kann und damit zielsicher auf eine etwaige Zukunftssicherheit extrapolieren kann.

Unter 720P fallen Teilaspekte des I/O Transfers genauso weg, wie etwaige GPU Flaschenhälse.

Da der I/O Transfer durchaus Auflösungsabhängig ist und in der Gesamtwürdigung einen Anteil an der Fähigkeit von CPUs hat die Grafikkarten auch in hohen Auflösungen mit entsprechenden Daten zu versorgen, fehlt bei der Bewertung als schon ein praxisrelevanter Aspekt.

Zu den "der Prozessor muss nur 1920x1080 oder höher in 60Hz befeuern können, alles andere bringt sowieso nichts".
Es gibt Dinge wie Virtual Reality. Da ist man zwingend darauf angewiesen, dass das Gesamtsystem in einer Auflösung von ca 1600x1600 minimum 180FPS liefert. Ab da kann die CPU Architektur dann doch wieder ein Wörtchen mitzureden haben.
In VR kämpft man um jedes FPS oder im Extremfall sonst mit der Übelkeit.

@Reyis
Dass dieses ganze Geschwurbel mit das System muss getestet werden mit "Nebenbei 50 Applikationen, 3 Spiele, 3D Studio etc." völliger Blödsinn ist, sollte einem jeden klar sein. Man will halt aufzeigen, wofür 8 Kerne und mehr künftig sinvoll sein könnten.

Dass mehr Kerne immer die schlechteste (Not-)Lösung ist, da zusätzlich Overhead generiert wird und nicht alle Aufgaben parallelisierbar sind, ist bei vielen Benutzern immernoch nicht angekommen. IPC+Taktfähigkeit ist und bleibt Trumpf.

Der prozentuale Anteil derjenigen, die tatsächlich Spielen und wirklich relevante Anwendungen am Laufen haben, die auf die Rechenleistung gehen ist gleich 0.

Nebenbei Surfen, Teamspeak, Netflix, Browser mit 800 Tabs etc. interessiert jeden hochgetakteten, moderneren 4- Kern Prozessor nicht die Bohne und hat auf den Spielfluss keinen merklichen Einfluss.

Wenn dann wirklich rechenintensive Anwendungen im Hintergrund laufen, kackt ein 1800er Ryzen System genauso ab wie der 7700K, weil standardmäßig keine Affinitäten und CPU Kontingente vergeben werden.
Und sich auch beim 1800x immer wieder Systemrelevante Threads dann auf die Renderthreads legen. Schon gibts nen Ruckler....

Grüße
Zero
 
Zuletzt bearbeitet:
BestinCase schrieb:
@werpu
5GHZ/4500 Cache Ram 4133, nicht geköpft.

PS/2 = PlayStation2?

Tja, dein Ergebnis ist langsamer als bei dem 8700K, den ich mit 3200erCL14 zusammengebaut habe. Der kommt auf 593 Single-Core bei CPU-Z :P
 
O-Saft-Killer schrieb:
Was mich nur irgendwie wundert ist, wie kann der 8700K nur durchschnittlich ca. 250 fps in cs go haben wenn er bei mir fast durchgehend 400 fps liefert (zwischen 350 und 400) wenn ich fps_max 400 einstelle? Ohne mit Standard EInstellung bei den fps sind es durchgehend 300 FPS. Und ich spiel in 1440p und hab eine titan x maxwell und keine gtx 1080ti.

Das ist einfach erklärt, im Test lief alles Stock, streng nach Spezifikation, wird bei dir ja anders sein, oder nicht?

@werpu
Ist aber keine Perle, brauche bis zu 1.4v
Ergänzung ()

SKu schrieb:
Tja, dein Ergebnis ist langsamer als bei dem 8700K, den ich mit 3200erCL14 zusammengebaut habe. Der kommt auf 593 Single-Core bei CPU-Z :P

Gibt's dafür einen Beleg? :eek:
 
Das ist einfach erklärt, im Test lief alles Stock, streng nach Spezifikation, wird bei dir ja anders sein, oder nicht?

Ich glaube nicht das es einen Unterschied bei den FPS um bis zu 130 - 150 gibt, ob meine CPU jetzt mit 4,4 GHZ ca. taktet oder mit 4,7. :D

Selbst 50 FPS mehr sprich 300 durchgehend die ich locker schaffe müsste das Testsystem auch mit Standard locker packen.

Das gleiche übrigens bei Overwatch, 1440p, durchgehend 300 FPS mit minimalen Einbrüchen auf 280 für sekundenbruchteile. Spiel beide Spiele aber an sich auf ultra low bis Medium. Hab jenachdem noch etwas AA drin.

Evtl. hängt es damit zusammen das CB hier mit max Details getestet hat, wobei mich ein GPU Limit hier schon wundern würde. Die GTX 1080ti ist wesentlich schneller als meine GPU, Auflösung ist hier beim Test auch niedriger als bei mir.
 
Zuletzt bearbeitet:
BestinCase schrieb:
Das ist einfach erklärt, im Test lief alles Stock, streng nach Spezifikation, wird bei dir ja anders sein, oder nicht?

@werpu
Ist aber keine Perle, brauche bis zu 1.4v
/QUOTE]

Tjo sobald man die Normwerte überschreibt kann man im Winter die Heizung abschalten, geht mir beim 2700x mit dem Precision Boost Overdrive auch nicht viel anders. Ich hab am Rechner ein Wattmeter vorgeschalten und da kann ich richtig zusehen wie bei mir die Stromrechnung hochschnellt :evillol:

Kurzer Witz.. was gibt mehr Abwärme ab eine 140 Watt Glühbirne oder ein 140 Watt Prozessor...
Antwort egal. Am Prozessor kann man aufgrund der Bauform wenigstens ein Spiegelei braten...
 
Zuletzt bearbeitet:
Pisaro schrieb:
Allerdings kann man nur in 720p sehen, welcher Prozessor wirklich schneller ist. Das diese Spiele mit allen Prozessoren laufen, wayne. Um die Rohleistung zu ermitteln bringt 1080p halt nicht so viel.

Aha, und was bringt es dir, wenn es in 1080p wieder anders aussieht? 1080ti auf 1080p ist ja schon ein unrealistisches Szenario, aber das ist zumindest die meist gespielte Auflösung. 720p Tests kann man meinetwegen dann machen, wenn die fette Grafikkarte in 1080p voll ausgelastet wird.
 
Der i7 8700k fängt aber bei 5GHZ richtig an zu saufen, das hat nun Steve von Hardware Unboxed schön nachgewiesen, mit seiner willkürlich gekauften 10er Reihe von 8700ks.
Ich glaube kaum das ein 2700X, 250Watt und mehr frist im Cinebench, mit Precision Boost Overdrive.

https://www.youtube.com/watch?v=GRviKkVUAa0
 
BestinCase schrieb:
Gibt's dafür einen Beleg? :eek:

Ich habe davon einen Screenshot, ja. Nur liege ich als Patient der Chirurgie auf der internistischen Station eines Klinikums und komme nicht an die Daten. :)

Gehst du über 3466CL14, bringt es in den meisten Spielen auch nicht wesentlich bessere Performance.

(28/3466)*1000 = 8.07ns

Da müsste dein 4133er RAM schon mit CL16 stabil laufen.
 
Zuletzt bearbeitet:
DonL_ schrieb:
Der i7 8700k fängt aber bei 5GHZ richtig an zu saufen, das hat nun Steve von Hardware Unboxed schön nachgewiesen, mit seiner willkürlich gekauften 10er Reihe von 8700ks.
Ich glaube kaum das ein 2700X, 250Watt und mehr frist im Cinebench, mit Precision Boost Overdrive.

https://www.youtube.com/watch?v=GRviKkVUAa0

Ich komme mit meinen derzeitigen Einstellungen derzeit auf 140 Watt Spitze... aber ich hab auch noch nicht die höchste Overdrive Stufe probiert, bei der hab ich einen flauen Magen zumal das Potenzial weiter nach oben aufgrund des Siliziums sowieso begrenzt ist und ich mit dem Teil ja nicht nur zocke.
 
SKu schrieb:
Ich habe davon einen Screenshot, ja. Nur liege ich als Patient der Chirurgie auf der internistischen Station eines Klinikums und komme nicht an die Daten. :)

OK, aber danke für den Input, könnte mein 4000er Ram-Kit mal auf 3200 mit 14er Timings probieren wäre interessant.
Oder lief das Ding von dir über 5GHZ?
 
nospherato schrieb:
Wärst du so nett und würdest mir mal einen Screenshot von dem Menü posten?
(Kannst ja auch im Bios Screenshots machen), ich find die Option bei mir nicht mit mode3 :-/

Mein Sohn belegt gerade meinen Rechner, sobald ich kann suche ich es raus und mach einen Screenshot
 
BestinCase schrieb:
OK, aber danke für den Input, könnte mein 4000er Ram-Kit mal auf 3200 mit 14er Timings probieren wäre interessant.
Oder lief das Ding von dir über 5GHZ?

Lief zum Testen auch auf 5.1Ghz. Dann kamen über 600 Punkte bei dem Bench heraus. Aber mit 5Ghz waren es knapp über 590.
 
Zurück
Oben