Test Intel Core i3-7350K im Test: Übertaktet auf 5,1 GHz im Duell mit echten Vier-Kern-CPUs

diamdomi schrieb:
Für Spiele, welche 2-4 Kerne nutzen, ist diese CPU optimal.
In BF1 Multiplayer mit 64 Spielern wird die CPU sicher schnell an ihre Grenzen stoßen.


scheint sich auch in bf1 ganz wacker zu schlagen
dg069f1rggpcy0776.jpg
 
CB will mir hier erzählen, dass ein i7 7700K in Spielen nur 13% schneller ist, als ein i3 mit 5,1 GHz.

Eure Tests werden immer abenteuerlicher. Im letzten Test habt ihr auch in AC Unity nen i5 2500K bei ich glaube über 90 FPS getestet (oder warens 70?), obwohl mit der CPU in dem Game 40-50 FPS die Regel sind.

Sorry, die Tests kann ich einfach nicht mehr ernst nehmen, vor allem, weil ich selbst von nem i5 auf nen i7 gewechselt bin und in vielen Games MASSIVE Performancezuwächse habe.
Ich weiß echt nicht, was da getestet wird, aber es ist definitiv nicht aussagekräftig, zumal die Spieleauswahl für aktuelle CPUs eher bescheiden ist (Stichwort Multithreading) und dann testet ihr Witcher 3 auch noch im GPU-limit, obwohl andere Seiten in den CPU-Intensivsten Regionen mit einem 7700K ~150 FPS messen. Da sind dann auch große Unterschiede zwischen i3, i5 und i7 sichtbar.


Zudem wären Tests mit schnellen RAM Modulen extrem hilfreich. Digital Foundry hat z.B. einige Games getestet, in denen CPU @ Stock + OC RAM mehr Leistung bringt, als CPU OC + non-OC RAM.
Die Leistung addiert sich zudem, wenn man beides nutzt...


Ich frag mich ja, wie ihr Ryzen testen wollt... Doppelt so viele Kerne, hoher Takt und im Fazit steht dann sowas wie "in Spielen 10% schneller, als Bulldozer". Und ich brauch nur durchklicken und sieh wieder auf Anhieb, dass die Games nicht mehr als 4 Threads nutzen oder im GPU-limit laufen (siehe Witcher 3).
 
Zuletzt bearbeitet von einem Moderator:
mich würde ja hier interessieren, wo hier der 2500K mit 4,4Ghz liegt :rolleyes:
 
Ich bin erstaunt über die "Zu teuer! Dann lieber einen richtigen 4-Kerner!!1"-Reaktion vieler Leute hier im Thread, obwohl der Test dem (noch nicht übertakteten) Proband ein klar besseres Preis-Leistungsverhältnis bescheinigt als den unter Spielern beliebtesten CPUs i5-xxxxK und i7-xxxxK. Man mag ja einen 4-Kerner bevorzugen, aber von "zu teuer" kann doch gar keine Rede sein.
 
Ja am BF Benchmark (und der ist ja nur DX11) sieht man ganz schön, dass der 7350K@Stock im Moment noch mithalten kann.
Übertaktet hat er noch etwas Luft.

Aber wie lange genügt das noch?
1 Jahr bestimmt, aber 2 oder 3 Jahre?
Die minimum Frames werden bei zukünftigen Spielen irgendwann massiv einbrechen und dafür ~190 Euro auf den Tisch legen? Dann doch lieber 50 Euro mehr locker machen und nen 7600K kaufen... oder am besten mal auf Ryzen warten ;-)

Für unter ~150 Euro wäre er bestimmt eine Überlegung wert (wenn man nur zockt).
 
leider null Aussagekraft. Man müsste mit anderen Spielen und im Multiplayer testen, wenn die CPU auch wirklich (parallel) ausgelastet wird. Und mal die Min-FPS oder gleich Frame-Latenzen mit angeben. Dann sehen die Dualcores nämlich alt aus.
 
Mal schauen, was die finale Version von Star Citizen benötigt. - Dieses Spiel dürfte auch in Sachen CPU-Anforderung interessant sein, wenn es richtig zur Sache geht.

Beim nächsten Frostbite-Spiel (Mass Effect Andromeda) sehe ich keine Probleme auf den Spieler / i3 zukommen.
 
Ich glaube der i3-7350K wird den I5 im Gaming Bereich ablösen, weil es aktuell kein Spiel gibt, dass den I3 limitieren würde.
 
Simanova schrieb:
Ich glaube der i3-7350K wird den I5 im Gaming Bereich ablösen, weil es aktuell kein Spiel gibt, dass den I3 limitieren würde.

Vielen Dank für die Ironie.
 
Wie kommt man darauf, dass ein Dual Core 'nen Quad Core beim Gaming ablösen wird? Vor allem im Jahr 2017?

Und natürlich gibt es Spiele, bei denen ein i3 spürbar limitiert. Das ist sogar schon beim i5 der Fall, insbesondere bei den min. fps macht sich sowas bemerkbar.
 
Zuletzt bearbeitet:
Wer 5 ghz braucht soll sich lieber den älteren Pentium besorgen.
Asus_Overclocking_H97_H87_B85_H81-pcgh.jpg
 
Viel zu teuer und für Gamer und Poweruser uninteressant. Für alle Anderen gibt es bessere + günstigere Alternativen.
 
Sieht alltagstauglich aus. 14nm bei 1,44V...
 
Laggy.NET schrieb:
Ich frag mich ja, wie ihr Ryzen testen wollt... Doppelt so viele Kerne, hoher Takt und im Fazit steht dann sowas wie "in Spielen 10% schneller, als Bulldozer".

Wird auch so kommen; ich sehe keinerlei Ambitionen die Steinalten Anwendungen gegen Aktuellere auszumisten - gleiche gilt auch für die Test Sequenzen. Pipi Langstrumpf-Test vom feinsten.
@Baal Netbeck hat ja seit 2 Wochen keine Antwort erhalten. Lässt tief blicken, wo doch ständig im 3D-Center behauptet wird, dass man jederzeit fragen kann. Pustekuchen.
 
Zuletzt bearbeitet:
@BlauX

Ja, bin die Testsequenzen mal durchgegangen. Bei AC Unity wählt man einen Abschnitt am Rande der Stadt, das war damals mit meinem i5 die einzige "Stelle" an der ich 60 FPS erreicht habe. Die restlichen 98% der Spielzeit hatte ich 40-50 FPS im CPU-limit - incl. Soundaussetzer, weil die CPU völlig ausgelastet war.
Witcher 3. Ich komme in dem Gebiet auf ähnliche Framerates, hänge aber mit 99% GPU Auslastung im GPU-limit. Wenn ich die Auflösung und die Details weiter runterschraube, steigt die CPU-Last von ca. 30% bis auf 40-50% an. Die Framerate liegt dann bei über 200 FPS und ich bin immernoch im GPU-limit. Die Szene ist einfach sinnlos für einen CPU-test. Vor allem wenn man bedenkt, dass es im Spiel auch gebiete gibt, die einen älteren i5 überfordern und in denen ein aktueller i7 mit hohem takt und schnellem RAM mehr als doppelt so viele FPS liefern kann.

Ich finds schade, wirklich schade um die Arbeit, die in solche Tests fließt. Das ganze zieht bei den Lesern auch noch völlig falsche Schlussfolgerungen nach sich.
Als ich von meinem alten i5 auf den i7 gewechselt bin, hätte ich mir angesichts solcher Tests im Leben nicht den Leistungszuwachs erträumt, den ich letztendlich bekommen habe. Das sagt doch schon alles.
Aktuell kann ich meine CPU nichtmal richtig auslasten, weil ich in vielen Spielen selbst in 720p bei 100-150 FPS wieder ins GPU-limit komme, während ich mit meinem i5 ständig hoffen musste, dass er nicht auf 50 FPS limitiert, weil das im CPU-limit nunmal extrem miese Frametimes nach sich zieht... Meistens reichte es dann ganz knapp für konstant 60 FPS in aktuelleren Open World Titeln. In Division und GTA V war das z.B. ein balance akt, die einstellungen zu finden, die die CPU stark genug entlasten, um 60 FPS zu erreichen, die GPU aber genug fordern, um nicht Leistung zu verschenken und letzten endes hat alles nichts geholfen, als ich im worst-case mit 45 FPS und extremen Framtime-spikes durch die Dark-Zone gezuckelt und geruckelt bin, weil alle 4 Kerne ständig bei 100% waren.


Aber hey... die 25%, die da ein aktueller i7 in spielen schneller ist, als so ein uralter i5, die reißen es natürlich eh nicht raus, also wozu auch das teure Upgrade, kann man sich ja sparen. ;):freak::lol:
 
Zuletzt bearbeitet von einem Moderator:
Grundkurs schrieb:
Der insgesamte Leistungszuwachs bei Spielen ist so ernüchternd...der neuste i7 ist gerade mal 25 % schneller als mein 5 Jahre alter i5-2500K...traurig.

aklaa schrieb:
Bei welchen Games? Habe bei mir überhaupt kein Zuwachs, daher liegt die Hoffnung bei RyZen System.

Dann vll mal paar ordentliche Tests angucken, wo man mehr sieht, als nur irgendeine Zahl, bei der keiner weiß wie die zustande kam :)
Solche tests mit mittelklasse GPUs und Settings, wo man bei 30-40 fps rumgurkt, interessieren NIEMANDEN, gerade wenn man die CPUs vergleichen will. Das schafft auch ne Konsole. Sowas ist deutlich interessanter, weil man so sieht, wo die obere Grenze ist, was die CPU liefern kann, wenn sie mal ackern muss.

https://www.youtube.com/watch?v=j7bcjFnLib8

Und das ist OHNE i7. Nur Kaby Lake vs. Skylake vs. Sandy Bridge. Alles jeweils mit ner übertriebenen Titan X, die die Unterschiede zwischen den CPUs deutlicher macht. Also ja, CPU Limit
Jeweils Stock UND 4.2 Ghz (untypisch hoher 2133 Mhz bei Sandy, 3000 bei Skylake/Kabylake.).
Ich seh da deutliche Unterschiede.
Bei Ashes z.B. 70% mehr fps zwischen 2500k @ stock vs. 7600k € stock.

Division: Nahezu kein unterschied, weil heftig GPU limitiert, selbst auf niedrigeren Settings. Das Game fordert die CPU nahezu garnicht.

In Witcher 3 wird es lustig. Skylake und Kabylake wischen den Boden auf mit dem Sandybridge ^^ Und achtet mal nicht nur auf die durchschnitts-fps, sondern auf die Frametimes. Sandybridge ständig am Einbrechenin richtung 50 ms (trotz schnellem DDR3 Speicher), während Kabylake selbst @ Stock stabil bei 10-12 ms bleibt, und nur seeehr selten mal in richtung 25 ms einbricht. DEUTLICH konsistentere stabilere Performance. Aber auch die avg fps sind nahezu doppelt so hoch. 66 fps für den Sandy, während Skylake und Kabylake bei 100+ fps bleiben.
Und dann kommt Novingrad, wo die fps bei allen dropt. Beim Sandybridge ständig <60 fps, was immer mit stuttering daherkommt für typische VSync nutzer unter 60 Hz Monitoren. Der Sandy MUSS übertaktet werden, um überhaupt die 60 fps halten zu können. Während Kabylake gemütlich bei 70+ bleibt, und nur ganz kurz auf 68 dropt. Auch hier: Frametimes deutlich ungleichmäßiger.

Rise of the TOmb Raider: Frametimes nicht sooo viel schlimmer. Aber durchgehend weniger fps. Und ja, der Sandy kann wieder keine 60 fps halten ohne Übertaktung (trotz schnellem 2133 Mhz Speicher!). Mit OC auf 4.2 Ghz dropt er nur noch selten unter 60.

Farcry Primal: Gleiches Bild, nahezu durchgehend 65%~ mehr fps.

AC Unity: Genau das selbe. Über 50% mehr fps.

Crysis 3: Der Sandy ist da oft <60 fps, teilweise 40fps~ rum. Kaby Lake dropt nur für nen Augenblick knapp unter 60, und ist dann wieder oben.
Auch mit OC ist er noch <60 fps.
Im Schnitt rund 33% mehr fps~

Und jetzt wird das ganze nochmal interessanter: https://www.youtube.com/watch?v=XylVCItVhS4
i5 vs. i7 Kaby Lake, gleicehs Setup mit Titan X OC.

Könnt ihr ja selbst drauf achten ;)
besonders Interessant wird es bei Witcher. Ohne die GPU als Limit 40% mehr fps, nur durch Hyperthreading, im Schnitt über die ganze szene.
Rechnet das mal dazu auf den i5 2500k vs. i5 7600k vom vorherigen video. Die fps vom i5 7600k @ stock stimmen in beiden videos überein, lässt sich daher gut vergleichen.
62 fps im Schnitt für den 2500k vs. 140 fps im schnitt für den 7700k.
Etwas schwächer bei Rise of the Tomb Raider.
Und bei Crysis 3 am Ende wird es wieder interessant. Der i5 Kaby Lake kann keine 60 fps halten, während der i7 bei rund 90 ist.


Ja, das war etwas sehr ausführlich. Aber es hängt stark davon ab, WAS man testet, und WIE Man es testet.
Wenn man bewusst GPU Limits sucht, klar gibt's dann keine unterschiede. Das ist aber nicht sinn der Sache.
Es gibt genug Gamer, die knallen nicht alles auf Anschlag, und ruckeln mit 40 fps vor sich hin. Die reduzieren gerne die Settings um 2 Stufen runter, und genießen mit 130 fps dann deutlich flüssigere Beqegungen. Das sind SEHR realistische Einstellungen, wo ein Sandy i5 nicht mehr mithalten kann.

Und als letzte Anmerkung: Der typische Gamer, der ende 2016 seine GPU nochmal dick aufrüsten will, und von einer GTX 770 auf eine.. GTX 1080 wechselt.
Und immernoch nen i5 2500k drin hat.
Der zweite Gamer hat die selbe GPU, aber mit nem Skylake / Kabylake i7. Ist das kein realistisches Szenario, wo die CPU deutliche fps unterschiede bringen würde, weil man mit ner 1080 nicht bei 40 fps dümpelt? ;)
Auch wenn das nicht sehr häufig sein dürfte, ist das durchaus realistisch.

Ich will nicht damit zeigen, dass man von nem Sandy aufrüsten muss.
Aber ein Kaby i7 hat wesentlich mehr Mehrleistung als die behaupteten 25%, oder gar 0%^^
 
Aber es hängt stark davon ab, WAS man testet, und WIE Man es testet.
Wenn man bewusst GPU Limits sucht, klar gibt's dann keine unterschiede. Das ist aber nicht sinn der Sache.
Es gibt genug Gamer, die knallen nicht alles auf Anschlag, und ruckeln mit 40 fps vor sich hin. Die reduzieren gerne die Settings um 2 Stufen runter, und genießen mit 130 fps dann deutlich flüssigere Beqegungen. Das sind SEHR realistische Einstellungen, wo ein Sandy i5 nicht mehr mithalten kann.
Dito. Letzten Endes muss zwar jeder selbst anhand der Spiele, die er spielt oder spielen möchte entscheiden, was das richtige für ihn ist, aber wenn man CPUs für's Gaming testet sollte man penibel darauf achten nicht ins GPU-Limit zu kommen.
 
@ Darkseth88

Danke! Dem ist nichts mehr hinzuzufügen.

Wobei 3000 MHz RAM für DDR4 nicht sonderlich viel ist. Mittlerweile gibts 4200 MHz. Nur sind die teuer...
Fakt ist aber: Es kann enorm viel Leistung bringen.

Schon witzig, bei Grafikkarten geht den Leuten einer ab, wenn sie von HBM und hoher bandbreite hören, beim RAM ist das Thema plötzlich egal, obwohl DDR4 mit dem hohen Takt die Bandbreiten massiv nach oben treibt. Und viele Games skalieren damit ähnlich gut, wie mit hohem CPU-Takt. Teils sogar noch besser.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben