Test Intel Skylake im Test: Core i5‑6600K und i7‑6700K sind auf Effizienz getrimmt

Moesl0r schrieb:
Ihr seit wie Kühe die darum flehen gemolken zu werden.

Ich glaube du hast noch nie Kühe gesehen, die am Morgen zu spät gemolken werden.

Jeder soll à sa façon seinem Hobby frönen.
 
Fruuky schrieb:
Heutzutage kann man doch sogar einen 5960x empfehlen. Der ist zwar einmalig teuer aber vermutlich auch in 8 Jahren noch voll dabei womit die 1600Euro inkl Ram und Kühler viel günstiger sind als 600 Euro vor 10 Jahren wo man alle 2 Jahre spätestens neu kaufen musste...

Naja oder man kauft sich nen 200 Euro i5 und lebt auch 5-10 Jahre am Limit :evillol:

Mich würde aber mal interessieren wann leistbare CPUs erscheinen die sämtliche RTS Games auf 60FPS(min.) abspielen können, das scheint auch für highend CPUs ein Ding der Unmöglichkeit wenn man sich diverse tests so ansieht...

@moesl0r: Stimme dir prinzipiell zu, bis auf den teil mit "seit"

Mr.Seymour Buds schrieb:
Oh Gott, wie oft kommen denn nun noch die Anfragen wegen 6 und 8 Kernern?

6 Kerner:

Intel Core i7-5930K, 6x 3.50GHz, boxed ohne Kühler (BX80648I75930K) ab €599,99

8 Kerner:

Intel Core i7-5960X Extreme Edition, 8x 3.00GHz, boxed ohne Kühler (BX80648I75960X) ab €1049,08

Allerdings braucht man dafür auch ein Sockel 2011-3 Board. So und nun warte ich darauf, dass jemand jammert, dass die 6 und 8 Kerner ja ach so teuer sind und die sich niemand leisten kann, die zu warm werden, die zu viel Strom brauchen, die nicht Mainstream sind, der Takt nicht hoch genug und mimimimimimi. Die Jammerfahne riecht noch der Mann im Mond- :p

Der 5930K sieht sehr interessant aus, andererseits reichen sogar i3 Zweikerner mit HT für so gut wie alle games... -Wobei man mit ner 600 Euro CPU sicher länger Freude haben wird(und mehr anstellen kann) als mit einer 600 Euro Grafikkarte ;)
 
Zuletzt bearbeitet:
Mich würde aber mal interessieren wann leistbare CPUs erscheinen die sämtliche RTS Games auf 60FPS(min.) abspielen können
Mich würde viel eher interessieren, wann der erste Programmierer geboren wird, der es schafft, in einem RTS-Game mehr als 12.5% Last auf einem i7 zu erzeugen. Die Rohleistung ist ja vorhanden...

Starcraft 2 oder sowas wird wohl nie flüssig laufen, dafür müsste sich die Single Thread-Leistung nochmal mehr als verdoppeln.

Bei aktuellen Spielen kann der Unterschied zwischen i5 und i7 schon sehr gewaltig sein. Das kann dann schon mal den Unterschied zwischen "gerade so spielbar" und "gut spielbar" ausmachen.
Ich meine, jeder hat andere Ansprüche, aber man kann doch mit jedem i5-2xxx praktisch jedes normale Spiel mit konstant über 60 FPS spielen. Das würde ich jetzt nicht nur als "gerade so spielbar" bezeichnen :freak:
 
Seh ich auch so, merke mit meinem i5 2500k auch Sogut wie keinen Unterschied. Egal ob 3,3 oder 4,2 GHz... Klar paar Frames mehr, aber flüssig ist es bei beiden Einstellungen
 
Vendetta schrieb:
...Wobei man mit ner 600 Euro CPU sicher länger Freude haben wird(und mehr anstellen kann) als mit einer 600 Euro Grafikkarte ;)

Genau das denke ich nicht. Heute würde ich jeden Cent in die Grafik stecken und bei CPUs eher Mittelklasse kaufen. Da fährt man um Welten besser.

Sieh Dir mal die Tests an: Es ist fast egal, welche CPU man einsetzt, sobald man eine gewisse Mindestleistung erreicht hat (zb den viel gepriesenen 2500K). Bei der GPU ist es hingegen hochgradig relevant, welche Karte und welchen Chip man nun einkauft (je fetter, desto besser).
 
Zuletzt bearbeitet:
Nichts überraschendes, bin insgesamt zufrieden. Die Leistung steigt nicht mehr groß klar aber jetzt werden diverse Entwicklerstudios mal dazu gezwungen vernünftig zu entwickeln und dann können sie auch nicht mehr die Hardwareanforderungen hochschrauben. Die Nutzer müssen weniger aufrüsten also ich finde es positiv. :)
 
VikingGe schrieb:
Mich würde viel eher interessieren, wann der erste Programmierer geboren wird, der es schafft, in einem RTS-Game mehr als 12.5% Last auf einem i7 zu erzeugen. Die Rohleistung ist ja vorhanden...

Da kann ich Dir aus der Sicht eines SW-Entwicklers entgegnen: Ich bin gespannt, wann der erste Produktmanager kommt und vom Entwickler nicht nur die Umsetzung von Features möchte, sondern auch auf effizienten, wartbaren und skalierbaren Code Wert legt (und ihm die Zeit dazu gibt) und nicht einfach nur ein Feature so schnell (und unfertig) wie möglich möchte... :freak:
 
Da hat sich aber nicht viel getan. Somit lohnt es sich wohl nicht, meinen i5-2500K zu ersetzen (ohne dass ich die Hauptplatine auswechseln müsste), oder doch?

Welche Spiele könnte man denn mit den neuen CPUs und der integrierten Grafikeinheit anständig spielen, ohne dass eine externe GPU nötig wäre?
 
Tjo... damit war der Sandy Bridge 2011 wohl die beste Investition meiner Prozessorlaufbahn.

Früher konnte man noch mit gutem Gewissen alle ~2 Jahre nen neuen PC zusammenschrauben, und wurde jedes mal aus den Socken gehauen wie schnell er mittlerweile ist, aber nichtmal das gönnen sie heute einem!

Nur noch Grakas updaten :evillol:
 
Jedi123 schrieb:
Tjo... damit war der Sandy Bridge 2011 wohl die beste Investition meiner Prozessorlaufbahn.

Früher konnte man noch mit gutem Gewissen alle ~2 Jahre nen neuen PC zusammenschrauben, und wurde jedes mal aus den Socken gehauen wie schnell er mittlerweile ist, aber nichtmal das gönnen sie heute einem!

Nur noch Grakas updaten :evillol:

Dito. Früher gab es in einem Jahr ne neue CPU, im nächsten eine neue GPU, und zwangsläufig alle 4 Jahre eine neues Board samt RAM. Tic, Toc ;)

Das hat sich seit 2011 erledigt. Jetzt gibt es zwar immer noch alle zwei Jahre ne neue Grafikkarte, aber die Sandy Bridge müsste schon den Löffel abgeben.

Alles andere macht einfach keinen Sinn. Schade INTEL, so macht man sich sein Geschäft kaputt. Ein kleinerer Fertigungsprozess und die damit verbundene Energieersparnis ist nett, aber mehr auch nicht. Nichts wirklich viel neues, nichts innovatives, keine neuen Materialen, dann braucht ihr auch kein Geld von mir. ;)
 
Inzwischen habe ich es aufgegeben, beim Memory das Optimum für ein System zu suchen. Irgendwie kommt man nie zu einem eindeutigen Ergebnis. Und letztlich gibt es immer ein paar Ausreißen (Spiele, Anwendungen) die von schnellen Speicher bzw. hoher Bandbreite bzw. geringer Latenz profitieren. Oftmals ist der Benefit dann jedoch wieder verschwindend gering bzw. sein Geld nicht Wert.

Diesen Test fand ich auch ganz gut und hatte mir bei der Entscheidung für den DDR4-Typ meines Haswell-E Systems geholfen.

Und noch ein letztes zum Thema: Battlefield 4 soll extremst von schnellem Speicher profitieren. Liegt wohl daran, dass gerade der Multiplayer-Modus sehr CPU-lastig ist. Interessanterweise wird im Task-Manager auf dann 100% CPU-Last angezeigt, wenn gerade auf den Speicher gewartet wird... in gewisser Weise ist das ja auch nachvollziehbar :D
 
Ich habe nun doch zu den aktuellen Komponenten gegriffen. Die CPU überzeugt mich nicht, aber der Chipsatz. Da das Eine nur mit dem Anderen einhergeht muss ich zwanngsläufig alles erneuern.

Für Interessierte: Board, CPU und RAM aus meiner Sig stehen zum Verkauf. Ich werde die Tage einen Thread im Markplatz eröffnen (aufrufen werde ich einen Festpreis von 380 € zzgl. Versand und PayPal Gebühren). Rechnungen u. OVP für alles ist vorhanden, alle Teile haben noch Garantie.
 
Mich würde viel eher interessieren, wann der erste Programmierer geboren wird, der es schafft, in einem RTS-Game mehr als 12.5% Last auf einem i7 zu erzeugen. Die Rohleistung ist ja vorhanden...
Supreme Commander I zum Beispiel lief bereits sehr gut oder Cities Skylines.
Da kann ich Dir aus der Sicht eines SW-Entwicklers entgegnen: Ich bin gespannt, wann der erste Produktmanager kommt und vom Entwickler nicht nur die Umsetzung von Features möchte, sondern auch auf effizienten, wartbaren und skalierbaren Code Wert legt (und ihm die Zeit dazu gibt) und nicht einfach nur ein Feature so schnell (und unfertig) wie möglich möchte...
Ich denke, dass es auch daran liegt, dass viele Entwickler sich eine bestimmte Problemgrößen (Einheitenzahl, Mapgröße) als Ziel setzen, und darauf programmieren und optimieren. Wenn das ganze dann für die gewünschte Problemgröße in Echtzeit läuft, wieso sollte ich noch weiter optimieren?
 
Auch wenn der Leistungszuwachs im Vergleich zum Vorgänger ein Witz ist, werde ich auf Skylake setzen. Denn mein Athlon II X3 (45nm/3*3GHz) muss dringend abgelöst werden ^^
 
Also bei Spielen sollte man bedenken, dass der Code auch auf alten PCs laufen sollte. Sonst wird der Markt kleiner und es wird weniger oder gar zu wenig Umsatz generiert. Ich bin zwar kein Spiele Entwickler, aber ich denke die werden unter hohem Zeitdruck entwickelt und optimiert wird dort fast nichts. Selbst schwere Bugs (Login Bug D3) werden erst nach dem Release beseitigt usw....
 
FreeMineLP schrieb:

Wer etwas hat, was vor Sandy-Bridge rauskam, kann m.M.n. bedenkenlos zugreifen, ab danach abwägen wie z.B. Daywalker weiter oben.
 
Nai schrieb:
Ich denke, dass es auch daran liegt, dass viele Entwickler sich eine bestimmte Problemgrößen (Einheitenzahl, Mapgröße) als Ziel setzen, und darauf programmieren und optimieren. Wenn das ganze dann für die gewünschte Problemgröße in Echtzeit läuft, wieso sollte ich noch weiter optimieren?

Ok, noch ein Kommentar dazu, bevor es zu off-topic ist: Was Du beschreibst, das riecht ein wenig nach unprofessionellem Verhalten. Ein Softwareentwickler muss eben mehr können, als nur ein Programm zum Fliegen zu bekommen. Zum einen sollte der Code auch wartbar sein (viele verzweifeln bereits an ihrem eigenen Code, den sie vor 14 Tagen geschrieben haben) und zum anderen ist 'entwickeln' weniger den ganzen Tag Keyboard-Hacking denn 'Nachdenken'. Und genau dazu gehört es, dass man sich Gedanken über beispielsweise das Mengengerüst gemacht.

Allein wenn ich hier im Forum manchmal sehe, wie die Leute mit Datenbanken umgehen... da wird alles in eine Tabelle gestopft! Zuerstmal Gedanken gemacht über die Entitäten? Ne, warum auch! Mal was von Normalisierung gehört? Mitnichten! Ach... ich schweife ab, und CB ist ja im Kern kein Forum für (professionelle) Softwareentwickler.

Spaß hier zu schreiben macht es trotzdem ;) :D
 
Cool Master schrieb:
Nö die Frequenz hat aber überhaupt nichts mit dem Verbrauch zu tun. Wenn ich 10 GHz mit 1 Volt betreibe verbrauch ich weniger als 8 GHz mit 1,5 Volt... Verbrauch in W = Volt * Ampere.

Ah unser Physiker ist wieder da ^^
Ich zitiere
"Falsch! Verbraucher werden mit Watt angegeben damit man es ganz schnell in die KWh umrechnen kann. " :D
Danke für die Erinnerung an die P=UI Formel, hatte sie schon beinahe vergessen.
Frequenz hat also überhaupt nicht mit dem Verbrauch zu tun? i7 4Ghz@1,3V benötigt also genauso viel.Energie wie 4,5Ghz@1,3V? :rolleyes:
 
FreeMineLP schrieb:
Auch wenn der Leistungszuwachs im Vergleich zum Vorgänger ein Witz ist, werde ich auf Skylake setzen. Denn mein Athlon II X3 (45nm/3*3GHz) muss dringend abgelöst werden ^^

:lol: Herzlichen Glückwunsch.... Du wirst Dich wundern.
 
Zurück
Oben