News Intel Core i7-6950X: Support-Seiten bestätigen neue CPU-Spitze

Das ist auf jedem Fall ein Punkt der mir wichtig ist. Ich will erst einmal sehen, wie sich die neuen Broadwell CPU's übertakten lassen bevor ich mir darüber Gedanken mache etwas zu kaufen.
Für einen 6 Kerner müssen 4,2Ghz immer drin sein und der 8 Kerner sollte mindestens bis 4Ghz kommen, ansonsten ist es mir das einfach nicht wert. Bei den Kosten für die CPU's bin ich auch nicht bereit, erst einmal 5 Stück zu kaufen, bis ich einen gescheiten finde.
 
Ja, die 6 Kerner sollten schon so in die Richtung 4,4Ghz bei vertretbaren Spannungen gehen, ansonsten kann man auch die alten Hexacores kaufen. So groß ist der taktbereinigte Unterschied dann ja auch nicht. Ende des Jahres / Anfang 2017 soll ein neuer Rechner her. Mal gucken, ob es ein 5XXX Hexacore, 6XXX Hexacore oder doch Zen wird.
 
Fragger911 schrieb:
Recht hast du, zumindest aber auch bei gleichen Takt vergleichen und staunen.
Unrecht hast du. 90% der Käufer (inklusive mir) wollen nicht übertakten.

borizb schrieb:
Liegt aber hauptsächlich daran, dass 95% aller Anwendungen im privaten Desktopbereich
nicht mit mehr Kernen skalieren.
Dito, bzw. es wird immer schwieriger.

xexex schrieb:
Nenne mir bitte eine aktuelle Anwendung die Leistung benötigt, aber nicht von mehreren Kernen profitieren würde! Angefangen bei Excel über Browser, Multimediacodecs oder Bildbearbeitungsprogrammen bis zur Winzip profitiert heutzutage praktisch jede Anwendung von mehreren Kernen. Dafür braucht man sich nur einen x-beliebigen CPU Test auf Computerbase mal ansehen.
Was du ja letztlich insinuierst: Erzähl mir nicht, dass Firefox oder Office mehr als 4 Kerne nutzen.. Und selbst bei Programmen, die super neu sind. Nicht alle Problemstellungen sind einfach parallelisierbar (nur einzelne Sachen bei solchen Programmen laufen ggf. schneller). Schau dir doch beispielsweise die Antwort von Googlook, der das aus 1. Hand weiß:

Googlook schrieb:
Ganz richtig ist das so auch nicht. Es gibt durchaus Dinge die mit mehreren Kerne schneller funktionieren. Die meisten Dinge aber bei weitem nicht skalieren bei weitem nicht linear. Da es auch einiges gibt das nur auf eine hohe Single Thread Leistung angewiesen ist, gibt es auch Sinn sich in der Anzahl Kerne zu beschränken um eben einen hohen Takt zu ermöglichen. Gutes Beispiel z.B Lightroom.

Ich arbeite (im Unternehmen) an einer High End Workstation mit 2x E5-2687W v3 und habe da schon viel ausprobiert mit "normaler" Software (Photoshop, Lightroom, PremierPro...). In Lightroom fühlt sich mein privater PC mit einem i7 6700K spürbar schneller an. Das Exportieren geht aber mit den beiden E5-2687W v3 massiv schneller. Aber da habe ich Zeit und kann mir einen Kaffee holen...


crackett schrieb:
Worin hat man Dich denn heute gebadet?

Kannst gern mal vorbeikommen und einen spannungsgedrosselten 5960X mit 4GHz; 60°Celsius und Luftkühlung bei der Arbeit mit X264 bestaunen - da fällt Dir die Kinnlade runter und Du kloppst Deinen 4kerner in die Tonne.
1. Habe ich nicht gesagt, dass ich einen 4 Kerner besitze.
2. Von einer Übertaktung gehe ich nicht aus und dürfte 90% der Käufer nicht interessieren.


crogge schrieb:
Da gibt es einfach technische Limitierungen und den Faktor "Stromverbrauch". Wenn ich meinen 4790k auf 5,0 GHz anstatt 4,0 GHz laufen lasse erhöht sich der Stromverbrauch enorm und die Temperaturen steigen ebenfalls enorm an.
Falls es jemanden interessiert, meiner läuft bis 5,1 GHz 100% stabil dann jedoch mit einer Spannung die ich auf
Welche Temperatur hat denn die CPU, wenn du Prime 95 Small FFTs eine halbe Stunde bei 5 GHz ausführst?

Gruß DoS007
 
Shoryuken94 schrieb:
Wäre noch super, wenn die benötigten Mainboards etwas günstiger werden. Dann wäre der kleine 6 Kerner für den nächsten PC richtig interessant. Der Preisunterschied zum 6700K ist ja nicht der Rede wert...

Was haben nur alle mit den Preisen?

Z170 System = €545
[i7-6700K (€335), Gigabyte GA-Z170X-UD3 (€141), Kingston HyperX Fury DIMM Kit 2x8GB (HX424C15FBK2/16) (€69)]

X99 System = €659
[i7-5820K (€376), MSI X99A SLI Plus (7885-023R) (€214), Crucial Ballistix Sport LT DIMM Kit 4x4GB, DDR4-2400, CL16 (BLS4C4G4D240FSB) (€69)]

Nur €114 Mehrkosten für:
- eine aufwendigere (Mainboard) und umfangreicher ausgestattete Plattform mit 50% mehr Cores/Threads in der Basis
- mit der Möglichkeit auf 10C/20T in der Zukunft erweitern zu können (welches Upgrade wird wohl nach Skylake sinnvoll sein auf dem selben Board)
- weniger Krampf bei der Nutzung von SLI/CF
- ähnliches Taktpotenzial (4,4-4,5 GHz), wenn ich mir das OC-Forum anschaue

Tret mich aber, aber was spricht jetzt gleich nochmal für S1151 Skylake?
!!! Immer voraus gesetzt, man kann die Mehrleistung auch irgendwo gebrauchen !!!
Ergänzung ()

DoS007 schrieb:
Unrecht hast du. 90% der Käufer (inklusive mir) wollen nicht übertakten.

...

Echt jetzt? 90% der Käufer von multiplikatoroffenen CPUs wollen NICHT übertakten? Da bin ich aber bissl baff :lol:

Der ganze Spass hier ging doch los mit dem Vergleich von Benchmarks mit K-Prozessoren.
 
Fragger911 schrieb:
Ergänzung ()

Echt jetzt? 90% der Käufer von multiplikatoroffenen CPUs wollen NICHT übertakten? Da bin ich aber bissl baff :lol:
Der ganze Spass hier ging doch los mit dem Vergleich von Benchmarks mit K-Prozessoren.
1. Weiß ich nicht, was bei dir los ging- mir jedenfalls ging es nicht ums Übertakten.
2. Gibt es andere Gründe K Varianten zu kaufen wegen anderen über den offenen Multiplikator herausgehenden Änderungen in den Spezifikationen- z.B. andere Wärmeleitpaste, usw..
3. Sprach ich allgemein von CPUs und habe mich nicht auf K Versionen beschränkt..

Viele Grüße
DoS007
 
Zuletzt bearbeitet:
OK, dann sehr aneinander vorbei geschrieben.
Ich bezog mich ursprünglich auf einen Kommentar bezüglich K-CPUs (mit verlinkten CB-Benchmarks), bei dem es um den Vergleich von K-Prozessoren ging.

Korrigier mich falls ich falsch liege, aber zum Thema WLP gab es nur eine Änderung (seit Jahren) seitens Intel und das war Devils Canyon aka Haswell Refresh. Andere Generationen betraf es nicht, auch nicht die Vielzahl der diversen K-CPUs. (falls ich mich irre, sorry dafür)
 
Shoryuken94 schrieb:
Ja, die 6 Kerner sollten schon so in die Richtung 4,4Ghz bei vertretbaren Spannungen gehen, ansonsten kann man auch die alten Hexacores kaufen. So groß ist der taktbereinigte Unterschied dann ja auch nicht. Ende des Jahres / Anfang 2017 soll ein neuer Rechner her. Mal gucken, ob es ein 5XXX Hexacore, 6XXX Hexacore oder doch Zen wird.

Bei "vertretbaren Spannungen" liegt genau das derzeitige Problem bei 14nm. Das Gateoxid ist so dünn (~3nm), dass wie bereits beschrieben, durch zu hohe Feldstärken im Kanalbereich heiße Elektronen generiert werden können, die das Gateoxid schädigen (betrifft nur n-Kanal Typen, da beim p-Kanal aufgrund der geringeren Beweglichkeit die erforderlichen Feldstärken für heiße Ladungsträger nich erreicht werden). Wenn ihr also die Spannung anhebt, die Temperaturen in Ordnung sind und euer System stabil läuft, bedeutet das bei 14nm CPUs eben nicht, dass sie auch noch nach zwei Jahren fehlerfrei laufen. Der Prozessor altert durch zu hohe Spannung schlichtweg. Seid also vorsichtig, was die Kernspannung angeht.
 
borizb schrieb:
Liegt aber hauptsächlich daran, dass 95% aller Anwendungen im privaten Desktopbereich
nicht mit mehr Kernen skalieren.
Im Server oder Business Bereich sieht das schon ganz
anders aus. Aber ja, 8 Kern Handys für jedermann und 4 Kern CPUs mit HT das Stück für
400€ sieht scho bisserl komisch aus. Aber hier gehts auch um Energieeffizienz und dann
auch um die Kühlung, Gehäusegröße von Desktop-PC und Anschaffungskosten. Ist nur
was für Enthusiasten im Moment. Auch werden die meisten Spieleentwickler nicht für so
viele Kerne optimieren, weil die installierte Basis solcher Systeme viel zu gering ist.

Wo kommt der Blödsinn immer her? Mal aktuelle Benchmarks angesehen? Nur weil ein Spiel mit einem schnelle DualCore/QuadCore bereits flüssig läuft heißt das noch lange nicht das aktuelle Spiele nicht von mehr Kernen gebrauch machen können. Dreh mal die Auflösung auf 800x600, dann rennt der 6 oder 8 Kerner den QuadCores davon, trotz 1Ghz weniger Takt. Nicht Praxis Relevant? mag sein, aber warum sollte AMD oder Intel dann dicke CPUs verschenken wenn die Leistung erst in 3 Jahren benötigt wird.

Viele meinen auch bei den CPUs tut sich nichts. Flasch. Es wird nur nichts mehr verschenkt. Der kleine Sockel ist für Budget-PCs mit iGPU gedacht und nicht für Gamer und Enthusiasten. Wärend sich eben im unteren Preisbereich nichts tut bekommt man aber signifikant Mehrleistung wenn man etwas mehr Geld auf den Tisch legt. Die Zeiten sind vorbei das es die Sperspitze für 250€ gibt. (Q6600 einen der ersten QuadCores für 250€ + OC Möglichkeit = über 25% über Topmodel). Der 4790k und 6700k sind dahingehend auch ein Witz. 5% OC ROFL. Die kommen ja mit OC nicht mal an einem 5820k @ Stock vorbei.
 
Zuletzt bearbeitet:
G3cko schrieb:
... Die Zeiten sind vorbei das es die Sperspitze für 250€ gibt. (Q6600 einen der ersten QuadCores für 250€ + OC Möglichkeit = über 25% über Topmodel). Der 4790k und 6700k sind dahingehend auch ein Witz. 5% OC ROFL. Die kommen ja mit OC nicht mal an einem 5820k @ Stock vorbei.

Ich korrigiere ungern, aber müsste eigentlich bombastische OC-Möglichkeit heißen für den Q6600 (G0 Stepping).
FSB von 266 MHz auf 333 MHz hoch, Takt von 2,4 GHz auf 3,6GHz, alles mit Luftkühlung... ach ja damals, als die Gusspfannen noch aus Holz waren :D
 
DoS007 schrieb:
Was du ja letztlich insinuierst: Erzähl mir nicht, dass Firefox oder Office mehr als 4 Kerne nutzen.. Und selbst bei Programmen, die super neu sind. Nicht alle Problemstellungen sind einfach parallelisierbar (nur einzelne Sachen bei solchen Programmen laufen ggf. schneller). Schau dir doch beispielsweise die Antwort von Googlook, der das aus 1. Hand weiß:

Ich muss mit erstaunen zugeben. Selbst nach Jahren hat Firefox es nicht geschafft die Prozesse aufzuteilen, Kein wunder, dass es heutzutage immer weniger Leute nutzen.
https://wiki.mozilla.org/Electrolysis
https://developer.mozilla.org/de/Firefox/Multiprocess_Firefox
IE oder Chrome nutzen schon seit Jahren pro Seite/Tab zusätzliche Threads. (Bericht von 2008)
http://www.hanselman.com/blog/MicrosoftIE8AndGoogleChromeProcessesAreTheNewThreads.aspx

Excel kann ebenfalls schon seit Jahren beliebig viele Threads benutzen. Excel 2007 konnte bereits 256 Threads spammen. Das gleiche dürfte auf für die anderen Applikationen gelten. Zusätzlich benutzen aktuelle Office Versionen auch die GPU zur Beschleunigung.
https://msdn.microsoft.com/de-de/library/office/ff700514(v=office.14).aspx#MultithreadedCalculation
http://softtalkblog.com/2010/05/18/how-office-2010-takes-advantage-of-multicore-hardware/
 
Zuletzt bearbeitet:
oldmanhunting schrieb:
Man sollte meinen, das Leute die in diesem Forum lesen und Kommentare abgeben auch Computer Nerds sind. Somit ist ein i7-6950X die Speerspitze und ein Traum von CPU. Der Preis schreckt halt ein wenig ab aber bezahlbar sind 1500 Euro für so ein Monster allemal. Wenn die CPU dann 10 Jahre rennt, dann sind das 150 Euro/Jahr was weniger ist als meine Ausgaben für das parken vom Auto pro Jahr. Andere Leute kaufen in diesen 10 Jahren 3 mal neue Hardware und ich habe mit dem i7-6950X immer noch mehr Zylinder unter der Haube.

Die frage ist, was macht man (sinnvoll) mit 10 Kernen und 20 Threads? Wenn 4 von den 10 Kernen permanent im idle laufen, dann war das ein Fehleinkauf.


Fast der einzige der Rechnen kann. Der 10 Kerner wäre für mich ein Traum, alleine für mein Cinema 4D hobby. Aber da ich mit dem Hobby kein Geld verdiene ist für mich der 10 Kerner dahingehend unrentabel. Auch die Annahme das sei eine CPU für gamer, nue weil man Übertakten kann is Blödsinn. Wenn jemand da draußen ist, und das sind nicht wenige, die eben Beruflich evtl. 3D renderings machen oder so was, die spielen auch Privat gerne rum und probieren aus. Die verdienen dann auch genug um eben sich solch ein Spielzeug eben zu leisten. Gönne jedem das teil.

Persönlich bin ich froh wenn ich mir im Nächsten Rechner einen i7 mit 6kernen zulegen kann und meinen i7 870 in Rente schicken kann.

Und weil ich gerade das Beispiel mit Bluerays in mkv gelesen habe. Äh Sorry, das schafft ein schimmliger i5. die Einzige bremse is das Blueray Laufwerk. Ausgehen von 1:1.
 
Kasjopaja schrieb:
...
Und weil ich gerade das Beispiel mit Bluerays in mkv gelesen habe. Äh Sorry, das schafft ein schimmliger i5. die Einzige bremse is das Blueray Laufwerk. Ausgehen von 1:1.

Wieso sollte das Laufwerk bremsen? ...whait... encoden direkt von der Disc, echt jetzt? Und wenn was nicht gepasst hat den ganzen Spass nochmal?
Sowas kann man auch auf Platte legen und dann mit mehrere Projekten die Queue füttern...
 
xexex schrieb:
Ich muss mit erstaunen zugeben. Selbst nach Jahren hat Firefox es nicht geschafft die Prozesse aufzuteilen, Kein wunder, dass es heutzutage immer weniger Leute nutzen.
IE oder Chrome nutzen schon seit Jahren pro Seite/Tab zusätzliche Threads. (Bericht von 2008)

Dass den FF weniger Leute nutzen stimmt wohl schon, aber hauptsächlich wohl, weil er extrem bugyg und unstabil ist. Chrome lagert ja auch seine Tabs in eigene Prozesse aus um Stabilität zu erreichen, nicht wegen der Geschwindigkeit. Und dazu reicht bereits ein Singlecore.

Excel kann ebenfalls schon seit Jahren beliebig viele Threads benutzen. Excel 2007 konnte bereits 256 Threads spammen. Das gleiche

Ja, nur bringt es dir nichts, auf gut Glück Myriaden an Threads zu spammen, wenn dein Hauptthread den Löwenanteil der Rechenleistung frisst. Das kostet dich nur Verwaltungsaufwand und da bringen dir zusätzliche Kerne auch nur wenig bis nichts. Parallelisierung ist was anderes.
 
jbauer schrieb:
Dass den FF weniger Leute nutzen stimmt wohl schon, aber hauptsächlich wohl, weil er extrem bugyg und unstabil ist. Chrome lagert ja auch seine Tabs in eigene Prozesse aus um Stabilität zu erreichen, nicht wegen der Geschwindigkeit. Und dazu reicht bereits ein Singlecore.

Ja, nur bringt es dir nichts, auf gut Glück Myriaden an Threads zu spammen, wenn dein Hauptthread den Löwenanteil der Rechenleistung frisst. Das kostet dich nur Verwaltungsaufwand und da bringen dir zusätzliche Kerne auch nur wenig bis nichts. Parallelisierung ist was anderes.

Wie kommt du auf deine Behauptung?

Bei Chrome oder IE läuft jeder Tab in einem eigenen Thread. Das bedeutet auch nichts anderes, als dass man selbst einen 100 Kern Prozessor auslasten kann, vorausgesetzt man arbeitet intensiv mit Tabs und letztlich ging es genau darum. Zumindest der Internet Explorer geht aber noch ein paar Schritte weiter und nutzt sowohl noch die GPU Beschleunigung zum Rendern als auch eine Multicore optimierte Javascript Engine. Können "normaluser" von CPUs mit mehreren Kernen (als 4) profitieren? Mit halbwegs aktueller Software ist es schon lange der Fall und aktuelle Spiele nutzen mehr als 4 Kerne ebenfalls, auch wenn in Moment nur wenige Spiele zusätzliche Kerne zur Verbesserung der Grafikqualität einsetzen.

Excel skaliert übrigens sehr gut mit mehreren Threads. Wie du auf deine Behauptung kommst, musst du vielleicht nochmal genauer erklären. Parallelisierung sieht für mich genau SO aus! Excel skaliert in dem Fall praktisch perfekt mit jedem zusätzlichen Kern und das bereits mit der Version 2007.

Die Behauptung mehr als 4 Kerne braucht keiner ist heutzutage schlichtweg absoluter Unsinn und hat mit der Realität nichts zu tun. Bei aktuellen Spielen scheint die Entwicklung auch bereits die 4 Kerne "Barriere" durchbrochen zu sein und wie Intel bei F1 2015 demonstrierte braucht hört die Nutzung der zusätzlichen Kerne nicht auf, nur weil die Grafikkarte limitiert. Leider auch etwas, was selbst in diesem Thread wie eine kaputte Schallplatte immer wieder abgespult wird.

Rebalancing the CPU Workload

Normally, F1 2015's limiting factor in PC performance was the GPU workload. This load was especially heavy on lower-end video cards. The most important part of developing and enabling these new effects was to ensure that these extra particles did not increase the GPU workload. The second resource consideration was to achieve good distribution of the CPU calculations, balancing the work across the available CPU resources and ensuring there was no increase in the work for the critical render path in the engine.

The GPU load control was achieved in two ways. First, vertex work was moved from the vertex shader to the CPU. This reduced the amount of work done per vertex on the GPU. It did not completely remove the GPU workload, but it was reduced by a factor of two. So rendering ten times as many particles only resulted in a five-fold increase in the vertex processing cost. The second large change was to reduce fill rate costs, such as with rain. A ten times increase in raindrops resulted in an increase of only 1.65x in actual rendered pixels. In the case of the vortex trails behind the cars the changes were even more pronounced. An increase in vertices from 3K to 70K actually resulted in a pixel drop of 5800K to 2500k, effectively halving the fill rate cost of the effect. The end result was an effect made up of 20 times the number of particles with no significant increase in GPU rendering cost.

Mit Ausblick auf die Zukunft und der möglichen Laufzeit einer neuen CPU von 4+ Jahren ist ein Kauf einer CPU mit nur vier Kernen heutzutage eigentlich nicht zu empfehlen. Allerdings lässt sich Intel zusätzliche Kerne derzeit vergolden, also bleibt dem Nutzer eigentlich doch kaum eine Alternative. "Rise of the Tomb Raider" zeigt bereits eindrucksvoll wie man sowohl die CPU als auch die GPU je nach Szene, Detailgrad und GPU Leistung komplett auslasten kann. Mit zusätzlichen CPU Kernen hätte man hier genauso viel Spielraum wie mit einer neuen Grafikkartengeneration und während eine stark verbesserte GPU Generation bald kommt, hängt man bei bezahlbaren CPUs noch immer bei 4 Kernen fest.
 
Zuletzt bearbeitet:
@xexex
Um von 4 auf 6 Kerne zu erhöhen braucht es keine Plünderung von Fort Knox, wie ich weiter oben schon mal mit Zahlen belegt habe.
Der Sprung auf 8 Kerne ist dann aber schon wesentlich teurer.
 
Der Sprung von 4 auf 6 Kerne kostet bei intel aktuell ca 40€ und ist mehr als vertretbar. Eine zeit lang lagen sogar beide fast gleich auf im Preis. Die x99 Mainboards kostet halt noch mal ein Stück mehr. Da kann man schon gut und gerne noch mal 100€ draufschlagen, gegenüber einem brauchbaren Z170 MB`s. Dafür sind die x99s auch besser ausgestattet. Beabsichtigt man also eine längere Nutzung, dann ist der Sprung von 4 auf 6 Kerne echt nicht so doll teuer, zumal man beim x99 noch upgrade optionen auf den 8 und den 10 kerner in der Zukunft hat. Beim Z170 ist beim einfachen Quadcore schluss.
 
Fragger911 schrieb:
Wieso sollte das Laufwerk bremsen? ...whait... encoden direkt von der Disc, echt jetzt? Und wenn was nicht gepasst hat den ganzen Spass nochmal?
Sowas kann man auch auf Platte legen und dann mit mehrere Projekten die Queue füttern...


Ne, aber wenn ich die blu-ray mit make mkv auf die disc schiebe ist es fakt das das Laufwerk am langsamsten ist und nicht die cpu bremst. Den begriff Blu-ray assoziiere ich mit der Disc bzw. dem Speichermedium und nicht mit dem Fileformat das auf der disc liegt.
Und wenn jemand schreibt das er von Blu-ray in MKV daddelt, dann gehe ich davon aus das er dies von der Blu-ray (Disc) macht. ... oohh wait: Quelle

Fragger911 schrieb:
Sowas kann man auch auf Platte legen und dann mit mehrere Projekten die Queue füttern...

Und darauf biste ganz alleine gekommen?

Reines Missverständnis.
 
xexex schrieb:
Wie kommt du auf deine Behauptung?

Bei Chrome oder IE läuft jeder Tab in einem eigenen Thread.

Das ist falsch. Jeder Tab läuft in einem eigenen Prozess, Prozess != Thread.

Das bedeutet auch nichts anderes, als dass man selbst einen 100 Kern Prozessor auslasten kann, vorausgesetzt man arbeitet intensiv mit

Auch das ist falsch. Ob ein, zehn oder hundert Kerne, der Prozess in einem Tab wird dadurch nicht beschleunigt.
Natürlich kannst du mehrere Tabs aufmachen, die alle in ihrem eigenen Prozess laufen, aber Chrome selbst parallelisiert da nichts.

Können "normaluser" von CPUs mit mehreren Kernen (als 4) profitieren? Mit halbwegs aktueller Software ist es schon lange der Fall und

Wieder falsch. Nicht aktuell sondern spezielle Software muss es heißen. Ich streite nicht ab, dass es Software gibt, die von mehreren Kernen profitiert, aber die findest du hauptsächlich in speziellen Bereichen, wie Simulationen, wissenschaftliche Anwendungen, Videoschnitt u.a. Das ist aber wohl kaum, was Otto Normaluser tut.

aktuelle Spiele nutzen mehr als 4 Kerne ebenfalls, auch wenn in Moment nur wenige Spiele zusätzliche Kerne zur Verbesserung der

Einige wenige Toptitel, mit entsprechendem Budget für die aufwendige Entwicklung, können von mehr als vier Kernen sinnvoll Gebrauch machen. Die überwiegende Masse an Spielen macht das jedoch nicht.

Excel skaliert übrigens sehr gut mit mehreren Threads. Wie du auf deine Behauptung kommst, musst du vielleicht nochmal genauer erklären. Parallelisierung sieht für mich genau SO aus! Excel skaliert in dem Fall praktisch perfekt mit jedem zusätzlichen Kern und das bereits mit der Version 2007.

Leider wird dort nicht näher beschrieben was oder wie mit Excel getestet wurde, ob das eine eingebaute Funktion, externe dll, VBA oder Sheet ist. Nur soviel: eine Monte Carlo Simulation besteht aus sehr vielen von einander unabhängigen Teilaufgaben, ist also quasi ideal zu parallelisieren. Bei anderen Aufgabenstellungen sieht es dann anders aus. Daraus kannst du aber nicht herleiten ob und wie Excel von mehreren Kernen profitieren kann.
In deinem anderen Link hat der MS-Mensch beschrieben, dass Excel einfach stumpf einen Thread für jede Arbeitsmappe aufmacht und auf das beste hofft. Klingt jetzt nicht unbedingt nach gelungener Parallelisierung.

Die Behauptung mehr als 4 Kerne braucht keiner ist heutzutage schlichtweg absoluter Unsinn und hat mit der Realität nichts zu tun. Bei aktuellen Spielen scheint die Entwicklung auch bereits die 4 Kerne "Barriere" durchbrochen zu sein und wie Intel bei

Es gibt keine "4 Kerne Barriere". Es gibt einfach das Problem, dass du nicht jede Aufgabenstellung parallelisieren kannst. Und selbst wenn du sie parallelisieren kannst, profitierst du von immer mehr Kernen immer weniger, bis zu dem Punkt, wo der zusätzliche Verwaltungsaufwand den zusätzlichen Nutzen eines weiteren Kernes übersteigt.
Und Software für Otto Normalnutzer ist sehr oft nun einmal ST und profitiert von höherer ST-Leistung und nicht von mehreren Kernen. Und deswegen ist ein flotter Dual- oder Quadcore mit hoher ST-Leistung für die Mehrheit die beste Wahl. Demzufolge sieht auch das Angebot von Intel aus, die bieten halt auch nur an, was sie auch gut verkaufen können.
 
jbauer schrieb:
Das ist falsch. Jeder Tab läuft in einem eigenen Prozess, Prozess != Thread.
.

Dann erkläre mal! Welchen Unterschied gibt es am Ende für den Nutzer? Ob Prozess mit mehreren Threads oder mehrere Prozesse. Jedes davon kann auf jeweils unterschiedlichen Kernen laufen und somit beliebig skalieren. Vorausgesetzt die Anwendung ist nich nur auf x Threads/Prozesse beschränkt.

jbauer schrieb:
Auch das ist falsch. Ob ein, zehn oder hundert Kerne, der Prozess in einem Tab wird dadurch nicht beschleunigt.
Natürlich kannst du mehrere Tabs aufmachen, die alle in ihrem eigenen Prozess laufen, aber Chrome selbst parallelisiert da nichts..

Wo habe ich was anderes geschrieben?

jbauer schrieb:
Wieder falsch. Nicht aktuell sondern spezielle Software muss es heißen. Ich streite nicht ab, dass es Software gibt, die von mehreren Kernen profitiert, aber die findest du hauptsächlich in speziellen Bereichen, wie Simulationen, wissenschaftliche Anwendungen, Videoschnitt u.a. Das ist aber wohl kaum, was Otto Normaluser tut.

Ich wiederhole meine Frage gerne nun zum fünften mal. Dann nenne mir eine x-beliebige halbwegs aktuelle Software die irgendwas berechnet oder CPU lästig ist die KEINE zusätzlichen Kerne nutzt. Deine Behauptung ist schlichweg Quatch und hat bestenfalls vor 10 Jahren noch bestand gehabt.

Oder mal anders gefragt... Was tut denn Otto Normaluser so?

Surfen - Beliebig viele Kerne werden unterstützt wenn er mehrere Tabs gleichzeitig nutzt.
Virenschutz - Profitiert von zusätzlichen Kernen.
Bildchen bearbeiten - Selbst paint.net ist ausdrücklich für mehrere Kerne optimiert.
Videos/Bilder schauen - so ziemlich jede Software die IRGENDWAS mit Multimedia zu tun hat unterstützt mehrere Kerne oder die GPU.
Office - Wie verlinkt werden AUSDRÜCKLICH mehrere Kerne unterstützt.
Komprimieren - keine Frage
Spiele - Ehrlich? soll ich noch weiter aufzählen?

Du behauptest es wären Ausnahmen. Dabei fällt mir so ziemlich gar nichts mehr ein, was eben NICHT von mehreren Kernen profitieren würde außer Tools wie Notepad und Co. die sowieso keine Ressourcen benötigen.

jbauer schrieb:
Es gibt keine "4 Kerne Barriere".

Oh doch!

Ich weiss nicht woraus du deine Weisheiten ziehst, aus Mangel von Quellenangaben vermutlich aus dem Finger. Sämtliche Spieleengines älter als 1-2 Jahre haben bisher maximal 4 Kerne genutzt. Die Grenzen hatten auch weniger mit den Möglichkeiten zu tun, man optimiert nur nicht etwas für Hardware die schlichtweg nicht existiert oder nicht im Einsatz ist. Erst mit den neuen Konsolen MUSSTE man plötzlich 8 Kerne unterstützen.
Vor dem Jahr 2010 waren noch schnelle Dualcore CPUs schick.
http://www.bit-tech.net/hardware/cpus/2010/07/05/how-many-cpu-cores-do-games-need/1
In den vergangenen Jahren haben die Spiele häufiger mal auch mehr Kerne genutzt jedoch nur äußerst selten mehr als 4 Kerne. Unter anderen deswegen hat AMD auch keinen Erfolg mit den Bulldozer Architektur gehabt.
http://www.tomshardware.com/reviews/game-performance-bottleneck,2737.html
http://www.tomshardware.com/reviews/game-performance-bottleneck,2738.html
Anders ausgedrückt, ältere Engines haben oft schlichtweg eine möglichst hohe Singlethread Leistung verlangt und haben nur Nebenaufgaben wie Sound oder Kommunikation auf zusätzliche Threads ausgelagert. Hier war man mit einem schnellen Intel Quadcore immer am besten bedient.

Heutzutage sieht die Welt anders aus und aktuelle Engines sind eben nicht mehr eingeschränkt.
https://www.computerbase.de/forum/threads/wie-viele-kerne-cores-unterstuetzen-eure-games.1380999/
DirectX12 bringt hier auch noch zusätzliche Möglichkeiten. Interessant wird es aber vor allem erst dann wenn 8 oder mehr Kerne der Standard sind und man sie wie im Fall von F1-2015 zusätzlich zur Grafikkarte zur Berechnung nutzen kann. Der Flaschenhals ist hier nur Intel, dass sich den Joker für später aufspart.
 
Zuletzt bearbeitet:
Was bei der betrachtung aber auch beachtet werden muss... diese Diskussion bezieht sich eigentlich auf 4 vs X Cores bei gleicher Architektur. Nun bietet Intel auf der High End Plattform leider nie die aktuelle Architektur an. Das sieht man dann in den hier hochgelobten Spielebenchmarks dann leider doch öfters. Digital Froundry hat da mal einen Test zwischen i7 6700k vs i7 5820k vs i7 5960x gemacht. Die Prozessoren wurden sowohl im Standardtakt, als auch übertaktet (4x4,6Ghz vs 6x4,6Ghz vs 8x4,4Ghz) getestet. Die Architektonischen Neuerungen des Skylake Prozesors gegenüber der alten Haswells war teils schon sehr beeindruckend. Selbst übertaktet hatten die Haswell Prozessoren probleme den neueren Skylake mit standardtakt einzuholen. Selbst in Spielen die mehr als 4 Kerne unterstützen (wie z.B. Crysis 3) hatten der Hexa- und der Octacore Probleme, den 6700K zu erreichen.

Würden beide Plattformen auf der selben Architektur laufen, dann ist die kerndiskussion eine andere. Aber bei verschiedenen Architekturen ist dann wieder so eine Sache. In Dingen wie Encoding, Videoschnitt etc. hat der ältere Hexacore zwar die Nase vorne, aber bei vielen anderen anwendungen wiegen die Architektonischen Änderungen schon schwerer.
 
Zurück
Oben