News Intel Core i7-6950X: Support-Seiten bestätigen neue CPU-Spitze

Bisserl späte Antwort, aber vorher hatte ich leider keine Zeit und unkommentiert will ich es auch nicht stehen lassen.

ascer schrieb:
Nun, tatsächliche Fäkalsprache liegt mir nicht, weshalb ich Emotionen gern mit Handpuppen oder Milchprodukten manifestiere. Bei einem konstruktiven Diskurs kann ich jenes natürlich gern unterlassen, aber die Masse der Beiträge hier las sich eben wie "mehr als 4 Kerne geht nicht!!!11einself" oder "keine Software kann mehr als 4 Kerne nutzen!!!11einself" - wobei Software bei der Masse hier ja auch noch direkt Synonym zu Spielen ist. Gleichzeitig bezweifle ich stark, dass die Masse hier je in der Softwareentwicklung tätig war, besonders was Parallelisierung angeht.
Deshalb, so finde ich, waren die Milchprodukte und der Kasperl ganz nett ;)

Sicherlich ist Vulgär- oder Fäkalsprache völlig unangebracht, hättest du die benutzt, hätte ich dich aber wahrscheinlich nicht ernst genommen oder einfach ignoriert. So gesehen bleibe bei deinen Milchprodukten. Erste Sahne (noch ein Milchprodukt!) wäre natürlich, immer sachlich zu bleiben. Fällt aber manchmal schwer und gelingt mir auch nicht immer.

Abgesehen von der Cache-Problematik (die Amdahl komplett ignoriert; siehe weiter oben, wo ich die Supralinearität durch Cachezuwachs kurz angeschnitten habe)
Es gibt schlicht keine Cache Problematik. Dass die Cache-Größe mit der Anzahl der Kerne wächst ist ein völlig unabhängiges Phänomen. Es gibt Singlecore CPUs mit mehr Cache als die Intel Multicore CPUs und Cache ist nicht bei jeder CPU shared sondern eben auch bei einigen separat z.b. hier.
Wenn der Vorteil von dem großen Cache davon herrühren sollte, dann profitiert eine Singlecore CPU genauso von diesem großen Cache, unabhängig von Takt oder Geschwindigkeit. A. Law gilt außerdem auch für Multi-CPU Systeme oder auch Systemverbünde.

geht Amdahl z.B. auch von konstanter Problemgröße aus. D.h. Ahmdal's Law
beschreibt im Prinzip den Speedup eines konstanten Problems, das so schnell wie möglich ablaufen soll.
Für die theoretische Informatik ist das in der Tat interessant (gibt wohl auch keine Uni, die das nicht durchnimmt)...für die Praxis ist das aber Quatsch.

Nein, kein Quatsch, was du meinst ist Gustafson's law, beide verwandt aber doch verschieden.
Zusätzlich zu den bereits aufgezählten Ungenauigkeiten kommt noch hinzu, dass es in der Praxis schwierig ist, die Teilaufgaben gleich groß zu machen, so dass hier weiterer Verschnitt anfällt (das trifft ebenso auf G.law zu).
In der Praxis kommt es imho häufiger vor, dass man eine Aufgabe (Bild rendern, Photoshop Filter) schneller erledigen will, als das man mehr in einer Zeitspanne erledigen möchte (Man könnte größere Bilder bearbeiten, aber meine Bilder werden ja nicht größer, nur weil ich mehr CPU-Kerne habe).

Nichtsdestoweniger kann mir aber niemand erzählen, dass N=4 (seit Jahren) einfach für jedwedes Spiel und N=[1, 4] für beliebige "Normalsoftware" die perfekte Lösung darstellt.

Das liegt imho einzig an einer Teilmenge von:
- zu wenig Budget
- zu unversierten Programmierern
- der Tatsache, dass im Consumermarkt seit Jahren nur 1-4 Kernprozessoren verkauft werden
Das sehe ich anders. Die meiste (Anzahl) Software, die die meisten wohl alltäglich privat (nicht beruflich) verwenden, dürfte wohl Browser, Office, Dateimanager, email, usw (was auch immer ich vergessen habe,) sein. Nichts davon ist multithreaded oder würde davon (wesentlich) profitieren. Dafür sind die heutigen Rechner schlicht schnell und gut genug, mangels Nachfrage gibt es deswegen halt auch kein Angebot. Für Professionelle und anspruchsvolle Hobbyisten, die mehr Kerne sinnvoll verwenden können, gibt es ja auch mehr Kerne, die kosten halt ein paar Pfennig mehr.
Und bei Spielen scheint nun mal der Renderpfad der kritische Pfad zu sein, der sich eben nicht oder nur sehr schwer parallelisieren lässt (bin aber kein Spieleprogrammierer, also vermute ich es nur). Und selbst wenn es möglich wäre, dann wäre der Aufwand so hoch, dass man die Entwicklungskosten nicht mehr rein bekäme.

Wir wollen jetzt hoffentlich nicht in absichtlem Fehlverstehen von Aussagen kommunizieren: natürlich hat das nichts mit dem Otto* zu tun. Sollte aber eines Aufzeigen: selbst Javascript lässt sich mit vertretbarem Aufwand parallelisieren.

Javascript ist eine Programmiersprache, nicht diese muss parallelisierbar sein, sondern das Programm, dass du damit schreibst.

Und wieder: kriegt das ein Student hin, bei vergleichsweise komplexen Kram wie KIs, dann sollte es für ein ganzes Entwicklerteam und größere Software wohl nicht das Problem sein, ebenfalls mal ein wenig parallelen Code zu produzieren.

Gerade als I-Student macht man solche Spielereien (das ist jetzt nicht abwertend gemeint) doch mal öfter. Aber später in der echten Welt schaut es dann anders aus.

Und noch mal abschließend als Denkanstoß: auf welchem PC läuft bitte stets nur eine einzige Anwendung?

Ja und nein. Natürlich können mehr Kerne bei mehreren aktiven Prozessen hilfreich sein, aber erstens bedeuten laufende Prozesse nicht gleich ausgelastete CPU (Beispiel: prcss.jpg, 175 Prozesse, mehr als zweitausend threads, aber trotzdem 97% idle, das ganze auf einem Intel i3) und zweitens wird ein System nicht unbrauchbar, nur weil die CPU-Last auf hundert Prozent ist. Ich könnte mir mein System jetzt mit Prime vollstopfen (was ich gerade mal aus Spass mache, und ich merke keinen Unterschied, zumindest, während ich den Text hier schreibe (und nebenbei sogar noch ein Video schaue) und trotzdem kann ich ungestört weiterarbeiten. Alles eine Sache des Schedulers und der Prozessprioritäten.

xexex schrieb:
Du hast bisher gar nichts widerlegt sondern bestenfalls nur irgendwelche eigenen Behauptungen aufgestellt.
Ich habe keine Behauptungen aufgestellt, ich habe versucht, dir deine Fehlinterpretationen und Missverständnisse zu erklären. Aber offensichtlich bist du an sachlichen Argumenten nicht interessiert.

Wo bleiben deine Links? Wo bleiben deine nachvollziehbaren Tests. Sorry aber mich hier hinstellen und irgendwelche trockenen Behauptungen aufzustellen die bereits von "ascer" widerlegt wurden
Nein, wurde nicht von ascer widerlegt, die Diskussion dreht sich inzwischen aber auch um ganz andere Themen.

Also links willst du? Dann hier, hier siehst du, dass Excel bei vier CPU-kernen nicht über 25% CPU-Auslastung kommt, also nur einen einzigen Thread nutzt: excelcpu2.jpg
Test ist einfach ein paar(ungefähr 400000) Zellen in einer Arbeitsmappe neu berechnen. Excel ist aus Office 20166 Probeversion, die aber meines Wissens identisch mit der normalen Version ist, es fehlt nur die Aktivierung).
Hier siehst du, dass Chrome ebenfalls Singlethreaded ist, Test ist peacekeeper(abgesehen von dem Teil mit dem Javascript Webworkern) chrome25.jpg

hat nichts mit dem Bezug zu Realität zu tun. Es geht um bereits auf dem Markt befindliche Software und deren Tauglichkeit mit der steigenden Anzahl der Kerne zu skalieren und die ist bei dem Großteil der auf dem Markt befindlicher Software bereits gegeben.

Wie gezeigt ist das eben nicht der Fall, und selbst bei spezialisierter Software sieht es ernüchternd aus, wie du im link von Buttermilch siehst. (Der link ist übrigens erste Sahne, nur um mal die Milchprodukte zu entdiskriminieren)


Welchen Profit er davon trägt hängt also letztlich einzig von seinem Nutzungsprofil ab und der Geschwindigkeit der einzelnen Kerne. Da sich die Geschwindigkeit derzeit aber nicht beliebig steigern lässt, die Kernzahl aber problemlos auf Serverniveau erweitert werden könnte wo 16+ Kerne immer stärker verbreitet sind,

Du kannst heute schon deinen Rechner auf "Serverniveau" bringen, nur hast du auf deinem Rechner keine "Serveraufgaben", die das ausnützen könnten und dein Browser oder Excel werden dadurch nicht schneller, im Gegenteil, bei vielen Kernen sinkt in der Regel die Singlethreadleistung, dein Rechner wird also effektiv gefühlt langsamer.

liegt hier die Zukunft in der Entwicklung die derzeit durch Intel künstlich begrenzt wird.
Glaubst du jetzt wirklich, dass Intel die Entwicklung absichtlich bremst, nur um dir deine Multicore-CPUs zu vorenthalten? Dann hab ich was für dich: aluhut_anleitung.png.client.x675.png
 
Zuletzt bearbeitet:
jbauer schrieb:
Glaubst du jetzt wirklich, dass Intel die Entwicklung absichtlich bremst, nur um dir deine Multicore-CPUs zu vorenthalten? Dann hab ich was für dich:

Dafür brauche ich keinen Aluhut.

Man schaue sich die Entwicklung im Mobile Sektor an. Dort hat man bedingt durch die vorhandene Konkurrenz schon lange Prozessoren mit 2 schnellen und vielen langsameren Kernen gekoppelt. Das wäre nur einer der Lösungen für dein Problem mit Software, die mehrere Kerne nicht optimal ausnutzen kann.

Nur hat Intel in Desktop Markt keine Konkurrenz. Wieso sollten sie also mehr Kerne herstellen, wenn sie derzeit vermutlich gut mit dem jährlichen 10% Leistungssteigerung bei der Consumer Schiene und dem dreifachen Aufpreis für die Pro Schiene Geld verdienen können?

Nenne mir EINEN Grund wieso Intel plötzlich Octacore CPUs für ca. €500 verkaufen sollte? Es gibt schlichtweg keinen und ein Aufpreis von 300% und mehr für ein paar Kerne mehr ist durch nichts zu erklären.
 
Zuletzt bearbeitet:
Octacore gibt es von Intel schon für deutlich unter 500 €:
https://geizhals.de/?cmp=1394446&cmp=1394441
Dabei im Turbo bis zu 3GHz - was letztendlich den schnellen zwei Kernen mit langsameren zusätzlichen Kernen entspricht. HT dabei noch außen vor (ist ja kein wirklicher Kern). Und das ohne wirkliche Konkurrenz (99% Marktabdeckung) :D
Und das dürfte dann auch der Grund sein, den Du benannt haben wolltest. Um eben jene 99% Marktabdeckung zu bekommen - vermute ich mal. Könnte natürlich auch Altruismus sein - aber da habe ich so meine Zweifel. Laut Intel geht es auch um eine Strategie vor Ideenklau: so schnell in der Entwicklung zu sein, dass Dritte, die abkupfern, was ja auch eine Zeit dauert, hinterher mit völlig veralteten Produkten da stehen. Damit ist unter anderem AMD gemeint.
 
Zuletzt bearbeitet:
@sIsHyde: das stimmt, aber es ging dabei ja um breitflächige Verbreitung für den Endkundenmarkt. Dort, wo Quad-Cores heute sind.
Da ist für Octa-Cores (oder selbst Hexa-Cores) bei Intel ja nicht mal nach Skylake auch nur irgendeine Minimalmotivation zu erkennen. Octa-Cores gibt es nur mit geringerem Takt für Xeon oder eben im Enthusiastenmarkt...bei beidem kostet - auch dank Intel - das Mainboard mittlerweile schon mehr als ein kleiner Skylake im normalen Endkundensegment.
 
Selbst mit Mainboard (200€) ist das gar nicht mal so schlecht bzw. günstig, wenn man die Leistung braucht. Mit zwei Sockeln dann gibt es weitere Pfade in noch höhere Leistungsklassen, ohne dass es teuer wird.

Tatsache bleibt insofern nämlich, dass Mainstream den Bedarf einfach nicht hat. Und für wirklichen Leistungsbedarf ist der 8-Kerner dann quasi Einstigesklasse. Und da sind wir meist im Produktivbereich - also ohne Vorsteuer. Also 8-Kerner mit Mainboard für 550,- €. Und das kann man dann noch abschreiben.

Wer sich natürlich mit 8 oder 10 Kernen schmücken will, quasi als sogenannte "Schwanzverlängerung", naja, was soll man sagen: auch Schwanzverlängerung ist ein nachgefragtes Produkt und kostet eben.
 
Zuletzt bearbeitet:
slsHyde schrieb:
Tatsache bleibt insofern nämlich, dass Mainstream den Bedarf einfach nicht hat. Und für wirklichen Leistungsbedarf ist der 8-Kerner dann quasi Einstigesklasse. Und da sind wir meist im Produktivbereich - also ohne Vorsteuer. Also 8-Kerner mit Mainboard für 550,- €. Und das kann man dann noch abschreiben.

Über dieses Thema drehen wird seit 10 Seiten die Runden hier im Thread. Tatsache ist, dass aktuelle Spiele den Bedarf haben und die Kerne auch nutzen WÜRDEN, aber die wenigsten bereit wären bei den aktuellen Preisen zu einem System mit 6 oder 8 Kernen zu greifen. Zudem laufen auf so einem System Applikationen, die sich nur schlecht parallelisieren lassen langsamer, als auf einer halb so teuren Kiste mit 1151 Sockel.
https://software.intel.com/en-us/articles/f1-2015-goes-to-the-next-level-of-realism-on-the-pc
https://www.computerbase.de/2016-04/mirrors-edge-catalyst-systemanforderungen/

Die einzig bezahlbare Desktop CPU mit 2011-3 Sockel ist derzeit ein i7-5820K und die dürfte kaum an die Leistung eines i7-6700K Prozessors herankommen. Bei einem System mit einer i7-5960X CPU kostet alleine der Prozessor mehr als das doppelte eines i7-6700K Systems.

Wir könnten heutzutage, wie die aktuellen Spiele sehr gut zeigen, schon viel weiter sein und können uns nur bei den Konsolen und den dort eingesetzten langsamen AMD Octacore APUs bedanken, dass Spiele notgedrungen auf die Unterstützung von mehreren Kerne optimiert werden.
 
Zuletzt bearbeitet:
xexex schrieb:
Die einzig bezahlbare Desktop CPU mit 2011-3 Sockel ist derzeit ein i7-5820K und die dürfte kaum an die Leistung eines i7-6700K Prozessors herankommen.

Warum? Die lassen sich im Schnitt beide gleich gut übertakten. Wer genaueres wissen will, wirft einen Blick in die Statistiken von hwbot.org, aber in den Bereich von 4.2 - 4.5GHz gehen beide und alles andere ist Glückssache bei dieser Silicon-Lottery (also dass man gar nicht in den Bereich (stabil) reinkommt oder eben eine Frequenz von 4.5+ GHz erreicht).
 
Faust2011 schrieb:
Warum? Die lassen sich im Schnitt beide gleich gut übertakten. Wer genaueres wissen will, wirft einen Blick in die Statistiken von hwbot.org, aber in den Bereich von 4.2 - 4.5GHz gehen beide und alles andere ist Glückssache bei dieser Silicon-Lottery (also dass man gar nicht in den Bereich (stabil) reinkommt oder eben eine Frequenz von 4.5+ GHz erreicht).

Du redest von der Nische (Übertakten) einer Nische (Enthusiastensystem) einer Nische (SpielePC).

Wenn es darum geht langfristig einen breiten Markt zu erreichen um den als Spieleplattform zu nutzen, benötigt es Hardware die bezahlbar ist und aus dem Stehgreif funktioniert. Für die Spieleentwickler haben übertaktete Enthusiastensysteme keine Bedeutung und keine Marktrelevanz. Es stellt sich auch kein Spielehersteller hin und schlägt ein System mit 2 GPUs vor auch wenn Systeme mit bis zu 4 GPUs möglich sind.
 
Naja, jetzt wirst Du aber Spitzfindig. In welcher Hardwareempfehlung eines Spiels werden denn k-CPUs empfohlen? Wenn wir hier über k-CPUs reden, dann muss man das OC-Potential mit einbeziehen, denn genau dafür sind die da.

Ansonsten nimmt man beispielsweise statt der Klassiker-CPU i5-4690k eben den i5-4690.
 
Faust2011 schrieb:
Naja, jetzt wirst Du aber Spitzfindig. In welcher Hardwareempfehlung eines Spiels werden denn k-CPUs empfohlen? Wenn wir hier über k-CPUs reden, dann muss man das OC-Potential mit einbeziehen, denn genau dafür sind die da..

Die k Serie ist vor allem immer die schnellste verfügbare Serie, auch OHNE jegliche Übertaktung. Weil du meinst die übertakten zu müssen, heißt noch lange nicht, dass es sonst jemand außerhalb von Computerforen machen würde. Man sollte schon das vergleichen, was auf dem Papier steht schon alleine weil wie du schon selbst schreibst, dir beim OC niemand etwas zusichern kann.

Es wird immer Leute geben, die was tunen, optimieren oder Spoiler dran montieren. Die Masse nutzt aber derzeit Systeme, die mit solchen Basteleien nichts am Hut haben. Die Steamstatistiken zeigen ganz gut was derzeit verbreitet ist und da sind Prozessoren mit mehr als 4 Kernen derzeit so gut wie nicht vorhanden und auch CPU Geschwindigkeiten jenseits von 3,7Ghz mit 3% praktisch nicht irrelevant.

Das hätte schon lange anders sein können, so ziemlich jedes aktuelle Top Smartphone, auch wenn man das so nicht direkt vergleichen kann, hat mittlerweile ein einen Octacore verbaut. Am Ende führt eben dieses Problem dazu, dass wir jedes Jahr mit 5-10% Leistungssteigerung abgespeist werden und die Entwicklung seit Jahren stagniert.

Der springende Punkt an der ganzen Geschichte ist, wenn man solche Diskussionen sich anschaut, laufen sie häufig auf einen Punkt hinaus: "Aber bei mir limitiert bei Spielen doch eh immer die Grafikkarte!". Deshalb verlinke ich auch immer wieder gerne die Story von Intel, bei der sie zeigen wie sie sich selber ins Knie schießen. Dort hat man die Arbeit durch die Nutzung zusätzlicher Kerne so gut optimiert, dass die Grafikkarte nach der Aufbereitung der Daten nur noch einen Bruchteil der Draw Calls bekommt und dadurch entlastet wird trotz weit besserer Grafikqualität. Sowas geht aber halt nur wenn man auch Kerne HAT und ein Spiel darauf optimiert. Das ist aber nur dann der Fall wenn man sich Kerne als CPU Hersteller nicht vergolden lässt.
 
Zuletzt bearbeitet:
@xexex
Wenn man sich Deine Beiträge in diesem Thread durchliest, dann ist der springende Punkt an der ganzen Geschichte, dass Du gerne einen billigen 8 Kerner von Intel hättest den es aber für den von Dir genannten Preis nicht gibt und auch so schnell nicht geben wird. Da hilft es auch nicht über die Preispolitik von Intel zu meckern und einen Schmollmund zu machen. Es ist wie es ist und so schnell wird Intel nichts daran ändern.
 
Wer wirklich mehr Kerne braucht und diese dann nicht für irgendwelche Spielereien (wie so oft hier im Forum) verwendet bekommt schon seit Jahren bezahlbaren Mehrkernplattformen.
Wenn man wirklich nutzen hat tun die paar Euro nicht weh, bzw. der Aufpreis wird schnell amortisiert.
Daher hab ich wenig Verständnis für das viele Gejammer das es im mainstream nur max. 4 Kerne gibt.
 
oldmanhunting schrieb:
@xexex
Wenn man sich Deine Beiträge in diesem Thread durchliest, dann ist der springende Punkt an der ganzen Geschichte, dass Du gerne einen billigen 8 Kerner von Intel hättest .

Was ich mir wünschen würde wäre eine erstarkte Konkurrenz damit sich was im CPU Markt bewegt und da es nicht möglich ist den CPU Takt weiter zu steigern kann dies nur über zusätzliche Kerne geschehen.

Die Applikationen dafür gibt es bereits und Spiele mittlerweile ebenso, nur leider macht da Intel nicht wirklich mit.

Zusammengefasst waren das die letzten xSeiten dieses Diskussion... Und isch bin nu auch raus :)
 
Klar kannst du damit Videos rendern. Es wird nur im Vergleich zu leistungsstarken Desktop CPU entsprechend lange dauern.

Siehe u.a. hier:
http://www.notebookcheck.com/Intel-Pentium-N3540-Notebook-Prozessor.117399.0.html

Nettes Offtopic btw.^^


@Fujiyama,
grundsätzlich stimme ich dir zu, auch wenn ein niedrigerer Preis wünschenswert ist. Zur Zeit von Sandy Bridge E war z.B. der 2670 (v1) möglich. Mit 3,3 Ghz Turbotakt auf den ersten beiden (?) Kernen hatte man selbst bei Single Core Anwendungen noch genug Power pro Kern.
 
Ich hoffe es!
 
Im Herbst gibt es weit und breit noch keinen Zen mit 8 Kernen und wenn die CPU dann 2017 in den Markt kommt, dann hoffe ich doch sehr, dass AMD damit auch etwas Geld verdienen darf und die nicht verramschen muß. Ihr kauft eh nur AMD, weil es billig werden soll. Wieviel Geld und Zeit in die Entwicklung dieser Neuen CPU geflossen ist interessiert euch überhaupt nicht.
 
Das muss uns auch nicht interessieren.
 
Zuletzt bearbeitet: (Prozentzahl korrigiert)
Zurück
Oben