News Intel-Prozessor mit 15 Kernen und 30 Threads im Anmarsch?

also ich hätte gerne deutlich mehr Kerne. Der Sprung auf zwei war gut, der Sprung auf vier war super, jetzt kann man echt mal multitasken!


... das ist jetzt aber schon Jahre und drei Prozessschritte (!!!) her. Der erste Quad war in 65nm gefertigt, d.h. die heutigen 22nm Quads wären (gleiche Elektronik) Faktor 8,72 (!!!) mal kleiner. Eine 32 Kern CPU damaliger Technik wäre damit kleiner als ein heutiger Vierkerner...jetzt sag mir nochmal einer, ein 32 core Core2 Quad sei nicht schneller bei Render oder anderen Parallel-Rechenaufgaben als ein heutiger Spitzen-4 Kerner?!
Zumindest mal nen 8 Kerner für die Standard-User wäre mitlerweile angebracht, damit wäre der immer noch Faktor 3 kleiner als der in 2006.

Also ich hätte auf jeden Fall mehr Parallel-Power. Ich programmiere und simuliere viel, mit Matlab z.B.. Das heißt aber nicht automatisch, dass ich gerne 2000€+ für solch eine CPU ausgeben würde bzw. könnte!
 
Zuletzt bearbeitet:
Elkinator
Vllt sind auch teilweise Schreibfehler dabei, ich hoffe ich habe mich nirgendwo vertippt, aber HTT steht für Hyper-Threading (gib es mal in Google Intel HTT ein).

Intel fährt wegen mangelnder Konkurrenz auf der sicheren Seite und ich kann es denen aus wirtschaftlicher Sicht nicht verübeln
Das ist eben meine Aussage, wenn du meine Beiträge noch mal durchließt. Ich hab hier mit AMD und ARM lediglich Bsp gegeben. Anderseits auch dass AMD und ARM auch andernfalls sogar mehr Konkurrenz bieten könnten, besonders da das AMD-Produkt zweifllos eher Richtung multi-threading optimiert ist. Das würde aber nur passieren wenn Intel hier mitspielt, doch man sieht auch dass Intel allein durch die Fertigung trotzdem die Leistungsklasse inne haben wird.

So wie es momentan ist, klar kein Nutzen eines 15 core Prozessor im Desktop, aber das habe ich auch nirgendwo behauptet, zu mindestens war das klar nicht meine Absicht. Im Gegenteil, bin sogar der Meinung dass 4 Cores ausreichend sind (für mich sogar 2-3 cores) wobei ich aus persönlichen Gründen nur mehr einen 4 core mit HTT oder 4 Modulen kaufen würde.

Doch wenn Intel Richtung SoC und mobile Devices gehen will, muss man damit rechnen, dass es auch andere Möglichkeiten gibt, die eventuell potenter sind.
Die igps auch bei Intel zeigen, dass man gewissen Aufgaben wesentlich effizienter lösen kann. Und hier zeigt sich der Vorteil der Parallelisierung kleiner Einheiten. Fraglich aber ob Intel mit kleinen potenten cores nicht genauso eine ähnliches Potential entwickeln könnte (mit MIC müsste man bestimmt schon gewisse Erfahrungen und Tests gemacht haben).

Man bedenke Kabini, wo die Worker sich abdocken können und aktiviert werden können, wenn sie gebraucht werden.
Stell dir vor du hast jetzt einen 8 kern Prozessor.
Wenn du surfst ein core plus igp aktiv. Sobald du immer mehr Anwendungen oder stärkere Anwendungen betreibst schaltet sich ein core dazu (oder ein igp Teil). Wenn also die Software passt, würde die Performance aber auch dessen Verbrauch je nachdem du brauchst linear steigern(natürlich ist zusammenspiel von Takt, IPC, ein guter Sweetpoint quasi wichtig). Anders wenn du 4 cores hast die nur rauf und runter takten können => anstieg exponentiell.
Siehe Overclocking. Ein 4Modul Prozessor als gutes Bsp, verbraucht verglichen von 3 ghz zu 4 ghz exponentiell mehr.
Könnte man stufenweise die Performance mit cores dazuschalten würde man sowas nicht haben.
Aber ja sowas ist momentan sicherlich nicht möglich (eben wegen der Software), aber eine Entwicklung die so verlaufen würde wäre toll, aber nur möglich wenn die Anbieter mehr richtung multi-Core gehen würde.
Tegra 3 zeigt das aber schon mit seiner 5 kern-Idee sehr gut.
Was die Firmen einzeln betrifft habe ich eigentlich gar nicht ansprechen wollen. Mir ging es rein darum, was im Forum oft gesagt wird. Was ja ein "Fail" ist, was ja "marketing" ect ist. Dabei haben oft Firmen ja ein Hintergedanke und versuchen möglichst gut in Richtung Zukunft zu orientieren.
Ob AMD da zu weit ausgeholt hat (bzw vllt gar nicht anders konnte ?), wird man erst in paar Jahren sehen. Naja ich bin mal gespannt wie HSW werden wird :P ob da nicht auch schon Ansätze geben wird.
 
Zuletzt bearbeitet:
Elkinator schrieb:

verschrieben und korrigiert!

Die Strukturgröße ist 8,72 mal kleiner heute (65*65nm²/22*22nm² = 8,73). Natürlich sind heutige CPUs deutlich komplexer, sie haben ja sogar noch ne Grafikkarte mit an Bord. Mit der heutigen Fertigungstechnik könnte man aber demnach sehr viele alte Kerne auf gleicher Fläche unterbringen.

genau das war mein Punkt, sollte auch jeder (inkl. dir) so verstanden haben :)
Keine Heutige CPU könnte mit einer gleich größen 16 Kern+ CPU aus dem Jahr 2006 mithalten, never.
 
@pipip: Mein X6 hat jenseits des Renderings kaum Vorteile gegenüber meinem alten X2 gebracht - kein Wunder:

Software lässt sich nicht beliebig parallelisieren (auch wenn das AMD Marketing dies gerne suggerieren möchte) - genauso wie man als Normalanwender auch nicht sinnvoll beliebig viele Multitasks anstoßen kann, um zig Kerne auszulasten (auch wenn das AMD Marketing sicher in der Lage ist, ein paar absurde Gegenbeispiele zu konstruieren).

Ich halte einen Intel X15 für den Normalanwender für genauso sinnlos, als wenn es ein AMD X15 wäre.

Sorry, für das Füttern des Trolls.
 
Zuletzt bearbeitet:
Ja, es lassen sich nicht alle Algorithmen parallelisieren, aber sehr viele ;).
Alles, was beim Anwender eigentlich richtig Leistung benötigt ist parallelisierbar. Videos, Fotos, Audio, Multitasken mit 200 Windows Services die laufen während sie spielen wollen (!! vergessen die meisten). Ganz wichtig ist noch das hosten von virtuellen Maschinen. Wenn ein Multimedia-Encoder oder guter Renderer (Raytracer) nicht mit den Kernen skaliert ist er schlecht geschrieben, aus basta!
Bei genügend Power würde ich auf der primären Kiste gerne ein paar Systeme gleichzeitig laufen lassen, zwei Linuxe im Hintergrund die irgendwas rechnen, ein "Browser"-System für Schrott, ein Arbeitssystem fürs editing von MM usw. usw. alles auf einem Host-System. Die Rechen bzw. Arbeitssysteme müllen nicht zu und stürzt irgendwas ab reist es nicht direkt alles andere mit... ein Traum!
Mit n-Kernen und genüg RAM überhaupt kein Problem! Zur Zeit ist an mehr als zwei nicht zu denken, wird zu langsam!

Ich würde von 8 Kernen und mehr profitieren, steht ja jedem frei!
 
Zuletzt bearbeitet:
Also genau genommen handelt es sich hierbei um SMT, wobei HT schon seit der PIV-Ära geläufig ist & sollte somit auch keine Verwirrung
stiften. Es sei denn, man hat schlecht geschlafen, der Stuhlgang verlief nicht "reibungslos" oder der Gleichen.^^

@ Topic
Ich begrüße natürlich ebenfalls solch eine Entwicklung ... für den Standard-User/Massenmarkt dauert das aber doch noch
einige Jährchen. Möglicherweise werden die kommenden Konsolen diese Entwicklung -in der Breite- ein wenig forcieren.
 
O._.O schrieb:
@pipip: Mein X6 hat jenseits des Renderings kaum Vorteile gegenüber meinem alten X2 gebracht - kein Wunder:

Was ist das den für ein Argument? Packprogramme, Videocodierung/schnitt, Paint.Net, Physik in Spielen aber wenn du das alles nicht brauchst biste mit nem Sempron oder Celeron natürlich besser beraten.
 
SuddenDeathStgt
Das stimmt so nicht. Geläufig ist bei Intel HTT und in den letzten Jahren nun SMT. HTT steht für Hyper-Threading Technology, SMT steht für Simultaneous Multithreading

HT steht für HyperTransport und das ist geläufig für AMD.

Das es hier oft nicht so genau genommen wird zeigt maximal das Niveau auf welchen hier diskutiert wird.
 
also man kann es auch übertreiben ...

zu PIV-Zeiten war schon immer das anhängsel HT geläufig. es könnte sein, dass korinthen... bei dieser bezeichnung ein T für Technology fehlt.
warum man aber in einem intel-fred, HT für HyperTransport verwechseln könnte, erschließt sich mir nicht. hoffe dein stuhlgang verlief heute morgen reibungslos.^^
 
LoRDxRaVeN schrieb:
Heute verliert in diesem Forum keiner mehr ein Wort über Takt und alles was wichtig ist, ist IPC.
Dass das Produkt bei Intels aktuellen Prozessoren absolut passend ist, steitet keiner ab...

ich würde soweit gehen und sage, dass für 95% hier die IPC / Kern wichtig ist, wichtiger als die gesamt IPC der CPU über alle Kerne. genau um diese IPC / kern hochzuschrauben setzen Hersteller wie Intel als auch AMD auf einen sehr hohen Turbo Modus.

Bei Intel fällt aber genau diese "Single Thread Leistung" bedeutend höher aus, vermutlich neben einer SSD der größte Performancefaktor im Alltagsbetrieb.


@ News.

15 Kerne + 15 Threads. Das käme mir gerade recht. Allerdings butter ich die Asche eher in ein gutes Objektiv für die SLT oder in meine Wohnung.
 
Haben die, die hier so groß davon schreiben, daß der Prozessor nichts für sie sei oder daß die CPU mit ihren vielen, vielen Threads ihnen gut zu Gesichte stünde, eine Ahnung, wie teuer der Chip kommen wird? Ganz zu schweigen von der notwendigen Infrastruktur wie Systemplatine, Stromversorgung et certera.

Zweifelsohne entlockt die Aussicht auf mehr Kerne/Threads jedem Numeriker Entzücken. Wer hier PThreads, OpenMP oder auf Maschinenebene parallele Prozesse programmiert oder programmieren kann, weiß, daß in vielen Fällen bestimmte Algorithmen nicht (mehr) parallelisierbar sind. während man in den Naturwissenschaften in der Regel mit eigenen Algorithmen und, wenn die Kopplungen einzelner Größen eines modellierten Systems entfallen, sehr gut parallelisierbarer Software hantiert, profitieren aber auch die eher trivialen Arbeitsbereiche wie Web- oder Datenbankdienste von mehr Kernen. Statt ein Problem möglichst gut in parallele Teilprobleme zu zerlegen kann man eben das selbe "Problem" für viele Individuen eben multipliziert parallel laufen lassen. Man stelle sich einfach soetwas einfaches wie einen Webserver vor, der mit einem eigenen Thread auf Verbindungen von Kunden wartet, die dem Konsum frönen wollen. Wenn ein solcher Thread Dank guter IPC der Host CPU und Infrastruktur 1000 Anfragen pro Sekunde bearbeiten könnte, hätte der Provider eben Dank einer größeren CPU noch mehr Verbindungsmöglichkeiten. Diejenigen, die mit MPI arbeiten, wissen wie schlecht die Latenzen für die Gesamtleistung des Systems sind, wenn eine Prozeßgruppe einen Knoten über eine lahmende Verbindung verlassen muß.
Ähnliches gilt für GPGPU Anwendungen. Tolle Sache, aber immer noch nicht ausgereift. Das Nachgeplapper von GPU Benchmarks und dem Angeber-Gewäsch über die enorme Leistung (die man nur anhand von relationslosen Nummern widergibt) kommt schnell zu einem ernüchternden Ende, wenn man selber mal in OpenCL oder CUDA entwickelt hat. In vielen Fällen machen die enormen PCIe Latenzen die Rechenvorteile wieder wett, so daß eine GPU in vielen Problemstellungen lediglich wenige Prozent Mehrleistung versprechen kann. Oder die GPU ist aufgrund ihrer beschränkten arithemtischen Verwendbarkeit für bestimmte Probleme nicht brauchbar.
Aber auch das sind Grenzfälle.

Kurzum, ich würde mich freuen, wenn Intel dem Gerücht, den Ivy-Bridge-E für den LGA2011 mit lediglich 6 Kernen zu liefern, nicht Folge leisten würde, sondern diese CPU (insbesondere die UP XEON Versionen E5-1600v2) mit mindestens 8 Kernen versehen wird.
Solange die interne Arbiterlogik die Mehrleistung nicht veruffen läßt, ist jeder weitere Kern viel wert. :king:
Ergänzung ()

SuddenDeathStgt schrieb:
also man kann es auch übertreiben ...

zu PIV-Zeiten war schon immer das anhängsel HT geläufig. es könnte sein, dass korinthen... bei dieser bezeichnung ein T für Technology fehlt.
warum man aber in einem intel-fred, HT für HyperTransport verwechseln könnte, erschließt sich mir nicht. hoffe dein stuhlgang verlief heute morgen reibungslos.^^

Nicht jeder war gezwungen, sich zu Zeiten besserer Prozessoren mit Intels Krempel abzugeben. HT ist nunmal ein offizielles Kürzel für den Hypertransport und Intels geklaute SMT Technik heißt offiziell HTT. In einem Technikthread sollte die korrekte Nutzung dieser Terminologie Tagwerk sein und das hat gewiß nicht viel mit Korinthenkackerei zu tun.

Da es sich in diesem Thread bekanntlich um x86-Methusalemtechnik handelt, dazu gehört eben auch AMD, wäre es doch ratsam und auch sinnvoll, eine präzise Wortwahl zu kultivieren. Oder?

Wenn Juristen fachsimplen machen diese bekanntlich auch einen Unterschied zwischen fahrlässig und grob fahrlässig oder ähnlichen Dingen.
 
Kurz gesagt, der Desktop profitiert nicht von mehr Threads sondern immernoch von höherem Takt und IPC...:D
Da wird Haswell neue Bestmarken setzen.Maximal 6-Cores können den aktuellen Games noch etwas einheizen.Der King ist wegen der verbesserten 28nm+ Refresh-ein Quad- eben der 3770k.
 
Zuletzt bearbeitet:
Xedos99 schrieb:
Kurz gesagt, der Desktop profitiert nicht von mehr Threads sondern immernoch von höherem Takt und IPC...:D

Ja und mit SMT muss man diese Leistung schon in mehrere Threads auslagern damit diese genutzt werden kann.
 
Xedos99 schrieb:
Kurz gesagt, der Desktop profitiert nicht von mehr Threads sondern immernoch von höherem Takt und IPC...:D
Da wird Haswell neue Bestmarken setzen.Maximal 6-Cores können den aktuellen Games noch etwas einheizen.Der King ist wegen der verbesserten 28nm+ Refresh-ein Quad- eben der 3770k.

... ich gehöre zu den Menschen, die sich nicht alle 6 Monate einen neuen Rechner leisten können. Meine Geräte müssen arbeiten(!) und so leisten die Kisten dann auch über mindestens drei Jahre ihre Dienste. Und innerhalb dieser Zeit passiert in Sachen Software viel!

Wenn man liest, daß Windoof Software aus dem Hause Adobe (für die wir tausende von Euro hinblättern müssen) aus der Creative Suite (Photoshop zum Beispiel) gerade mal zwei, maximal aber vier Kerne belasten kann, ist das peinlich. Opensource Software, wie zum Beispiel GIMP, arbeitet mit mehreren Threads, die neue GEGL Bibliothek, das Rückgrat dieses Graphiksoftwarepaketes, unterstützt neuerdings sogar via OpenCL und PThreads mehrere GPGPU-Kernel konkurrierend. Wer also Software unter UNIX oder Linux einsetzt, ist in einem gewissen "Kerne"-Vorteil.

Spiele sind ein anderes Thema. Solange die Hersteller vom Durchschnitt einer Hardwareausstattung ausgehen und die PR Strategen gemäß ihrer peinlichen Gewinnmaximierungsrechnung entsprechend ein unteres Limit in Sachen Anspruch annehmen müssen, um überhaupt noch was verkaufen zu können, stehen wir vor dem Henne-Ei-Problem auf dem Konsumentensektor. Crysis ging wagemutig den Weg des "an die Grenze gehens". Das hätte auch schief gehen können - oder: ich bin sicher, daß noch mehr geht!

Leider stößt mein 6-Kern Sandy-Bridge-E XEON im Labor bereits an seine Leistungsgrenzen und ich wünsche mir sehr viel mehr Leistung, aber es ist relativ einfach, auch die anderen Zwei-Sockel-Maschinen (die haben noch 6-Kern Westmere CPUs) an die Grenzen zu fahren. Meistens reichen dann die 96 GB RAM auch nicht mehr aus und es ist sinnlos, mehr auf die Maschinen zu laden.

Aber genau hier operiert Intel vorbildlich: dicke Eisen für die, die damit rechnen müssen oder Geld verdienen, kleinere Grenzgänger für den Spielzeugmarkt.

Alles im Lot also und es gibt keinen einzigen vernünftigen Grund derzeit, bei großen Prozessoren nicht bis an die Grenze der möglichen Kernezahl zu gehen.
 
Software lässt sich nicht beliebig parallelisieren
http://de.wikipedia.org/wiki/Gustafsons_Gesetz

Das ist mir klar und nichts neues für mich. Nur wird sich nicht bemüht irwie die codes sehr zu parallelisieren. Man muss nicht unbedingt ständig schleifen machen. Oft wird das aber getan weil der Programmierer faul ist.
Die Frage ist nur wieviel kann man parallelisieren wenn man will und wenn man dem Gesetz glauben darf, sollte nichts gegen eine Multi-Thread Chip für den Desktop sprechen.

In vielen Fällen machen die enormen PCIe Latenzen die Rechenvorteile wieder wett, so daß eine GPU in vielen Problemstellungen lediglich wenige Prozent Mehrleistung versprechen kann.
o0 wie ist das dann bei einer APU (in der die igp auch auf die Register ect zugreifen kann und somit die PCIe Schnittstelle wegfällt und zwischen CPU und GPU maximal Cache und RAM liegen und nichts umkopiert werden muss :O) mit vielen cores ?
 
Zuletzt bearbeitet:
Eisenfaust schrieb:
Leider stößt mein 6-Kern Sandy-Bridge-E XEON im Labor bereits an seine Leistungsgrenzen und ich wünsche mir sehr viel mehr Leistung, aber es ist relativ einfach, auch die anderen Zwei-Sockel-Maschinen (die haben noch 6-Kern Westmere CPUs) an die Grenzen zu fahren. Meistens reichen dann die 96 GB RAM auch nicht mehr aus und es ist sinnlos, mehr auf die Maschinen zu laden.
Sandy Bridge EP-4S hilft dagegen. 4x Xeon E5-4650 gepaart mit 1,5 TB RAM und ab gehts. ;)
Kostet halt nur leider ein wenig...
 
Kann mir grad mal einer erklären warum es so faszinierend ist eine 15Kern CPU zu entwickeln, wenn bereits seit mehreren Jahren Multi- und Many-Core CPUs auf dem Markt Bestand haben? 2010 brachte Sun bereits den UltraSPARC T3 mit 16 Kernen (128 Threads). 2005/2006 gab es die ersten 8-Kerner von IBM. Intel und AMD hängt da noch ein wenig hinterher habe ich das Gefühl. Oder reden wir hier zwar über Serverprozessoren aber aus gänzlich unterschiedlichen Betrachtungsweisen bzw. Technologien?
 
Zurück
Oben