News Prozessorgerüchte: Rome mit 256 MB L3-Cache, Comet Lake-S mit zehn Kernen

fellkater schrieb:
Aber mal ganz im Ernst, wo geht da die Reise hin?
Brauchen wir alle wirklich im Desktop Segment 64 Kerne? Brauchen wir wirklich schon ein Kern an Kern Rennen?
Es wird Zeit das die Software sich auf Mehrkernoptimierung konzentriert. Sonst hat das Mehr-Kern-besser keinen Sinn. [..]
Das ist eine sehr interessante und intelligente Frage, danke dafür. :daumen:
Spätenstens seit Hyper-Threading (Pentium IV) sind einige gängige Win32/.Net-Anwendungen sich
zumindest über mehr als eine logische CPU "bewusst".

Den Anfang machten wohl -zum. im (semi-)professionellen Bereich- die Dual-CPU Systeme der 90er, glaube ich.
Damals gab es spezielle Versionen von OS/2 und Windows NT, welche auf PCs mit zwei physischen
Prozessoren liefen (NT 3.1 unterstütze bereits einen System mit mehreren 386ern).
Raytracer und Graphikprogramme ala Photoshop waren dann wohl mit die ersten populären
Anwendungen, welche vom Multi-Threading Gebrauch machten.

Abgesehen davon, stellt sich heutzutage die Frage, welche alltäglichen Programme
mehr als einen Kern/Prozessor brauchen (können).
Sicherlich gehören Spiele dazu, aber was ist mit "Produktivsoftware" wie z.B. Office/Works,
Power Point oder Buchhaltungsprogrammen ? Oder Emulatoren ?

Es wird sicherlich schwierig, manche dieser Kolosse für Multi-Core fit zu machen,
da gewisse Komponenten von Beginn an nicht threading-fähig ausgelegt wurden.
Bei diesen Gruppen wird die Singlecore-Performance nachwievor wichtig sein.

Auch bei sehr einfachen Programmen kann dies der Fall sein (Taschenrechner,
Programme zur Messwerterfassung/-auswertung, usw.).
Real-Time Systeme haben wenig Code, benötigen aber ggf. viel Rechenleistung (single-core).
Zusätzlicher Code für die Parallelisierung könnte hier evtl. die Programme
nur unnötig aufblähen und sich negativ auf die Latenz auswirken.

.. Ich wollte es ja nur mal gesagt haben. Zum Vergleich - PICs, Atmels und andere Mikrocontroller
sind viel langsamer als PCs, haben aber dank ihrer Einfachheit und "direkte"/hardwarenahe
Programmierung nicht selten eine geringere Latenz als ein Windows-PC.

fellkater schrieb:
Ich bin gespannt wo die Reise noch hingeht...;)
Das Finde ich auch (bzw. finden "wir" auch). :)
 
joshy337 schrieb:
Bei diesen Gruppen wird die Singlecore-Performance nachwievor wichtig sein.
Nicht nur für die, es lassen sich nicht alle Probleme parallel lösen und selbst wenn ein Programme viel Algorithmen hat die parallelisierbar sind, so gibt es immer noch genug Bereiche die z.B. über einen Mutex geschützt werden müssen um z.B. exklusiv auf Resourcen zuzugriefen und wo es dann auch wieder auf die Singlethreadperformance ankommt. Sowas gibt es auch in einigen Subsystemen des OS. Die Singlethreadperformance wird nie egal sein können, weshalb ja auch die Server CPU mit vielen Kernen Turbotakte haben die dann bei Last auf nur einem Kern oder zwei Kernen den Takt anheben.
 
Das sind aber noch sehr moderate Taktraten, selbst für ein Sample.
 
Zurück
Oben