News Intel Core X 10000: Ein Produktstart, wie er in keinem Buche steht

Über den Preis will man scheinbar nicht punkten, was fällt einem sonst ein, mehr umbenannte Produkte bringen, das ist traurig. Für mich wird Intel erste wieder attraktiv, also bei einem Neukauf, wenn sie die Sicherheitslücken geschlossen haben und die neue Fertigung endlich beim Desktop Kunden ankommt. Viel mehr Kerne benötige ich gar nicht, aber eine deutliche Steigerung bei IPC und bei der Energieeffizienz. Ich hatte Jahrzehnte lang Intel, auch heute habe ich noch Intel aber auch neuerdings AMD, aber genug ist einfach genug, alles lasse ich mir nicht bieten, vor allem nach gewolltem Jahrelangem Stillstand. Ich glaube nicht das der Name Intel heutzutage noch so sehr zieht wie damals, also ein Selbstläufer auf den man sich ausruhen kann.
 
Pizza! schrieb:
Intel hat mittlerweile trotz viel Geld und Know How echt viele Probleme an der Backe.
Marketing bad, Produktion überlastest, Sicherheitslücken, neuer Prozess immernoch nicht richtig da, AMD kann nicht mehr ignoriert werden.
Dazu noch viel Power und Aufwand in die Xe Grafikkarte stecken.
Den Produktkatalog von Intel finde ich auch noch ziemlich überladen. Wieviel verschiedene CPUs bieten die gerade an, 50, 100?
<- so sieht ne Pizza aus!
 
Zerozerp
Diese Diskussion führt zu nichts. Wie schon gesagt wurde, alleine der Speicherdurchsatz von ddr4 limitiert den einen Kern. Noch Mal, schau dir die Skalierung auf Linux an, und du siehst wie schlecht Windows in sowas ist. Und eine encodierung bei YouTube zB. Schafft dein hypothetischer single Core erst Recht nicht mehr.
Moderne CPUs sind eben nicht wie netburst auf Länge konzipiert, sondern auf Durchsatz. Je mehr Befehle desto länger dauert das abarbeiten. Und das merkt man dann spätestens, wenn man Excel öffnet. Deswegen forciert man auch ein in die Breite gehen, weil selbst der 5ghz Core keine Bagatelle ist. 6 GHz ist auch nicht erreichbar, egal wie groß die Transistor Abstände im Design werden. Entweder ist der Core zu heiß für den Betrieb, oder zu langsam, da die Pipeline zu lang wird. Denn die IPC ist mitnichten das Limit, nur da man diese nicht unermesslich steigern kann, geht man in die Breite. Man erinnere sich an den q6600, auf diesem Niveau diskutiert man nun wieder hier. Wunderbar wir sind wieder im Jahre 2007 -.-
Erschwerend kommt hinzu, je kleiner der Prozess desto geringer der gesamttakt. Je höher die Spannung, desto ineffizinter der Gewinn daraus. Und du kannst theoretisch mit dem q6600 gegen Skylake die These untermauern, wenn man beide auf die damals üblichen Befehle beschränkt. Die IPC würde bei einem single Core eine ähnliche sein, dafür hat sich eben in der Architektur zu wenig getan. Und so ein Skylake 6 GHz Kern wäre zudem enorm groß und nicht wirtschaftlich


Run to sleep lautet das Zauberwort.

Langsam werden solche Diskussionen echt müßig.

Links: http://www.kreissl.info/ra
Link 2: https://www.elektronik-kompendium.de/sites/com/1203171.htm

Nun reicht's aber dann auch bald Mal.

@BosnaMaster

Mal sollte Statistiken schon lesen und verstehen können ;) also nein, man kann sie eher nicht Auslegen wie es einem passt.
https://www.google.com/amp/s/t3n.de/news/idc-prognose-convertibles-1228980/amp/

Das Original:
https://www.idc.com/getdoc.jsp?containerId=prEUR145035519

Zitat:
Das Interesse an Desktop-PCs lasse allerdings weiter nach. Stattdessen würden sich die normalen Konsumenten für besonders dünne und leichte Geräte interessieren. Während die Verkäufe von traditionellen Notebooks und Desktop-PCs bis 2023 jährlich um 8,3 beziehungsweise 5,9 Prozent abnehmen sollen, sieht IDC für Convertibles und ultradünne Notebooks jährliche Wachstumsraten von 8,7 beziehungsweise vier Prozent.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DonL_ und Schwobaseggl
Rockstar85 schrieb:
@ZeroZerp und krauti
Sorry Jungs, Aber über Software ja Ahnung haben, im Hardware Bereich stochert ihr verdammt stark mit Halbwissen umher. Macht euch Mal Gedanken warum IBM zB 3 Fach SMT entwickelt hat, wenn ja nur ein Kern reicht. Wenn ihr das immer noch nicht verstehst, nutzt Mal eben 1 Kerner im Windows Alltag, oder gerne auch Mal mit seti oder Boinc.. glaubt mir, danach redet ihr nicht mehr so.
wer sagt das ein Kern reicht?

Keiner von uns beiden auch ich weiß ehrlich gesagt noch nicht mal wieso diese Diskussion hier aufkam. Soweit ich das hier am Rande mitverfolgt habe ging es Zero nur darum dass alle aktuellen Maßnahmen (mehr Kerne, SMT) schlicht das Resultat davon sind, dass man den Takt pro Kern bzw die Leitung pro Kern nicht weiter treiben kann - da physikalisch am Limit. Und da hat er ja auch recht. Und da ist es Wurst ob Intel, AMD, IBM.

Wenn es eine CPU A mit einem Kern gäbe die so schnell ist wie eine CPU B mit X Kernen, dann ist erstere in jedem Fall schneller.
Lass es eine 4 Ghz CPU mit 1 Kern gegen eine 4 Kern CPU mit 1 Ghz sein, selbe Architektur, selbe Leistung pro Kern / Takt. Logisch dass die 4 Ghz CPU hier die Nase vorn hat da sie, egal ob der Code parallelisiert ist oder nicht, immer volle Leistung bringt.

Das wars dann auch schon. Viel mehr muss man zu der Diskussion nicht sagen. Das hat auch nichts mit Windows / Linux usw zu tun. nd es limitiert auch kein "DDR4 Speicherdurchsatz an einem Kern" :freak:
Ergänzung ()

yurij schrieb:
Und last but not least: ein Kern z.B. garnicht in der Lage die I/O Bandbreite moderner DRAMs voll auszulasten. Beim memcpy muss man 3-4 Kerne nutzen um maximalen Speicher-Durchsatz zu erreichen.
naja, das liegt ja auch einfach an dem Umstand dass es gar keinen Sinn machen würde. Will heißen - man legt die Architektur aktuell ja nicht darauf aus, da man eben mehr Kerne hat.
Aber die Diskussion is es fürn Arsch und auch irgendwie recht sinnfrei. Aktuell geht man nur noch in die Breite.

Weder bei Architektur noch bei Single Core Turbo Takt erwarte ich große Sprünge, auch nicht bei Zen 3 oder Intels neuer Architektur.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: druckluft, iron-man und .Sentinel.
ZeroZerp schrieb:
Da ist über die Jahre schon viel Know- How reingeflossen und so ohne weiteres kriegst Du diverse Anwendungen einfach nicht SINNVOLL auf mehrere Kerne verteilt.
Und weil wir auf absehbare den Takt nicht SINNVOLL (kühlbarer Betrieb ohne eigenes AKW möglich) erhöhen können, lassen wir einfach beides bleiben? Takterhöhung und höherer Corecount?

Es bleibt nur der Weg über die Kerne, Intels 10ghz waren eine Lüge.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
höherer Corecount ist ja das was man recht gut beobachten kann. Das Prinzip wird schon seit dem ersten Dualkerner getrieben - mit Epyc Rome und 64C hat es eine neue Dimension erreicht.

Ich bin mal gespannt welchen Ansatz AMD bei >128 Kernen wählen wird.
Ergänzung ()

yummycandy schrieb:

könnte von mir sein. Wobei ich die Kerne statt quadratisch in Hexagons anordnen würde. Ein Hexagon, also quasi Bienenwabe als Mesh hat das beste Verhältnis "Rahmen" zu eingeschlossener Fläche.

Die hexagonale Form der Wände ergibt ein optimales Verhältnis von Wandmaterial zu Volumen und bietet hohe Stabilität. Es ist im Grunde wie eine Aneinanderreihung der Kreisform mit dessen Vorteilen, ohne jedoch ungenutzte Zwischenräume zu hinterlassen.
1575268608225.png

Mit Hexagons könnte man auch das Mesh skalieren, zb 6 Way Mesh oder 3 Way um Fläche zu sparen. Außerdem ist der Verschnitt bei runden Wafern besser als bei Quadraten.

Will heißen ich frage mich weshalb Intel / AMD alles quadratisch aufbauen ... dabei macht es die Natur ja vor.

Edit: Auch das hat sich wohl schon mal wer überlegt, oder von mir damals kopiert :D
https://hal.inria.fr/hal-01456966/document

Wobei bei Intels Mesh dann eizelne Hexagons zb dem SI Controller gleich kämen. Also zB so als Quadchannel:
1575269180238.png


Um die Architektur richtig skalar zu halten müsste man zb PCIe / IP ebenso mit in diese Spezial Mesh Blöcke für SI packen, also dass mit jedem zukommenden Block auch die anzahl der Lanes steigt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: yummycandy
Ich fand die Intel/Samsung Prozessor Gerüchte ja genial. Samsung fertigt einiges, auch Dinge die Intel brauchen kann, aber keine x86-Prozessoren. Da sieht man die beiden gemeinsam und schließt daraus ausgerechnet auf die x86-Prozessoren...
 
  • Gefällt mir
Reaktionen: Rockstar85
Ganz ehrlich wer die Ryzen CPU wirklich haben will und BRAUCHT der wartet halt.
Intel hat gerade kein Konkurenz Produkt und kann auch nicht liefern.
Außerdem hat AMD auch wichtigere Märkte als den Enthusiasten Markt in Deutschland.
Bauen die nicht auch gerade einen Supercomputer oder 2?
Denke da ist mehr verdient als an uns.
Man muss aus den bisschen Ressourcen das beste rausholen und ich denke das machen sie gerade.
Bei den groß Verträgen haben sie sicherlich Fristen mit Vertragsstrafen da will man sich nix verderben.
 
Krautmaster schrieb:
Aber die Diskussion is es fürn Arsch und auch irgendwie recht sinnfrei. Aktuell geht man nur noch in die Breite.
Exakt- Und damit aber mit sinkendem Nutzen für eine steigende Anzahl an Applikationen.
Und das ist in meinen Augen eine Entwicklung deren Nutzen bereits jetzt mit 32 oder 64 Kernern für den Standarduser erschöpft sind.

Mit dem Thema "mehr Kerne" sind wir inzwischen durch. Der deutlichen Mehrzahl an Applikationen ist es herzlich egal, ob man 32 oder 128 Kerne drauf wirft (letzteres würde wahrscheinlich eher bremsen).

Ich will hier nur die "Kernegläubigkeit" einhergehend mit der Idee, die sich in immer mehr Köpfen manifestiert, dass sich die Kernzahl grundsätzlich in allen Szenarien der Gesamtrechenkraft addiert, einfach den Wind aus den Segeln nehmen.

Wenn man dann noch anfängt Singlecoreleistung für mehr Kerne opfern zu wollen, weil ja mehr Kerne immer besser ist, dann merkt man, dass hier bezüglich des Verständnisses der Arbeitsweise einer Rechenmaschine, langsam ein wenig in Schieflage gerät.

Haben wir doch erst in jüngster Vergangenheit die Parade- Gegenbeispiele. Der 3900x bzw. die gesamte 3xxxx Serie von AMD sind nicht die Waffen geworden, die sie sind, weil noch vier Kerne zusätzlich draufgepappt wurden.
Die spielen ihren Effekt nur in wenigen Anwendungen aus.
Die deutliche Steigerung der Singlecore- Leistung hat nun in der Praxis gezeigt, was einen universalen großen Effekt über alle Anwendungsebenen ausmacht. Und das wurde (und das war der Stein, der die Diskussion ins Rollen gebracht hatte) unter den Tisch gekehrt.

Was passiert, wenn man nicht die Kernzahl, sondern die Singlecore- Leistung steigert sieht man am neuen 32 Kern Threadripper, der die alte Generation TROTZ GLEICHER KERNZAHL leistungstechnisch um 40%-70% schlägt.
Man hat also den Praxiseffekt direkt vor Augen und behauptet hier im Forum aber das Gegenteil.
Das muss man einfach geraderücken.

Das war die Aussage, weswegen ich in die Diskussion eingestiegen bin:
denn am Ende helfen auch die angeblichen 18% mehr IPC nicht gegen echte Rechenkerne, zumal die 18% die Intel genannt hat eh mit Vorsicht zu genießen sind und vermutlich nur unter Idealbedingungen zutreffen.

Die Aussage ist nunmal grundsätzlich falsch.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schattenspender, druckluft und iron-man
ZeroZerp schrieb:
Haben wir doch erst in jüngster Vergangenheit die Parade- Gegenbeispiele. Der 3900x bzw. die gesamte 3xxxx Serie von AMD sind nicht die Waffen geworden, die sie sind, weil noch vier Kerne zusätzlich draufgepappt wurden.
Die spielen ihren Effekt nur in wenigen Anwendungen aus.
Die deutliche Steigerung der Singlecore- Leistung hat nun in der Praxis gezeigt, was einen universalen großen Effekt über alle Anwendungsebenen ausmacht. Und das wurde (und das war der Stein, der die Diskussion ins Rollen gebracht hatte) unter den Tisch gekehrt.

Das ist so verengt falsch! Gerade der 3900X und auch 3950X können auch auf grund ihres riesigen Caches in manchen Workload oder Game besser zulegen als die Ryzen CPUs mit weniger Cache.

ZeroZerp schrieb:
Was passiert, wenn man nicht die Kernzahl, sondern die Singlecore- Leistung steigert sieht man am neuen 32 Kern Threadripper, der die alte Generation TROTZ GLEICHER KERNZAHL leistungstechnisch um 40%-70% schlägt.
Man hat also den Praxiseffekt direkt vor Augen und behauptet hier im Forum aber das Gegenteil.
Das muss man einfach geraderücken.

Diese Behauptung ist nun wirklich Blödsinn, die wesentlich größere Leistungssteigerung des TR 3000 gegenüber den TR 2000 WX (im Vergleich von Ryzen 2000 zu Ryzen 3000) kommt zu 100% über das neue I/O Die und die zentrale Speicheranbindung darüber, inklusive der Auflösung der Numa Knoten, das hat absolut nichts mit der IPC Steigerung von ZEN + auf ZEN 2 zu tun.

Deine Argumente sind sonst stichhaltig, im letzten Absatz allerdings irreführend und falsch!
 
  • Gefällt mir
Reaktionen: Balikon und Rockstar85
ZeroZerp schrieb:
Exakt- Und damit aber mit sinkendem Nutzen für eine steigende Anzahl an Applikationen.
Und das ist in meinen Augen eine Entwicklung deren Nutzen bereits jetzt mit 32 oder 64 Kernern für den Standarduser erschöpft sind.

Mit dem Thema "mehr Kerne" sind wir inzwischen durch. Der deutlichen Mehrzahl an Applikationen ist es herzlich egal, ob man 32 oder 128 Kerne drauf wirft (letzteres würde wahrscheinlich eher bremsen).

Ich will hier nur die "Kernegläubigkeit" einhergehend mit der Idee, die sich in immer mehr Köpfen manifestiert, dass sich die Kernzahl grundsätzlich in allen Szenarien der Gesamtrechenkraft addiert, einfach den Wind aus den Segeln nehmen.

Wenn man dann noch anfängt Singlecoreleistung für mehr Kerne opfern zu wollen, weil ja mehr Kerne immer besser ist, dann merkt man, dass hier bezüglich des Verständnisses der Arbeitsweise einer Rechenmaschine, langsam ein wenig in Schieflage gerät.

Haben wir doch erst in jüngster Vergangenheit die Parade- Gegenbeispiele. Der 3900x bzw. die gesamte 3xxxx Serie von AMD sind nicht die Waffen geworden, die sie sind, weil noch vier Kerne zusätzlich draufgepappt wurden.
Die spielen ihren Effekt nur in wenigen Anwendungen aus.
Die deutliche Steigerung der Singlecore- Leistung hat nun in der Praxis gezeigt, was einen universalen großen Effekt über alle Anwendungsebenen ausmacht. Und das wurde (und das war der Stein, der die Diskussion ins Rollen gebracht hatte) unter den Tisch gekehrt.

Was passiert, wenn man nicht die Kernzahl, sondern die Singlecore- Leistung steigert sieht man am neuen 32 Kern Threadripper, der die alte Generation TROTZ GLEICHER KERNZAHL leistungstechnisch um 40%-70% schlägt.
Man hat also den Praxiseffekt direkt vor Augen und behauptet hier im Forum aber das Gegenteil.
Das muss man einfach geraderücken.

Das war die Aussage, weswegen ich in die Diskussion eingestiegen bin:


Die Aussage ist nunmal grundsätzlich falsch.

LG
Zero
Allerdings sind 32 Kerne da - 6 GHz (selbst Single) geschweigen denn 8 oder gar 10 GHz nicht.
Es geht (mir) eigentlich darum, dass 12 und 16 Kerne für den begeisterten PC-Besitzer endlich bezahlbar sind.
Die Softwarehersteller (die bisher noch nicht auf Skalierung setzten) werden schon aufspringen müssen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
DonL_ schrieb:
Das ist so verengt falsch! Gerade der 3900X und auch 3950X können auch auf grund ihres riesigen Caches in manchen Workload oder Game besser zulegen als die Ryzen CPUs mit weniger Cache.
Große Caches sind ein Mittel zur Steigerung der IPC. Somit stützt das eher meine Aussage, als dass sie dadurch angezweifelt wird.

Diese Behauptung ist nun wirklich Blödsinn, die wesentlich größere Leistungssteigerung des TR 3000 gegenüber den TR 2000 WX (im Vergleich von Ryzen 2000 zu Ryzen 3000) kommt zu 100% über das neue I/O Die und die zentrale Speicheranbindung darüber, inklusive der Auflösung der Numa Knoten, das hat absolut nichts mit der IPC Steigerung von ZEN + auf ZEN 2 zu tun.
Die Mixtur machts. Der Threadripper soll als beispiel für eine unter Anderem universale Leistungssteigerung herhalten. Ich habe diesen in diesem Kontext explizit unter Steigerung der Singelcore- Leistung geführt, welche ein Ergebnis aller Architektureller Änderungen ist.

Das Beispiel sollte verdeutlichen, dass die Kernanzahl nicht über allem sonstigen steht.


LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: druckluft und iron-man
DonL_ schrieb:
Das ist so verengt falsch! Gerade der 3900X und auch 3950X können auch auf grund ihres riesigen Caches in manchen Workload oder Game besser zulegen als die Ryzen CPUs mit weniger Cache.

nichts anderes schreibt er ja. Der Cache is ja auch ein Mittel um die Single Core Performance nach oben zu drücken. Dank 7nm ist zudem der Takt gestiegen.

Edit. Cache bringt auch immer nur zu gewissem Grad etwas. Außerdem ist die Balance aus Größe zu Latenz immer schwer abzuschätzen, teils wird SW hochoptimiert um genau dem Cache Genüge zu tun

https://www.anandtech.com/show/14664/testing-intel-ice-lake-10nm/2
 
  • Gefällt mir
Reaktionen: druckluft, iron-man und .Sentinel.
hümmelske Bur schrieb:
Die Softwarehersteller (die bisher noch nicht auf Skalierung setzten) werden schon aufspringen müssen.
Welcher Softwarehersteller setzt denn nicht alle Mittel daran seine Software so auszustatten, dass sie das Beste aus der Anzahl an Kernen macht? Nur ist Code an sich, je nach Aufgabenstellung paralellisierbar oder eben nicht.

Da können sich die Programmierer auf den Kopf stellen und Salti schlagen. Es gibt gewisse Berechnungen/Abhängigkeiten die kriegst Du nicht sinnvoll auf mehrere Prozessoren verteilt.

Das Thema ist doch schon seit Jahren durch...

LG
Zero
 
  • Gefällt mir
Reaktionen: druckluft und iron-man
also ich kann gut nachvollziehen was intel da gemacht hat. man hat schon vor monaten erkannt, dass man mit dem geplanten i9 10980X nix reißen wird und daher einfach einen leicht modifizierten (oder nur selektierten?) i9 9980X genommen, um zum launch der threadripper einfach ein "neues" produkt in der sparte zu haben um einen teil der aufmerksamkeit auf die eigene marke zu ziehen. da macht es auch sinn, einen halben tag früher und mit eigenen artikeln vorgestellt zu werden. also anstatt ein neues produkt gleich zu verbrennen hat man einfach ein umgelabeltes altes für pr-strategie herangezogen. quasi der 9900KS der HEDT-cpus. das eigentlich neue produkt kommt, wenn man bereit ist, was aufgrund von produktionsschwierigkeiten einfach noch nicht der fall ist.
 
  • Gefällt mir
Reaktionen: Balikon
Sorry,

dann haben wir beide eine sehr unterschiedliche Auffassung von IPC Steigerungen!

Für mich spielen sich IPC Steigerung in den CPU Kernen wieder und im Front- und Backend derselbigen.
Cache gehört zwar auch dazu, ist aber keine Kunst sondern nur eine Frage des Platzes und Anbindung.

Die Speicheranbindung gehört für mich nicht zur eigentlichen IPC, und ich finde das hier im Kontext der Diskussion mega irreführend, da der eigentliche Kern eines 2000 WX keine solch geringere IPC hatte (wie die Zahlen vermuten lassen), sondern durch die Speicheranbindung und dem sehr schlechten Scheduling von Windows ständig verhungert ist. Das sah bei Linux wegen dem wesentlich bessern Scheduling schon besser aus.
Ergänzung ()

ZeroZerp schrieb:
Welcher Softwarehersteller setzt denn nicht alle Mittel daran seine Software so auszustatten, dass sie das Beste aus der Anzahl an Kernen macht? Nur ist Code an sich, je nach Aufgabenstellung paralellisierbar oder eben nicht.

Da können sich die Programmierer auf den Kopf stellen und Salti schlagen. Es gibt gewisse Berechnungen/Abhängigkeiten die kriegst Du nicht sinnvoll auf mehrere Prozessoren verteilt.

Das Thema ist doch schon seit Jahren durch...

LG
Zero

Das ist auch schon wieder Blödsinn!
Man muss nur Adobe als einen führenden Hersteller anführen und schon fällt diese Argumentation in sich zusammen. Es gibt andere Programme die unbekannter sind und schon seit Jahren wesentlich besser auf Mehrkernoptimierung reagieren, als die Produkte von Adobe, die sich jetzt nach dem Erfolg von AMD und dem wesentlich erhöhtem Corecount auch mal langsam mit Mehrkernoptimierung beschäftigen!
 
der Cache gehört nicht dazu? Du schriebst doch erst zwei Posts davor dass gerade der Cache Zen2 Flügel verleiht... irgendwie passt das nicht zusammen.

Schau dir die Anandtech Analyse an und dann überlege nochmal ob "Cache" zur IPC gehört ;)
Oder anders gesagt. Wie hoch wäre wohl die IPC ohne Cache?

@IceLake
Against a 9900K, although apples and oranges, we’re seeing 13% and 14% IPC increases. These figures likely would be higher on an eventual desktop Sunny Cove part.
Here the IPC increase also look extremely solid. In the SPECin2017 suite the Ice Lake part achieves a 14% increase over the 9900K, however we also see a very impressive 21% increase in the fp suite.

das is wohl etwa das was man bezüglich IceLake erwarten kann. Möglich aber dass der geringere Takt die Fortschritte bei IPC ausgleicht.
Ergänzung ()

DonL_ schrieb:
Das ist auch schon wieder Blödsinn!
auch dabei hat er absolut recht. Es gibt zig Operationen die du nicht einfach auf mehrere Threads verteilen kannst. Er redet ja nicht von einzelner Software oder einzelnen Usecases. Es wird immer Dinge geben die sich gut parallelisieren lassen, und andere die eben nicht dazu taugen.

(das kann auch rein wirtschaftlicher Natur sein, Multithreading ist eben meist mit Mehraufwand verbunden)

Mit Adobe hast du übrigens ein schönes Software - Negativbeispiel genannt. Da kann man die Operationen die wirklich mal viele Kerne nutzen schon fast an einer Hand abzählen.

Oft sind es genau diese hoch-parallelisierbaren Aufgaben die dann genauso gut eine GPU übernehmen kann. Da hat man ja quasi >1000 Kerne.
So CPU wie Epyc Rome bedienen den Usecase der nicht auf GPUs ausgelagert werden kann und dennoch hohe Parallelisierung zulässt.

Edit: Nimm zB Kompilieren als Usecase. Ein 24C TR3 dürfte sicher nicht doppelt so schnell sein als ein 3900X mit 12C.
In diesem Fall hast du oft das Problem dass Abhängigkeiten, viele Abhängigkeiten zwischen dem Code / Bausteinen vorhanden sind, also erst der eine, dann der nächste Step gebaut werden kann. Genauso "Encoding", auch da gibt es viele Abhängigkeiten.

Ganz anders ist es zb beim Rendern wie in Cinebench, da teilst du einfach die Szene in Pixel Klötze auf und jeder Thread kann schön seinen Part durchrechnen. Da wird man fast lineare Performance von 12 auf 24C erreichen. Da ist auch die NUMA Abhängigkeit fast 0.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: druckluft, xexex und .Sentinel.
Meinetwegen glaubt daran, ich sehe das anders und meine das wir noch sehr lange nicht das Ende der Mehrkernoptinierung und Parallelisierung gesehen haben im Softwarebereich.

Alleine wenn man sich die Unterschiede in Games anschaut oder zwischen Linux und Windows Scheduling etc. etc. etc.
Viele Softwarehersteller hatten es sich in der Intel Welt der letzten 10 Jahre ziemlich gemütlich gemacht und haben vielleicht mit 6-8 Kernen in ferner Zukunft gerechnet und sind jetzt durch AMD aus ihrem Abzockeschlaf gerissen worden, da wird sich die nächsten Jahre noch einiges tun.
 
Krautmaster schrieb:
Mit Adobe hast du übrigens ein schönes Software - Negativbeispiel genannt. Da kann man die Operationen die wirklich mal viele Kerne nutzen schon fast an einer Hand abzählen.

Oft sind es genau diese hoch-parallelisierbaren Aufgaben die dann genauso gut eine GPU übernehmen kann. Da hat man ja quasi >1000 Kerne.
So CPU wie Epyc Rome bedienen den Usecase der nicht auf GPUs ausgelagert werden kann und dennoch hohe Parallelisierung zulässt.

Edit: Nimm zB Kompilieren als Usecase. Ein 24C TR3 dürfte sicher nicht doppelt so schnell sein als ein 3900X mit 12C.
In diesem Fall hast du oft das Problem dass Abhängigkeiten, viele Abhängigkeiten zwischen dem Code / Bausteinen vorhanden sind, also erst der eine, dann der nächste Step gebaut werden kann. Genauso "Encoding", auch da gibt es viele Abhängigkeiten.

Ganz anders ist es zb beim Rendern wie in Cinebench, da teilst du einfach die Szene in Pixel Klötze auf und jeder Thread kann schön seinen Part durchrechnen. Da wird man fast lineare Performance von 12 auf 24C erreichen. Da ist auch die NUMA Abhängigkeit fast 0.

Ein schönes "Positivbeispiel" ist DaVinci Resolve Studio von Blackmagic - beides ist dort wichtig und wird dementsprechend voran getrieben. Die sind sehr engagiert dran an der GPU-Skalierung UND an der CPU-Core-Skalierung.

Edit:
DonL_ schrieb:
Meinetwegen glaubt daran, ich sehe das anders und meine das wir noch sehr lange nicht das Ende der Mehrkernoptinierung und Parallelisierung gesehen haben im Softwarebereich.

Alleine wenn man sich die Unterschiede in Games anschaut oder zwischen Linux und Windows Scheduling etc. etc. etc.
Viele Softwarehersteller hatten es sich in der Intel Welt der letzten 10 Jahre ziemlich gemütlich gemacht und haben vielleicht mit 6-8 Kernen in ferner Zukunft gerechnet und sind jetzt durch AMD aus ihrem Abzockeschlaf gerissen worden, da wird sich die nächsten Jahre noch einiges tun.

Sehe ich auch so.
Schaut euch doch hier bei CB den Artikel https://www.computerbase.de/2019-11/amd-threadripper-3000-multi-threading/ an, dort wird ja festgestellt, dass der Scheduler alles andere als optimal die Last auf die Cores verteilt. Man muss sich behelfen in dem man manuell die Arbeitslast vergibt. Oder man muss auf eine externe Lösung (also nicht Win10-eigen) wie Process Lasso ausweichen.

Edit2:
ZeroZerp schrieb:
Welcher Softwarehersteller setzt denn nicht alle Mittel daran seine Software so auszustatten, dass sie das Beste aus der Anzahl an Kernen macht? Nur ist Code an sich, je nach Aufgabenstellung paralellisierbar oder eben nicht.Da können sich die Programmierer auf den Kopf stellen und Salti schlagen. Es gibt gewisse Berechnungen/Abhängigkeiten die kriegst Du nicht sinnvoll auf mehrere Prozessoren verteilt.
Das Thema ist doch schon seit Jahren durch...

LG
Zero
Microsoft mit dem Scheduler in Win10

Es ist so aktuell wie noch nie und wird dank AMD noch dringlicher
 
Zuletzt bearbeitet:
DonL_ schrieb:
Meinetwegen glaubt daran, ich sehe das anders und meine das wir noch sehr lange nicht das Ende der Mehrkernoptinierung und Parallelisierung gesehen haben im Softwarebereich.
sagt ja auch keiner, nur wird die Software immer spezieller. Denke ein gutes Game heute kann seine Arbeit sicher auch schon auf 32 Threads verteilen (die dann ggf 10% Load haben) - heißt ja aber nicht dass es dann nen Vorteil hat 32C zu haben.

Da die Next Gen Konsolen sicher um die 8 Kerne haben (Zen2 statt Jaguar) dürfte da was Threads angeht nicht sooo viel mehr gehen.

Auch die Games die heute die CPU an den Rand treiben, da empfehle ich mal den Taskmanager zu starten... letztendlich haben ggf 8 Kerne Last, aber ein Thread ist dann der der limitiert. Klar, iwo ist immer ein Flaschenhals.

Aber was reden wir über Games. Dann derartige CPU für Games Schwachsinn sind muss man hier nicht erzählen. Man sagt DaVinci Resolve Studio von Blackmagic soll zb eine dieser Positivbeispiele sein ;)
 
Zurück
Oben