News Intel Core X 10000: Ein Produktstart, wie er in keinem Buche steht

ZeroZerp schrieb:
Deswegen haben moderne CPUs selbst mit einem Kern mehrere Verarbeitungseinheiten bzw. arbeiten Skalar.
Das hilft aber nicht, wenn ein Thread ausgehungert wird. Die Verarbeitungseinheiten können dann gleichzeitig an Instruktionen eines Threads arbeiten, aber nicht an denen eines anderen. SMT wurde eingeführt, um diese brach liegenden Verarbeitungseinheiten noch zu nutzen.

ZeroZerp schrieb:
Eine Sequenzielle Verarbeitung der Datenströme verlangt eben im Vergleich zu Software, die Workerthreads eröffnet, eben genau keine Wartezeiten für den Mainthread, da dieser immer um seinen Zustand/Abhängigkeiten weiss und eben nichts weiter abfragen muss.
Darum geht es hier aber nicht. Es geht darum, Multithreaded Software mit Abhängigkeiten zwischen Threads auf wenigen Kernen zu verarbeiten. Und da kann dir der Betriebssystem-Scheduler gehörig in die Suppe spucken. Bei 8 Kernen und einer Software mit 8 Threads kannst du sicher sein, dass jeder Thread stets Prozessorzeit bekommt. Bei weniger Kernen nicht.

Edit: Vielleicht verstehst du es mit einem Beispiel besser.
Angenommen wir haben eine 2-Kern und eine 3-Kern CPU, 8 Prozesse/Threads wobei der P4 eine geringere Priorität als die anderen hat. Die Abhängigkeiten zwischen den Prozessen seien durch folgenden Prozessfolgegraph gegeben:
prozessfolgegraph.png

Sei außerdem die Laufzeit von P4 auf der 2-Kern CPU 30 ms, die der anderen 10 ms.
Auf der 3-Kern CPU sei die Laufzeit eines Prozesses um 50% höher, also 45 ms für P4 und 15 ms für die anderen.

Somit wird der Scheduler des Betriebssystems folgende Zuweisung der Prozessorzeit vornehmen:
scheduling.png

Obwohl die 2 schnellen Kerne insgesamt also nominell die gleiche Rechenleistung haben wie die 3 langsamen Kerne, ist der 2-Kerner erst nach 50 ms fertig, während der 3-Kerner nur 45 ms braucht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nazgul77, Balikon, Kodak und eine weitere Person
Intel hat sich zu lange ausgeruht und ist vom Ryzen kalt erwischt worden.
Damals als AMD mit dem Athlon 64 / FX und Athlon 64 X2 dominant war, kam Intel mit der Core Arch und hat AMD kalt erwischt. Ist halt ein ewiges hin und her.
Klar, man musste irgendwas bringen um in Gespräch zu bleiben und da kein neuerer Sockel da ist, bringt man halt was für den toten HEDT Sockel 2066.
Ich persönlich finde es Verschwendung von Ressourcen, der Sockel hat keine Zukunft, die Performance der 10000er mag zwar nicht schlecht, doch die der Vorgänger ist es auch nicht.

Zudem hat Intel aktuell auch das Problem mit dem nicht marktreifen 10nm Prozess und den Mainstream 3000er Ryzen CPUs, denn der 3900X / 3950X machen der 2066 Platform das Leben schwer und die AMD HEDT alias Threadripper spielen in einer eigenen Liga.

Doch Intel ist ja nicht gleich tot.
Intel ist im OEM und Server Markt gut aufgestellt, da haut die nichts so schnell um.
Jetzt heißt also bis 2021 was bringen was es mit den Ryzen / Threadripper aufnehmen kann.

Für uns ist es aktuell so gut wie schon lange nicht mehr.
Wir haben die Qual der Wahl, Intel wird auch im Gamer und HEDT Segment noch viele Käufer finden, einfach weil Intel Intel ist und viele nur deswegen kaufen weil eben ein Intel drinnen ist.
AMD ist gefragt mit Marketing endlich von dem "Billig" bzw. "2. Wahl" Image weg zu kommen. Mich muss AMD nicht überzeugen, ich erwarte sehnsüchtig meinen 3960X, doch viele in meinen Bekannten / Freundes und Arbeitskreis würden sich nie eine AMD CPU kaufen, da AMD die 2. Wahl ist. Das hat sich so in den Köpfen eingebrannt, das geht nur mit Marketing weg.

Ansonsten, AMD hat alles richtig gemacht und Intel vieles falsch.
Du kannst Geld im Überfluss haben, wenn man sich verzockt, braucht es wieder bis man was hat und die aktuelle Architektur ist bei Intel einfach ausgelutscht. Die haben ihr Blatt auf den Tisch gelegt und verloren.
 
ZeroZerp schrieb:
Eine CPU mit einem Kern, welcher die Gesamtrechenleistungskapazität einer 8- Kern CPU hat, ist der 8- Kern CPU in JEDEM Szenario mal erheblich mehr (schlecht parallelisierbare Rechenoperationen) und mal nur ein wenig mehr (massives paralleles Computing) überlegen.

Das ist aber ein wenig zu viel Theorie. Multithreading ist kein Mittel um Overhead zu erzeugen sondern hat den Sinn, zwei oder mehr Sachen echt parallel ausführen zu lassen. Egal wie schnell dein wenig Core Prozessor auch ist, er hat unten ein technisches Limit, was rein auf das Prinzip der CPU Funktionsweise geht. Im ganz engen Sinne ist das schlicht EVA. Drunter wirst du nicht kommen. Ein Prozessor der 8x EVA parallel kann, ist in diesem Szenario auch Haushoch einem Modell mit nur 1x "Breite" überlegen. Denn diese drei Schritte kannst du nicht parallelisieren.

Das Problem mit Multithreading vs. mehr Bumms pro Core ist wo ganz anders gelagert. Man möchte hier eher eine Aufgabe (oder eine geringe Menge von Aufgaben) durch Multithreading in höherer Geschwindigkeit abarbeiten lassen. Das klappt bis zu einem gewissen Punkt und dann flacht die Skalierung ab oder kehrt sich sogar um. Während mehr Bumms pro Einheit immer weiter skalieren wird. Multithreading wird allerdings trotzdem immer punkten, wenn man nur genug Aufgaben zur gleichen Zeit zu erledigen hat. Der ganze Kram mit In-Ops-Zerhackstücklung, OoO, Pipelining, ja sogar SMT usw. helfen nur, die Einheiten möglichst Leerlauffrei tuckern zu lassen. Am Grundprinzip ändert man da aber nix.

SV3N schrieb:
Sie werden sich auch 2020 noch mit ihrer aktuellen Skylake-Mikroarchitektur vom Typ Steinzeit in 14nm++++ herumschlagen und in 2020 von Zen 3 in 7nm+ erneut den Hintern versohlt bekommen.
Bekommen sie denn den Hintern überhaupt versohlt? Nix für ungut, aber in den Foren zermatern sich die Fans ihre Hirne über Nischenmärkte und blenden alles aus, was nebenbei passiert. Wie sinnvoll ist das aber? Wer von annähernd 100% Marktanteil in mehreren der relevanten Marktbereiche kommt, agiert einfach nicht mehr nach dem Motto: "Lieber den Spatz in der Hand als die Taube auf dem Dach". Sondern der doch nen ganzen Schwarm Brieftauben (die kommen eh zurück) im Käfig und lässt den Spatz im Zweifel einfach ziehen...

Um das mal mit Zahlen zu unterlegen, da war doch jüngst erst wieder ne News zu Absatzzahlen... 90 Mio GPUs -> 65% davon Intel. Macht ~60 Mio Einheiten im letzten Quartel an CPUs mit IGP. Das sind round about 650.000 Einheiten pro Tag!! Zzgl. all der Modelle ohne GPU, wie so ziemlich die komplette Xeon Palette. Das dürfte total an die 1 Mio Einheiten pro Tag ran gehen, die da über den Tisch gehen. Übertroffenen Quartalserwartungen bestätigen auch den durchaus nicht ganz vernachlässigbaren Absatz.

Rein aus Herstellersicht ist es doch irrelevant, was da am Ende am Review steht - es zählt wie sich der Spaß verkauft. Und hier ist nach nunmehr 3 Jahren Ryzen noch nicht so ultra viel passiert. Logisch bekommt AMD ihren Teil vom Kuchen. Das ist für Intel aber auch weniger ein Problem. Man sollte halt nur nicht immer diese komische Schwarz/Weis Denke als das Maß der Dinge ansetzen - vor allem nicht in der Wirtschaft. Da zählt am Ende das Geld. Und das bekommt man eben nicht durch nen langen Balken, sondern wenn die Leute das Produkt kaufen - ob es gewinnt ist nur sekundär entscheidend. Im Moment kauft die Masse des Marktes Intel, weil es schlicht alternativlos ist. Und nein, die Masse kauft eben keine 500, 800, 1500 oder 2000€ Desktop oder HEDT CPUs. Sondern seit 10+ Jahren eben effiziente Notebooks mit 2-4C, SMT und ner IGP. Ich habe manchmal das Gefühl, man argumentiert absichtlich nur mit Desktop, weil es dort für AMD eben günstiger ausschaut als beim Rest. Nur warum macht man das? Ihr lügt euch in die eigene Tasche...

SV3N schrieb:
Bei Intel hat man ganz einfach geschlafen und die berühmte Schublade gab es zwar, aber sie war leer. 10nm im Desktop wird’s voraussichtlich vorerst gar nicht geben.
Geschlafen im Desktop Markt - möglich, wobei das Problem weniger ein Schlafen sondern ein seit 4 Jahren nicht funktionierender 10nm Prozess ist/war. Nach mehrfacher Enttäuschung der Aktionäre bei diesem Thema würde man eigentlich nicht mehr von Schlafen sprechen. Die dürften mit allen Mitteln das Problem versuchen zu fixen. Und haben da sicher sogar drastisch mehr Finanzen als kalkuliert war drin versenkt.

Nimmt man es wirtschaftlich, dann kann man denke ich ebenso klar erkennen, wohin die Ressourcen fließen. Im Artikel wurde es ja schon angedeutet. Lieber nen Xeon für tausende Euro/Dollar als den HEDT Prozessor für ne Randgruppe. Das zieht sich durch mehrere Fertigungslienen. Ich erinnere mich noch an Anfang des Jahres (Release der CSL-SP), da war der Spaß auch schwer zu bekommen, zwischenzeitlich gings dann, mittlerweile siehts wieder teils mau (je nach Modell) aus. Zu hohe Nachfrage bei zu geringer Kapazität - irgendwo muss man Abstriche machen. Und das macht man dann eben wie so oft in Märken, die keinen nennenwerten Umsatz bringen. Tut für die Betroffenen weh - stimmt, interessiert wirtschaftlich aber nicht. Die paar Fans der HEDT und großen Mainstream Desktop Modelle machen den Kohl nicht fett für eine Intel.
 
  • Gefällt mir
Reaktionen: Balikon, simosh, KlaraElfer und 6 andere
Pizza! schrieb:
Intel hat mittlerweile trotz viel Geld und Know How echt viele Probleme an der Backe.
Marketing bad, Produktion überlastest, Sicherheitslücken, neuer Prozess immernoch nicht richtig da, AMD kann nicht mehr ignoriert werden.
Dazu noch viel Power und Aufwand in die Xe Grafikkarte stecken.

Text bitte mit Augenzwinkern lesen.

Das Marketing ist vor allem deswegen schlecht, weil man sich mit dem ganzen anderen Zeug auseinander setzen muss.
Die Produktion ist überlastet, weil AMD die Core Wars eröffnet hat. Intels Design liefert aber deutlich schlechtere Yields für ihre riesigen die. Plötzlich bekommt man nur noch einen Brauchteil an CPUs per Wafer, das kostet nicht nur Marge, es bedeutet auch das man plötzlich Lieferschwierigkeiten hat. Und Quadcores würde niemand als Alternative akzeptieren, also lieber ein volles Auftragsbuch das man nicht bedienen kann, als ein leeres Auftragsbuch das man bedienen kann.

Die Sicherheitslücken wiederum scheinen ironischweise noch aus k6 uind k7 Zeiten zu stammen. Also als Intel AMD besonders hart bekämpfen musste und jedes bissel Performance aus seinen Designs holen wollte. Besonders die ganzen Hyperthreading Sicherheitslücken, Intels letztes aufbäumen gegen die Athlon Dominanz.

Das der neue Prozess nicht läuft, da kann ausnahmsweise wohl AMD nix für. Real men have fabs. Da macht Intel alles richtig. Bester Ratschlag den je eine AMD CEO gegeben hat.

Und ja, AMD kann nun halt tatsächlich nicht ignoriert werden ... das zeigt alleine schon die Liste an Problemen die Intel auch Aufgrund von AMD hat.
Die Xe Grafikkarten wiederum... the future is fusion. Intel kann schlecht die Zukunft verschlafen, oder? Wobei bei der größte von Intel und das das ganze eigentlich eine eigenen Abteilung ist .. das sollte keinen Einfluss auf die CPU Entwicklung haben.
 
  • Gefällt mir
Reaktionen: Rockstar85
Sind denn eigentlich Meltdown und Spectre inzwischen Geschichte oder auch bezüglich der neuen CPUs noch Thema?
 
Kollo schrieb:
Sind denn eigentlich Meltdown und Spectre inzwischen Geschichte oder auch bezüglich der neuen CPUs noch Thema?
Sind schon wieder mehr von den gleichen Schwachstellen aufgetaucht die wieder neue Software fixes brauchen, weil in Hardware das Problem immer noch vorhanden ist.
 
P4P800 schrieb:
Egal wie groß das gejammer ist, ihr werdet wieder alle Intel kaufen.
Es ist so und wird immer so bleiben.

Also ich habe vor einem Jahr auf AMD Threadripper umghestellt und schaue mir seitdem schmunzeln das Intel Drama in 100 Akten an. Für mich ist Intel dabei sich selbst abzuschaffen. Das was man jetzt sieht ist die Weichenstellung für AMD im OEM Geschäft.
 
chithanh schrieb:
Das hilft aber nicht, wenn ein Thread ausgehungert wird. Die Verarbeitungseinheiten können dann gleichzeitig an Instruktionen eines Threads arbeiten, aber nicht an denen eines anderen. SMT wurde eingeführt, um diese brach liegenden Verarbeitungseinheiten noch zu nutzen.
Was hindert Dich bei der Singelcore- CPU SMT zu benutzen. Das ist hier garnicht Thema.

Darum geht es hier aber nicht. Es geht darum, Multithreaded Software mit Abhängigkeiten zwischen Threads auf wenigen Kernen zu verarbeiten.
Und da kann dir der Betriebssystem-Scheduler gehörig in die Suppe spucken.
Das tut er bei Mehrkern- CPUs auch nur allzu gern...

Bei 8 Kernen und einer Software mit 8 Threads kannst du sicher sein, dass jeder Thread stets Prozessorzeit bekommt. Bei weniger Kernen nicht.
Multicore- Anwendungen werden anders Programmiert als Singlecore- Anwendungen. Singlecore könntest Du kannst Du den Ressourceneinsatz und dessen Effektivität sogar weit besser steuern.
Mit dem Windows Scheduler nimmst Du in Sachen Multicore- Auslastung der Anwendung in gewisser Weise sogar die Befehlshoheit bzw. die Affinitätskontrolle.

Sei außerdem die Laufzeit von P4 auf der 2-Kern CPU 30 ms, die der anderen 10 ms.
Das ist ein logischer Fehler.
Du musst auf der 2- Kern CPU mit einem Rechenleistungsäquivalent der 3-Kern CPU die niedrigere Laufzeit ansetzen. Nicht umsonst ist eine der größten Herausforderungen in der Multicore- Programmierung, die Race- Conditions unter Kontrolle zu halten.


Vielleicht verstehst du es mit einem Beispiel besser.
Ich verstehe was du sagen willst. Aber wie gesagt- Du strickst Dein Beispiel aufgrund einer fehlerhaften Annahme.

LG
Zero
 
Also manch User (oder eher Gamerboi) hier überschätzt den Impact, den seine Kaufentscheidungen haben, echt maßlos. Hier wird davon schwadroniert, dass man, sollte Intel nicht bald liefern können, sein Geld in AMD-Hardware "investieren" würde und Intel dann sehen kann, wo sie bleiben. Ja, dann "investiere" mal deine 400 €, die du alle 5 Jahre für eine neue CPU ausgibst, bei AMD. Der Intel läuft dann natürlich beim Sohnemann weiter, weil das Geld nicht gereicht hat, um eine weitere "Investition" in AMD-Hardware zu tätigen. lel

Gaming ist nunmal nicht das Hauptgeschäft von Intel und nur, weil bei Gamern jetzt 12 Std. am Tag ein AMD statt ein Intel läuft, geht Intel nicht unter.
 
fdsonne schrieb:
Das ist aber ein wenig zu viel Theorie. Multithreading ist kein Mittel um Overhead zu erzeugen sondern hat den Sinn, zwei oder mehr Sachen echt parallel ausführen zu lassen.
Das Erzeugen von Overhead ist nicht das Mittel, sondern die Folge der Multicore- Verarbeitung.

Egal wie schnell dein wenig Core Prozessor auch ist, er hat unten ein technisches Limit, was rein auf das Prinzip der CPU Funktionsweise geht.
Den Satz verstehe ich nicht. Was ist "unten"?

Im ganz engen Sinne ist das schlicht EVA.
Exakt. Und was ist EVA, wenn man einen Bitstream hernimmt. Die SEQUENTIELLE Eingabe eines Datums, die Verarbeitung und die Ausgabe. Die Eingabe kann bei Multicore- Prozessoren eben auch nur Sequentiell erfolgen.

Eine Analogie:
Wenn Du einen großen Fluss hast (zu verarbeitender Datestrom/Programm) und diesen auf dem Äquivalent an Durchflussgleichen kleinere Flüsse verteilst, hast Du ähnliche Probleme wie bei Multicore CPUs.

Du hast erstmal immer einen kleinen Widerstand bei Teilung des Flusses. Zudem wird der Fluss je nach Umgebung nicht in jedem Strom gleichmäßig an Wasservolumen pro Zeit abbekommen.
Zuguterletzt hast Du wieder Verwirbelungen, wenn das Wasser zusammengeführt wird.

Die Fließgeschwindigkeit ist geringer.

Drunter wirst du nicht kommen. Ein Prozessor der 8x EVA parallel kann, ist in diesem Szenario auch Haushoch einem Modell mit nur 1x "Breite" überlegen. Denn diese drei Schritte kannst du nicht parallelisieren.
Aber genau davon reden wir doch. Der Einkern- Prozessor arbeitet die einzelne EVA 8x so schnell ab (in der Praxis schneller, da er sich die Ressourcen, die selbstverständlich gleich dimensioniert bleiben müssen, nicht teilen muss). Und das unabhängig der Paralellisierbarkeit des Programmcodes.

Das Problem mit Multithreading vs. mehr Bumms pro Core ist wo ganz anders gelagert. Man möchte hier eher eine Aufgabe (oder eine geringe Menge von Aufgaben) durch Multithreading in höherer Geschwindigkeit abarbeiten lassen.
Kannst Du eben genau nicht - Da die Single- Core CPU Leistungsäquivalent in der gleichen Zeit genau die gleiche Menge an Bits und Bytes durch die Gegend schiebt. Mit dem Vorteil, dass man Architekturelle Vorteile (z.B. größere Caches effektivere Branch- prediction/out of order execution) auf einen Datenstrom konzentrieren kann, anstatt ihn über mehrere Cores kontrollieren zu müssen.

Das klappt bis zu einem gewissen Punkt und dann flacht die Skalierung ab oder kehrt sich sogar um. Während mehr Bumms pro Einheit immer weiter skalieren wird.
So sieht es aus...

Multithreading wird allerdings trotzdem immer punkten, wenn man nur genug Aufgaben zur gleichen Zeit zu erledigen hat.

Der ganze Kram mit In-Ops-Zerhackstücklung, OoO, Pipelining, ja sogar SMT usw. helfen nur, die Einheiten möglichst Leerlauffrei tuckern zu lassen. Am Grundprinzip ändert man da aber nix.
Wir reden hier immer von der gleichen Architektur mit dem Unterschied, dass es einmal nur beispielhaft einen Kern gibt der auf 4GHz getaktet ist und einmal 4 Kerne, die mit 1GHz getaktet sind.
Cachegrößen etc. müssen im Fall #1 nicht durch 4 geteilt werden.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und Krautmaster
Vom 3900x wurden schon über 5000 Stück alleine bei Mindfactory verkauft. Da kann man doch nicht von homiopatischen Mengen sprechen. Das ist immerhin ein 12 Kern CPU. Der 3700x ist durchgehend verfügbar
 
JoeDoe2018 schrieb:
Vom 3900x wurden schon über 5000 Stück alleine bei Mindfactory verkauft.
Seit Juli inkl. gezählten Vorbestellungen, die teils nen Monat und mehr nicht bedient werden.
Das machen die mit "verfügbaren", nachgefragten CPUs in normalerweise einem Monat.

Das ist immerhin ein 12 Kern CPU. Der 3700x ist durchgehend verfügbar
Verstehe- Du bist der Meinung, dass die Anzahl der Kerne mit Ansteigen also eine Rechtfertigung für schlechte verfügbarkeit darstellt?

Die 3900x CPUs sind schon wie Intels 8700K und 9900K haarscharf an einem Paperlaunch vorbeigeschrammt und sind immernoch nicht in Breite verfügbar. Und das nach knapp 5 Monaten auf dem Markt.

Das geht besser....

LG
Zero
 
Zuletzt bearbeitet:
Bl4cke4gle schrieb:
Sollten wir uns da irgendwas durch die ausführende Hardware versauen, müssen Wochen in die Fehlersuche und Anpassungen gesteckt werden und unser eigentliches Produkt bleibt liegen.
Eine Entscheidung aus der eigene Inkompetenz heraus treffen, so würde ich das nennen. Man könnte ja so weit gehen und die Software auf dem Zielsystem vor der Einführung auf unregelmäßigkeiten testen. Einfach Intel nehmen weil es ja dann bestimmt funktioniert ist ziemlich bescheuert, mal ganz bescheiden ausgedrückt. Zumal ein verbleiben bei einem Hersteller kein Garant für die Kompatiblität ist.
 
Zuletzt bearbeitet:
ghecko schrieb:
Stimmt, Microcodeupdates gegen die Sicherheitslücken einspielen ist hingegen viel unkomplizierter.
Ja- Ist es. Doppelklick auf File bzw. Kommando auf CLI und durch ist das Microcode- Update.

Neustart/Fertig.
Dagegen den Code/die Entwicklungsumgebung auf einen neuen Hardwareunterbau zu portieren ist deutlich unangenehmer.
 
ZeroZerp schrieb:
Dagegen den Code/die Entwicklungsumgebung auf einen neuen Hardwareunterbau zu portieren ist deutlich unangenehmer.
Ich glaube der CPU-Hersteller ist bei einer Migration auf eine neue Basis das kleinste Problem.
 
  • Gefällt mir
Reaktionen: Rockstar85
ghecko schrieb:
Ich glaube der CPU-Hersteller ist bei einer Migration auf eine neue Basis das kleinste Problem.
Leider nicht bei den "alten Hunden". Da kriegst Du für neue Systeme teils die alten Schnittstellen die auch angefertigt/angepasst sind noch nicht mal...

LG
Zero
 
Minutourus schrieb:
Das mit Samsung könnte schon sein, anscheinend will sich Samsung in Richtung TSMC hin bewegen also Aufträge für Kunden bedienen.

Das mit den Geister CPUs finde ich witzig aber zumindest kann AMD eine Handvoll Kunden bedienen, dürften einfach unterschätzt haben das Ryzen und Co. so einen Erfolg feiern, jetzt muss AMD auf die Tube drücken nur ob sich bei TSMC noch Kapazitäten sichern lassen steht auf einem anderen Blatt Papier, die sind ja ziemlich ausgelastet was ich mitbekommen habe..

Machen sie doch schon länger siehe Nvidia GTX1050 und GTX1650. 😉
 
47cmArmumfang schrieb:
Der Intel läuft dann natürlich beim Sohnemann weiter, weil das Geld nicht gereicht hat, um eine weitere "Investition" in AMD-Hardware zu tätigen. lel
:rolleyes: Es hat natürlich rein gar nichts mit logischen und gesunden wirtschaften zu tun, das man eine funktionierende und ausreichende Hardwarekomponente nicht einfach in der Familie weiter"vererbt".

Ganz schwacher Versuch
 
  • Gefällt mir
Reaktionen: Rockstar85 und iron-man
Zurück
Oben