News Intel Core X 10000: Ein Produktstart, wie er in keinem Buche steht

aldaric schrieb:
Was soll eigentlich die Diskussion über diesen hypothetischen 1-Kerner ? Man kann den Takt nicht beliebig steigern, ergo muss man in die breite gehen. Die Software muss sich dementsprechend anpassen.
Genau das was Du schreibst, war die Ausgangslage der Situation.
Mehrkerner=Notlösung aufgrund der Fesseln, die einem die Physik/Technik auferlegt

Diese Diskussion muss offenbar geführt werden, weil es anscheinend User gibt, deren technisches Verständnis erstmal nicht so weit reicht, genau zu verstehen, wie ein Computer funktioniert.
Wenn dann Aussagen fallen wie dass in Anwendungen schwache Mehrkerner mehr bringen, als ein Rechenkraftäquivalenter Einkerner, dann muss man das einfach richtig stellen.

Mehr Kerne sind eine Notlösung, die mit zunehmender Anzahl eben dieser immer weiter an Effizienz verliert und mit steigender Anzahl einen immer enger werdenden Anwendungskreis mit seiner Rechenkraft erreicht.

Der Hypothetische Einkerner bringt bei jeder Anwendung das volle Potenzial auf Umsetzung seiner Rechenkraft.

LG
Zero
 
  • Gefällt mir
Reaktionen: iron-man und Krautmaster
ZeroZerp schrieb:
Der Hypothetische Einkerner bringt bei jeder Anwendung das volle Potenzial auf Umsetzung seiner Rechenkraft.
Funktioniert das auch mit einer SSD, die extrem hohe I/O-Operationen hat?
Da habe ich meine Zweifel, weil ich das mal mit einem Pentium 4 550 ausprobiert habe.
Der Stromverbrauch lag bei Dateioperationen stets im Maximum. Und einen Geschwindigkeitsvorteil habe ich nicht bemerkt.
Deshalb bin ich da auch wieder zu der Festplatte zurück gewechselt.
 
  • Gefällt mir
Reaktionen: Rockstar85
Hubo schrieb:
Hallo!
Ich hätte da mal ne Frage:
Wie kommt denn Intel auf 18 Kerne? Sind die 18 Kerne tatsächlich auf einem Stück Silizium? Oder werden die 18 Kerne ähnlich wie bei amd „zusammen geklebt“?
ich konnte leider keine Artikel dazu finden...
besten dank

Intel setzt nachwievor auf ein Monolythisches Design das heißt es gibt eine Maske für jede CPU sprich eine wie in diesem Fall die 18 Kerne beinhaltet. Intel „klebt“ aktuell keine Chiplets zusammen.

Wer weiß ob Sie das nicht in zukunft machen werden.
 
deo schrieb:
Funktioniert das auch mit einer SSD, die extrem hohe I/O-Operationen hat?
Was soll womit funktionieren?

Da habe ich meine Zweifel, weil ich das mal mit einem Pentium 4 550 ausprobiert habe.
Was hast Du ausprobiert und in welcher Referenz wozu? Du weisst schon dass der 550er noch auf Netburst gesetzt hat = IPC eher unterirdisch? Ein moderner Skylake Prozessor ist pro Kern 5x schneller.

Der Stromverbrauch lag bei Dateioperationen stets im Maximum.
Der wird auch mit jeder Faser seiner Rechenleistung versucht haben, die Daten zu verarbeiten. Der hohe Stromverbrauch ist eine Folge.
Ist bei modernen Prozessoren nicht anders. Kannst ja mal beobachten, was z.B. moderne Loader von Spielen an Pfund auf die Prozessorkerne legen.

Und einen Geschwindigkeitsvorteil habe ich nicht bemerkt.
Geschwindigkeitsvorteil im Vergleich wozu?

Dazu?:
Deshalb bin ich da auch wieder zu der Festplatte zurück gewechselt.

Kannst ja mal einen neuen Ryzen oder einen neuen Skylake auf einen Kern im Bios beschränken. Im normalen Desktopbetrieb wird Dir wahrscheinlich kein Geschwindigkeitsnachteil auffallen.

Hab das letzte Woche erst zum Spaß bei einem 9900K aus reiner Neugier gemacht.
Läuft astrein.

LG
Zero
 
Intel hat ja bereits diverse Präsentationen zu ihren Plänen hinsichtlich Multichip offenbart, allerdings muss das Silizium natürlich dazu auch fertig designed und ausgelegt sein. Intels 14nm Kerne sind unwesentlich größer als AMDs Zen 2 Kernen, man könnte Epyc Rome ebenso in Intels 14nm realisieren - nur hat Intel nur 2 Ansätze aktuell. Den Ringbus der immer + 2 Kerne skaliert (Mainstream) und eben das Mesh bis X Kerne im Server Segment, und da 3 verschiedenen Die Größen. 10/18/28 Cores.

Beide Designs sind schlicht auf 1 Chip ausgelegt. Maximal Multisockel kann man damit noch auf einem Träger "zusammenschustern". AMD hat Zen 2 mit Chiplets von Anfang an auf dieses modulare Konzept ausgelegt. Und damit lag man Gold richtig. Wenn man aber bedenkt wie ultra langwierig die Planung hier ist kann man Intel wenig vorwerfen. Als Skylake X geplant wurde hätte dieser bereits vor Jahren wieder Geschichte sein sollen, wir wären vermutlich schon bei 7nm (nicht 10) und da hatte Intel vermutlich mehr als 40C, eher 60+ C pro Die auf dem Schirm, ink einem bereits erwacheneren Mesh. Die Fertigung hat Intel einen Strich so ziemlich durch alles gemacht.
 
  • Gefällt mir
Reaktionen: iron-man und xexex
Krautmaster schrieb:
Den Ringbus der immer + 2 Kerne skaliert (Mainstream) und eben das Mesh bis X Kerne im Server Segment, und da 3 verschiedenen Die Größen. 10/18/28 Cores.
Guck mal: https://twitter.com/Underfox3/status/1162648228199915520
http://www.freepatentsonline.com/20180101502.pdf
ECKOZi_W4AAld_G.png
 
  • Gefällt mir
Reaktionen: acab2, Krautmaster und Rockstar85
Intels Ansatz mit den monolithischen Kernen ist doch an dieser Stelle in der Theorie nicht einmal falsch. Man ging letztlich nur davon aus, 10nm und 7nm mit den gleichen Yields fahren zu können wie bisher.

Wäre der Plan aufgegangen, wäre bei den CPUs jetzt auch nicht bei 28C Schluss, man hatte schon monolithische 72C CPUs hergestellt, da hat AMD noch gegrübelt was sie überhaupt machen sollen.

1575236665798.png

https://en.wikichip.org/wiki/intel/microarchitectures/knights_landing
 
BosnaMaster schrieb:
Wenn du den Markt aber betrachtest werden aber mehr Gaming Notebooks als Desktops verkauft.
Falsch!
Es werden mehr mobiles gekauft. Notebooks Ansich werden immer mehr gekauft, daher auch der Zuwachs. Und für Studie gibt das mit gaming auch nicht Her.
lass bitte einfach solche Falschaussagen, wie auch da drunter. Nachher glaubt noch ein User das gesagte. Und es gibt erste Tests mit den 10nm Gen 10 Modellen, und der Langzeit Boost ist gelinde gesagt, erbärmlich
Im Bereich HPC und Mobile wird das große Geld gemacht. Gerade der Serverbereich könnte Intel teuer zu stehen kommen, sollte auch AWS ihren Arm Plan durchziehen. Bei Mac warte ich nur auf Apples Ausstieg von Intel. Dauert auch nicht mehr lange. Veträge hin oder her. Die Macbooks sind die nächsten die Intel verliert.



@ZeroZerp und krauti
Sorry Jungs, Aber über Software ja Ahnung haben, im Hardware Bereich stochert ihr verdammt stark mit Halbwissen umher. Macht euch Mal Gedanken warum IBM zB 3 Fach SMT entwickelt hat, wenn ja nur ein Kern reicht. Wenn ihr das immer noch nicht verstehst, nutzt Mal eben 1 Kerner im Windows Alltag, oder gerne auch Mal mit seti oder Boinc.. glaubt mir, danach redet ihr nicht mehr so. Und selbst wenn ein 10nm Transistor Gate für Taktraten eines 14nm++ schaffen würde, es bleibt nicht kühlbar. (Deswegen geht man ja in die Breite) Stacked Die werden auch hier keine 5 GHz zulassen, da es physikalisch schon nicht möglich ist. Ohne Graphen oder andere Stoffe sehe ich vom technischen Stand schwarz. Ebenso wird es immer mehr in die Breite gehen, wie dies schon lange im professionellen Bereich geschieht. (Software)Auch wenn schlechte Software hier das vorankommen stark verlangsamt.

Man sieht sehr gut für Skalierung im Linux.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Balikon
ZeroZerp schrieb:
Kannst ja mal einen neuen Ryzen oder einen neuen Skylake auf einen Kern im Bios beschränken. Im normalen Desktopbetrieb wird Dir wahrscheinlich kein Geschwindigkeitsnachteil auffallen.

Doch, massiv, habe das mal mit meinem alten 6700K ausprobiert. SMT off 1 Kern aktiviert.
Ist gar nicht mehr benutzbar.
 
KlaraElfer schrieb:
Doch, massiv, habe das mal mit meinem alten 6700K ausprobiert. SMT off 1 Kern aktiviert.
Ist gar nicht mehr benutzbar.
Dann lass das SMT mal an.

Gerade nochmal verifiziert. Bin jetzt gerade wieder mit einem Kern unterwegs. Standard- Desktopbetrieb ist garkein Thema. Bootzeiten zum Desktop sind gleichgeblieben.
Öffnen von Steam ist gleichschnell.

Unterschied ist natürlich die Anzeige einer höheren Grundlast. Da hänge ich mit meiner gesamten Batterie an Hintergrundanwendungen nun inkl. 5 Browsertabs bei 20-25%


LG
Zero
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Dann lass das SMT mal an.

Selbst dann ist das spätestens wenn der Virenscanner aktiv wird und ein Video geschaut wird, bzw gesurft wird, sofort hakelig.
Da steht der Overhead die Last auf mehrere Kerne zu verteilen in keinem Verhältnis zu dem Stau, der entsteht wenn man nur einen Kern zur Verfügung hat. Ein System fühlt sich 8 Cores mit 1GHz wesentlich wohler als auf einem Singlecore mit 8Ghz Takt.
 
  • Gefällt mir
Reaktionen: Balikon
yurij schrieb:
Was den 9900K angeht: der AMDs CCX sind derzeit leider noch 2 zusammenkeklebte 4-Kerner. Die Quads müssen untereinander über I/O Chiplet Umweg kommunizieren. Erst der Ryzen 4000 wird ein monolithisches 8-Kern CCX und dürfte dann auch in Spielen die gleiche Leistung wie der 9900K zeigen. Vielleich sogar mehr, da deutlich mehr Cache onboard.

wenns stimmt was man so hört kann man von 15% mehr IPC ausgehen dann noch der bessere Fertigungsprozess und der möglichkeit mehr Takt zu geben könnte AMD da nochmal ordentlich nachlegen.
 
KlaraElfer schrieb:
Selbst dann ist das spätestens wenn der Virenscanner aktiv wird und ein Video geschaut wird, bzw gesurft wird, sofort hakelig.
Video (Fargo auf Netflix) läuft sauber ohne zuckeln, trotz jetzt im Hintergrund aktiviertem Virenscan. CPU Last ist auf 100%.
Ich kann gerade trotzdem ohne Schwierigkeiten noch auf großen Seiten surfen und ein par Office- Programme bedienen.
Desktopoperationen laufen flüssig.

Der eine Kern läuft auf 5 GHz (sollte man vielleicht dazusagen) und wird von 4000er RAM mit engen Settings gefüttert.

LG
Zero
Ergänzung ()

KlaraElfer schrieb:
Ein System fühlt sich 8 Cores mit 1GHz wesentlich wohler als auf einem Singlecore mit 8Ghz Takt.
Irrtum, eine CPU ist eine Rechenmaschine, die gemäß ihrer Auslegung immer die gleiche Anzahl an Operationen ausführt.
Ob Du das bei gleichbleibender IPC mit einem Kern und hoher Taktung machst, oder mit vielen Kernen auf äquivalent niedriger Taktung bleibt so lange relativ egal, solange Du parallel voneinander unabhängige Programme ausführen kannst.

Ist das nicht der Fall, siegt die 1- Kern CPU haushoch.

Was ich allerdings als interessant empfinde ist, wie viele hier anscheinend ein falsches Bild der Arbeitsweise einer Rechenmaschine haben. Vielleicht sollte CB da mal einen Grundlagenartikel bringen, der sich mit diesem Thema befasst.

Ein "Stau" wie Du ihn hier bezeichnest findet vornehmlich in Multicore- Szenarien statt. Allein durch die Notwendigkeit der Synchronisation bzw. Ergebnisaustauschs.

Wenn Du singlecore lt. Software ein Ergebnis brauchst, dann wird das sofort durchgerechnet, ohne jeweils einen Watchdog auf den zweiten Kern legen zu müssen -> Weniger Stau, weniger Verwaltungsaufwand.

LG
Zero
 
Zuletzt bearbeitet:
Rockstar85 schrieb:
Macht euch Mal Gedanken warum IBM zB 3 Fach SMT entwickelt hat, wenn ja nur ein Kern reicht.

Hast du dir mal Gedanken darüber gemacht, für welche Bereiche IBM CPUs entwickelt? Alles was du erzählst hat nichts mit Software zu tun die auf "normalen" Rechnern in Einsatz kommt. Was glaubst du wieso man bei ARM CPUs auf die
big.LITTLE Architektur umgestiegen ist oder Intel die Lakefield CPU entwickelt hat?

Die meisten Anwendungen wollen am besten einen schnellen Kern! Auf einen normalen PCs laufen heutzutage meist mehrere Prozesse gleichzeitig, weshalb es Sinn macht mehr als nur einen Kern zu haben. Wenn es dann aber darum geht 8 oder noch mehr Kerne auszunutzen, braucht man Applikationen und Daten die man überhaupt darauf aufteilen kann.

Beim Bild ist es einfach, zerschneide ein Bild in 8, 16, 32, 64 Teile, bearbeite jedes Teil einzeln und füge es dann wieder zusammen, deshalb skaliert ja Cinebench auch so gut mit vielen Kernen. Aber selbst bei solchen Operationen ist die Skalierung nicht unendlich, weil der Prozess die Bilder zu zerscheiden, aufzuteilen, die Prozesse zu synchronisieren und wieder zusammenzufügen kostet Rechenzeit, die dann wieder nur von einem Kern erledigt wird.

Bei anderen Applikationen wirst du nie Profit aus mehreren Kernen schlagen. Startet Word, Excel oder Photoshop schneller, wenn im PC 64 Kerne werkeln? Nö! Mit einer theoretischen 20Ghz CPU würde Word aber bis zu 4x schneller, als mit einer 5Ghz CPU starten. Die Entwicklung "in die Breite" ist im Moment der einzige Weg zu mehr Leistung, es ist aber ein Weg der endlich ist und von dem immer weniger Applikationen und Nutzer profitieren können.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Sorry Jungs, Aber über Software ja Ahnung haben, im Hardware Bereich stochert ihr verdammt stark mit Halbwissen umher.
Was stimmt denn an den "Fakten" Deiner Meinung nicht?

Macht euch Mal Gedanken warum IBM zB 3 Fach SMT entwickelt hat, wenn ja nur ein Kern reicht.
Du schreibst so eine Unterstellung zur Einleitung und wirfst dann SMT mit physischen Kernen in einen Topf?

Wenn ihr das immer noch nicht verstehst, nutzt Mal eben 1 Kerner im Windows Alltag, oder gerne auch Mal mit seti oder Boinc.. glaubt mir, danach redet ihr nicht mehr so.
Gerade WEIL ich es gerade noch einmal am Testen bin, kann ich Dir sagen, dass es hier keine nennenswerten Beeinträchtigungen im Desktopbetrieb gibt.

Ohne Graphen oder andere Stoffe sehe ich vom technischen Stand schwarz. Ebenso wird es immer mehr in die Breite gehen, wie dies schon lange im professionellen Bereich geschieht.
Exakt- Eine Notlösung. Deshalb muss man in die Breite gehen. Davon sprechen wir hier die ganze Zeit.

(Software)Auch wenn schlechte Software hier das vorankommen stark verlangsamt.
Du unterstellst, dass die möglichkeiten für die Paralellisierung von Software somit lang nicht ausgeschöpft wären.

Täusch Dich da mal nicht.... Da ist über die Jahre schon viel Know- How reingeflossen und so ohne weiteres kriegst Du diverse Anwendungen einfach nicht SINNVOLL auf mehrere Kerne verteilt.
Um wettbewerbsfähig zu bleiben operieren da viele Hersteller schon am oberen Ende der Skala.

Über die Funktionsweise von CPUs kann man sich hier ganz gut informieren. Dann wird vielleicht einiges klarer:

LG
Zero
 
Zuletzt bearbeitet:
@Rockstar85 Mann kann natürlich jede Statistik so auslegen wie es einen passt....

https://www.itreseller.ch/Artikel/90131/Erfreuliche_Zukunft_fuer_Gaming-Rechner.html

Mir ist es eigentlich egal, aber jede Statistik untermauert meine Aussage. Ja, wir können jetzt über Definitionen von Gaming Rechnern und so weiter diskutieren, schweifen aber von Thema ab. Ich habe diese Zahlen nicht gemacht.

Es gab X Gerüchte das Apple irgendwann seine eigenen Socs in den MacBooks ect. verbauen möchte. Wird sicher auch irgendwann der Fall sein, ob die Leistung für alle Klassen reicht, werden wir sehen.

ARM ist halt eine RISC(Reduzierter Befehlssatz) oder jetzt Advanced Risc Architektur, Apple würde es ja sicher schon lange machen, wenn es ohne Einbüssen machbar ist. Was nicht heisst dass es in Zukunft nicht machbar ist. Windows hat ja bereits solche Modelle im Umlauf, Emulation ist halt so eine Sache, Programme müssen halt da mitziehen.
 
Kontext Switches könnten dem hypothetischen 1-Kern CPU kleinen Strich durch die Rechnung ziehen. Von Natur aus parallele Aufgaben werden auf mehreren Kernen besser laufen, da sie weniger durch Context Switches und Interrupts unterbrochen werden müssen. Dazu Kommen noch Effekte wie Cache Verdrängung, die eine abwechselnde Ausführung auf einem Kern sehr schnell sehr ineffizient machen können. Und last but not least: ein Kern z.B. garnicht in der Lage die I/O Bandbreite moderner DRAMs voll auszulasten. Beim memcpy muss man 3-4 Kerne nutzen um maximalen Speicher-Durchsatz zu erreichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
yurij schrieb:
Kontext Switches könnten dem hypothetischen 1-Kern CPU kleinen Strich durch die Rechnung ziehen.
Wieso denn? FP/Int etc. wird doch auch da inzwischen zeitgleich abgearbeitet. Wo "switchen" denn moderne CPUs noch welchen Kontext?

Oder meinst Du Switching im Sinne von Threading? Wenn ja, dann ist dein Einwand berechtigt (habe ich aber auch schon mehrfach oben geschrieben).
Sobald etwas zu 100% zeitgleich ohne Abhängigkeiten auf einem Core laufen kann und voll ausgelastet werden kann, hat dieser Core seine Aufgabe erfüllt und eine Daseinsberechtigung.

Alle anderen von Dir genannten Effekte hast Du in Multicore- Szenarien in verschärfter Form. Eine Cache- Verdrängung findet auf einer 1- Kern CPU aber auf dem "natürlichen" Wege statt, wohingegen bei Mehrkerncpus auch aufgrund des Threadhoppings moderner Scheduler laufend komplette Flushes/Copies stattfinden.

Für Interrupts brauchst Du einen "Handler" bzw. eine Auswertungsroutine, die diesen wieder dem affinen Core zuweist.

Ich bestreite auch nicht, dass nicht eine gewisse Anzahl an Cores sinnvoll ist. Nur dieser fokussierte Kernewahn muss mal in den richtigen Kontext gesetzt werden.

Wenn hier die Leute im Grundsatz anfangen Multicore- Leistung einer Rechenkraftäquivalenten Singlecore- Leistung vorzuziehen, dann läuft hier was schief.

Wie schon oben richtig erwähnt. Ob Du 4 oder 400 moderne Kerne auf das System wirfst - das Betriebssystem wird dadurch nicht schneller laden.

LG
Zero
 
Zuletzt bearbeitet:
Beim Task-Wechsel findet Context-Switch statt. Dabei müssen alle CPU register für den alten Task im RAM gesichert und für den neuen Task aus dem RAM in die CPU geladen werden. Ausserdem findet ggf. eine Umprogrammierung der MMU statt und weitere Operationen um TLBs für die neue Task vorzubereiten. Ein Context-Switch kann mehrere millionen CPU Zyklen dauern. Macht man das oft genug pro Sekunde, ist die CPU praktisch nur noch mit sich selbst beschäftigt.
 
yurij schrieb:
Beim Task-Wechsel findet Context-Switch statt. Dabei müssen alle CPU register für den alten Task im RAM gesichert und für den neuen Task aus dem RAM in die CPU geladen werden.
Wie es Dir beim "normalen" Scheduling Prozess in Multicore- Szenarien auch passiert. Was glaubst Du, was das Zyklen kostet eigenständige Worker-Threads zu spawnen und zu kontrollieren und anschliessend wieder zu synchronisieren?

Ausserdem findet ggf. eine Umprogrammierung der MMU statt und weitere Operationen um TLBs für die neue Task vorzubereiten.
Kann- Muss aber nicht. Und wie gesagt, das Phänomen ist nicht Singlecore- Exklusiv.

Ein Context- Switch kann mehrere millionen CPU Zyklen dauern. Macht man das oft genug pro Sekunde, ist die CPU praktisch nur noch mit sich selbst beschäftigt.
Deswegen macht man es nur, wenn es notwendig ist. Unabhängig ob singlecore oder multicore...

Ich kann immer jeden Core mit unsinnigen Aufgaben/Wartezyklen oder ineffektiver Programmierung bis zum St. Nimmerleinstag mit Sinnlosigkeiten auf Trab halten. Wir gehen hier von moderner, annähernd sauberer Programmierung/Nutzung aus.

Zudem bitte noch einmal den letzten Absatz meines über Deinem stehenden Posts lesen.
Es ist mir klar, dass Multicore- Systeme bis zu einer gewissen Kernzahl gut/akzeptabel skalieren.

Nur ist das hier nicht das Thema und geht am ursprünglichen Aufhänger vorbei.

LG
Zero
 
Zuletzt bearbeitet:
Zurück
Oben