Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intel Ice Lake: L1- und L2-Caches wachsen mit angepasster Assoziativität
- Ersteller Volker
- Erstellt am
- Zur News: Intel Ice Lake: L1- und L2-Caches wachsen mit angepasster Assoziativität
dynastes
Banned
- Registriert
- Apr. 2007
- Beiträge
- 1.413
C.J. schrieb:Es gibt zwei Extremfälle von Caches: Bei einem voll-assoziativem Cache können alle Daten (man legt immer 64Byte große Blöcke in den Cache) in jeder Cache-Zeile gespeichert werden. Vorteil: Der Cache wird immer voll ausgenutzt. Nachteil: Wenn man einen Block sucht, muss man im Zweifelsfall den gesamten Cache durchsuchen, was sehr lange dauert (und den Speedvorteil des Caches wieder auffressen kann) und viel Strom kostet. Das andere Extrem ist ein 1-fach assoziativer Cache, wo jeder Block nur an einer möglichen Stelle abgelegt werden kann. Vorteil: Die Suche ist extrem schnell, weil man beim Suchen nur in einer Cache-Zeile nachschauen muss - liegen die Daten dort nicht, sind sie auch nicht im Cache. Nachteil: Es kommt zu Konflikten, wenn mehrere Blöcke in die gleiche Cache-Zeile abgelegt werden wollen und sich gegenseitig aus dem Cache werfen, obwohl noch reichlich andere Cache-Zeilen frei sind. Der Kompromiss sind dann z.B. 8-fach-assoziative Caches, wo es für jeden Block in dem Fall 8 Möglichkeiten gibt, wo er im Cache liegen kann. Das ist immer noch viel schneller als voll-assoziativ (ein 32kB L1 hat 512 Cache-Zeilen, der 512kB L2 sogar 8192!), trotzdem kommen Konflikte relativ selten vor, sodass man unterm Strich einen leistungsfähigen Cache hat.
Wunderbar erklärt.
latexdoll
Lt. Commander
- Registriert
- Jan. 2007
- Beiträge
- 1.124
Volker schrieb:Mainstream ist und bleibt Ringbus, hat Intel mit der Erklärung zu Gen11-Grafik offiziell bestätigt.
https://pics.computerbase.de/8/7/0/8/5/1-1080.83d0cb12.png
Was sie bei Server machen werden wir sehen. Denke aber nicht zurück zum Ring. Mesh ist schon gut für viele Sachen da und vor allem skalierbar, es hatte nur Kinderkrankheiten .. wie so vieles^^
Spectre und Meltdown werden sie zum Teil in HW fixen, aber sicher nicht alles. Es kommen ja alle Monate neue Ableger, da muss Intel zurück ans Reißbrett und bei 0 anfangen. Hyper-Threading muss ja quasi komplett umgebaut werden usw .. es steckt halt überall fest mit drin. Windows 10 wird ja jetzt helfen, Retpoline ist die neue default Lösung ab fdem neuen Update, Performance verliert man dann quasi nicht mehr. Aber komplett gefixte Hardware sehen wir sicher nicht vor 2022 oder so.
Die Frage die ich mir nun stelle, was ist bei IBM anders mit Hyper-Threading. Der Power 7 hat pro Kern 4 HTs, der Power 8 hat sogar pro kern 8 HTs. Ist deren Ht anders aufgebaut oder ist die Verbreitung zu gering, das sich die Forscher auf die CPU stürzen und nach Sicherheitslücken umschauen ?
https://en.wikipedia.org/wiki/IBM_POWER_microprocessors#POWER7
Ich würd nicht damit rechnen, dass man Icelake auf absehbare Zeit in seinen Rechner einbauen kann. Das einzige, was wie sehen werden, ist Icelake in teuren Notebooks. Günstige werden auf Cometlake U setzen und Desktop-Rechner werden auf Cometlake S setzen. 10nm+ wird einfach den Takt nicht packen, der Vorteile im Desktop bringen muss, das wird man erst mit Tigerlake und 10nm++ schaffen.
- Registriert
- Juni 2001
- Beiträge
- 18.787
Tzk schrieb:Gibts eigentlich schon Infos inwiefern Intels Gen11 Grafik mit Intels dGPU verwandt ist? Also ob die neue Gen11 Grafik quasi ne Vorstufe der dGPU ist, oder ob da was komplett neues kommt?!
0 Verwandtschaft. Also doch, es steht Intel drauf. Aber es ist so wie Larrabee damals, was komplett Neues eigenes. Klar wird man irgendwo eventuell Parallelen aufdecken, aber das Rad komplett neu erfinden geht in der Branche halt nicht. Eine CPU wird auch imemr so aussehen wie ein CPU beim Aufbau.
- Registriert
- Apr. 2008
- Beiträge
- 12.498
Wenn es schon leaks von Laptops gibt, und Infos zur Art des Cache....hat man etwas zwitschern hören, was die Performance macht?
Die Taktraten sind ja vermutlich der Basistakt, der sagt nichts aus.
Die Taktraten sind ja vermutlich der Basistakt, der sagt nichts aus.
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.211
lejared schrieb:Wirklich gute Frage. Das würde mich tatsächlich auch mehr interessieren als die Mikro-Optimierungen. Am Ende ist womöglich auch der Geschwindigkeitsgewinn größer, wenn Spectre in Hardware gefixt ist und sich nicht mehr die Software darum kümmern müsste.
Nein nicht geht auch garnicht erst mit einer Kompletten neuen Architektur.
Spannend wird er wieder in 14nm++++++++ ultra plus kommen.
Oder endlich in 10nm und wenn dann auch wirklich gut weil laut Gerüchten sollte der 10nm Prozess immer noch nicht billiger sein und gut laufen.
- Registriert
- Okt. 2016
- Beiträge
- 272
Achso ist das, die knapp 100.000 Angestellten mehr als AMD, bezahlt man dann wovon?Marcel55 schrieb:Die CPUs sind durchweg 100€ zu teuer.
Den Bau, Umbau, Ausrüstung für EUV in den Fabriken bezahlt man wovon?
Die ganzen Forschungseinrichtungen für eine neue Fertigung, die AMD ja schon seit Jahren nicht hat, bezahlt man wovon?
Das Risiko mit einer Fertigung auf die Schnauze zu fallen, deckt man mit welchen Mitteln ab, Intel kann die Preise von einem Reseller garnicht mitgehen, aber das wüsste man ja, wenn man nicht den total naiven AMD-Schwätzern hinterher reden würde!
Vergleiche nicht einen billigen Chip-Reseller wie AMD, der magels Konkurrenz total an TSMC gebunden ist, mit einem Hersteller der selbst fertigt und die einzige Alternative im Deskop CPU und auch bald GPU Segment darstellt!
Stell dir mal vor, Intel zieht genauso den Schwanz wie AMD ein und kauft nur noch bei TSMC anstatt selbst zu fertigen, was denkst du hätte das für fatale Konsequenzen, für uns Konsumenten?
TSMC hat als Zulieferer ja schon ein Monopol für desktop GPUs, da AMD und Nvidia vollkommen abhängig sind und das spiegelt sich auch in den aktuellen Preisen wieder, oder denkst du die R7 ist nur wegen des Speichers so teuer.
GloFo wird vermutlich auf Jahre kein vernünftigen 7nm auf den Markt bringen und von EUV brauchen wir da nicht einmal reden, dafür müsste man ja erstmal genug verdienen um die Fabriken umzurüsten.
Klassikfan
Banned
- Registriert
- Aug. 2009
- Beiträge
- 5.677
Würde aber - wenn ich die Problematik richtig interpretiere - die CPUs langsamer machen. Praktisch alle in letzter Zeit entdeckten Sicherheitslücken, auch die aktuelle, haben mit der Sprungvorhersage zu tun. Sprich, die CPU führt vorab Befehle aus, die sie gar nicht bekommen hat, in der Hoffnung, einer davon wird gleich erteilt. Ein wesentliches Merkmal der Architektur, auf das sich offenbar die Schädlingszüchter nzwischen eingeschossen haben. Die müßte man also konsequenterweise intern abschalten oder eng begrenzen müßte, was eben die Geschwindigkeit senkt.lejared schrieb:Wirklich gute Frage. Das würde mich tatsächlich auch mehr interessieren als die Mikro-Optimierungen. Am Ende ist womöglich auch der Geschwindigkeitsgewinn größer, wenn Spectre in Hardware gefixt ist und sich nicht mehr die Software darum kümmern müsste.
Zuletzt bearbeitet:
v_ossi
Commodore
- Registriert
- Juni 2011
- Beiträge
- 4.791
@dettweilertj
Ähm, lol?
Intel sitzt auch nem Geldberg, der Smaug neidisch machen würde und der nur von wenigen anderen Riesen wie Apple übertroffen wird. Dazu fahren die seit Jahren Gewinne ein, die größer sind, als AMDs Umsatz.
Natürlich könnten die ihre CPUs auch 100€ günstiger verkaufen und würden noch schwarze Zahlen schreiben.
Nur, warum sollten sie. Die Produktion ist ja auch so ausgelastet und der Pöbel reißt Ihnen die CPUs quasi aus der Hand.
Die Preise so hoch zu halten ist einzig eine wirtschaftliche Entscheidung. Je nachdem, wie die 3000er Ryzen einschlagen, wird Intel bestimmt ganz schnell die Preise anpassen müssen.
Oder eben nicht, falls die Leistung bei Ryzen 3000 nicht stimmt oder die wider erwarten recht teuer sind.
Ähm, lol?
Intel sitzt auch nem Geldberg, der Smaug neidisch machen würde und der nur von wenigen anderen Riesen wie Apple übertroffen wird. Dazu fahren die seit Jahren Gewinne ein, die größer sind, als AMDs Umsatz.
Natürlich könnten die ihre CPUs auch 100€ günstiger verkaufen und würden noch schwarze Zahlen schreiben.
Nur, warum sollten sie. Die Produktion ist ja auch so ausgelastet und der Pöbel reißt Ihnen die CPUs quasi aus der Hand.
Die Preise so hoch zu halten ist einzig eine wirtschaftliche Entscheidung. Je nachdem, wie die 3000er Ryzen einschlagen, wird Intel bestimmt ganz schnell die Preise anpassen müssen.
Oder eben nicht, falls die Leistung bei Ryzen 3000 nicht stimmt oder die wider erwarten recht teuer sind.
Zuletzt bearbeitet:
Klassikfan
Banned
- Registriert
- Aug. 2009
- Beiträge
- 5.677
Das ist selbst eines Intel-Fanboys unwürdig!dettweilertj schrieb:billigen Chip-Reseller wie AMD,
O
Oneplusfan
Gast
dettweilertj schrieb:Achso ist das, die knapp 100.000 Angestellten mehr als AMD, bezahlt man dann wovon?
Den Bau, Umbau, Ausrüstung für EUV in den Fabriken bezahlt man wovon?
Die ganzen Forschungseinrichtungen für eine neue Fertigung, die AMD ja schon seit Jahren nicht hat, bezahlt man wovon?
Kann mir als Kunde doch egal sein. Mir ist doch völlig egal, wie eine Firma was genau bezahlt. Ich kaufe das, was mir am meisten bringt und da hat AMD im unteren Preissegment nunmal die Nase vorne. Einem Sub 150€ 6/12 Kern-Prozessor kann Intel lediglich einen 6/6 Kerner für 190€ entgegensetzen. Da hab ich in den meisten Spielen mehr davon, wenn ich ne bessere GPU kaufe.
dettweilertj schrieb:TSMC hat als Zulieferer ja schon ein Monopol für desktop GPUs, da AMD und Nvidia vollkommen abhängig sind
???Samsung???
Nvidia hat viele GP106er dort gefertigt und Gerüchten zufolge wird man bei 7nm direkt auf Samsungs EUV Prozess setzen.
Zum Thema:
Man will ja jetzt noch die 10- Kerner in den Mainstream bringen. Erfolgt das dann als "neue" Serie? Oder setzt man auf den aktuellen i9 einfach nen i11 drauf?
Wenn ersteres der Fall ist, kann man dann einen i3 mit 4/8, i5 mit 6/12, i7 mit 8/16 und i9 mit 10/20 Kernen/Threads erwarten?
Und wie passt das alles zeitlich zusammen, wenn man Ice Lake noch dieses Jahr rausbringen will?
Fragen über Fragen. Inzwischen hat AMD die gefühlt bessere Roadmap, ähnlich wie Intel damals mit "Tick-Tock".
- Registriert
- Feb. 2009
- Beiträge
- 3.093
@dettweilertj Es gibt doch Samsung, die einen ganz ordentlichen Prozess am Laufen haben. Gibt auch Gerüchte, dass nVidia sehr bald bei Samsung fertigen lassen will.
- Registriert
- Aug. 2004
- Beiträge
- 11.699
mensch183
Captain
- Registriert
- Jan. 2008
- Beiträge
- 3.666
Nein, das dauert nicht "sehr lange". Es dauert nichtmal länger als bei einem Cache mit weniger Assoziativität. Du tust so, als würde da sequentiell oder ähnlich uneffektiv gesucht. Wird aber nicht. Alle in FRage kommen Einträge können (und werden) zeitgleich getestet. Für die im Vollasso-Fall große Zahl der gleichzeitig ablaufenden Tests brauch man natürlich mehr Hardware, aber nicht mehr Zeit. Mit "mehr Strom" liegst du richtig, mit "sehr lange dauern" ganz und gar nicht.C.J. schrieb:Es gibt zwei Extremfälle von Caches: Bei einem voll-assoziativem Cache können alle Daten (man legt immer 64Byte große Blöcke in den Cache) in jeder Cache-Zeile gespeichert werden. Vorteil: Der Cache wird immer voll ausgenutzt. Nachteil: Wenn man einen Block sucht, muss man im Zweifelsfall den gesamten Cache durchsuchen, was sehr lange dauert (und den Speedvorteil des Caches wieder auffressen kann) und viel Strom kostet.
Ähnliche Themen
- Antworten
- 47
- Aufrufe
- 7.579
- Antworten
- 163
- Aufrufe
- 28.598
- Antworten
- 401
- Aufrufe
- 92.414
- Antworten
- 139
- Aufrufe
- 42.713
- Antworten
- 196
- Aufrufe
- 48.388