News Alder Lake: Intel bestätigt weitere CPU-Konfigurationen und Details

Standeck schrieb:
Warum 1. Monat? Im Text steht 27. Oktober.

Announcement und Handelsstart mit Reviews. Das eine ist diesen Monat, das andere nächsten^^
 
WinnieW2 schrieb:
Die reine Rechenleistung von AVX-512 ist nur ein Faktor, ein anderer wichtiger Faktor ist die Energieeffizienz. Bringt AVX-512 mehr Rechenleistung pro Watt im Vergleich zu AVX-256, das ist ebenfalls von Bedeutung.
Bringt ja wenig wenn AVX-512 zwar pro Takt die doppelte Anzahl an Rechenergebnissen schafft aber dafür deutlich energiehungriger ist.
Weil die max. mögliche Abwärme die eine CPU verkaftet ist ja begrenzt.

Andererseits: Weshalb hat Intel AVX-512 in einige CPU-Modelle implementiert wenn es so ineffizent wäre?

Die andere Frage ist wieviel das bewirkt die Effizienzkerne zu deaktivieren, man erhält dadurch nicht mehr Performance-Kerne. Es vereinfacht nur das Thread-Scheduling.
Bei der Ausführung von AVX Instruktionen wird aber auch der Takt runtergesetzt, zumindest bei einigen CPUen.

Etwas verblüfft war ich, dass mein E5-1650v4 auf den gleichen Takt runtergesetzt wurde wie die Vorläufer CPU v3 und das obwohl Basis- und Turbo Takt bei der v4 CPU rund 200 oder 300 MHz höher liegen und diese auc rund 10°C kühler läuft. Und schwups läuft die v4 CPU unter Cubase auch nur auf 3.5 GHz wie die v3 Version. Ganz tolle Kiste ...
Ergänzung ()

Beitrag schrieb:
Wer ein Problem mit Win 11 hat, für den wird AMD sicher auch eine schöne Lösung parat haben. ;)

Manche AMD Mainboards scheinen Macken bei der USB implementierung im Chipset zu haben.
Außerdem weit und breit kein Thunderbolt in Sicht (nur boards mit chipsetlüfter oder von Gigabyte und ASRock, die nicht zu meinen bevorzugten Herstellern gehören).

Von AMD bin ich da noch nicht restlos überzeugt und warte, bis Intel wieder was zu bieten hat.
Und am liebsten auch wieder im Bereich um die 65-70°C.

Es ist nicht schön, wenn die Rechner bzw CPUen so heiß laufen, wie das heutzutage leider der Fall ist.
Das erhöht vermutlich den Verschleiß und macht es nur schwerer, einen Silent PC zu bauen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: WinnieW2 und Jake Grafton
crispychips schrieb:
Manche AMD Mainboards scheinen Macken bei der USB implementierung im Chipset zu haben.
Zumindest auf meinem Asus B550I hab ich vor kurzem ein Software Update installiert das es Fixen soll. Jetzt geht es.
Ergänzung ()

crispychips schrieb:
Außerdem weit und breit kein Thunderbolt in Sicht.
Thunderbold ist eine Marke von Intel, aber USB 4.0 sollte mit AM5 endlich mal kommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: x37
AlphaKaninchen schrieb:
Wie sieht es eigentlich mit Linux und Alder Lake aus?
Intel reicht fröhlich Patches ein, spätestens der Kernelversion die nach dem Hardwarelaunch veröffentlicht wird, sollte die grundlegende Kompatibilität liefern.
 
  • Gefällt mir
Reaktionen: ZeroStrat, konkretor und AlphaKaninchen
crispychips schrieb:
Es ist nicht schön, wenn die Rechner bzw CPUen so heiß laufen, wie das heutzutage leider der Fall ist.
Ich trauere immer noch meinem Haswell 4790k nach, der wurde beim Gaming nie wärmer als 55 Grad und war sehr sparsam.
 
  • Gefällt mir
Reaktionen: crispychips
Diese dürfte unter anderem in einem Core i5-12400F zum Einsatz kommen, dem vierten Prozessor der in ihrem Segment stets extrem gut aufgestellten Core-Modelle, die seit dem Core i5-9400F kaum Konkurrenz haben.

Die Äußerung bezieht sich offenbar explizit auf 9400f, 10400f, 11400f und den künftigen "i5 f".

Manche würden sagen, dass dem 9400f Hyperthreading fehlte. Sein starker Konkurrent war der 1600AF auf aufrüstbarer Plattform.
Man kann der Meinung sein, dass dem 10400f pcie-4.0 fehlte. Seiner Plattform der schnelle Ram bei Einsteigermainboards. Der 11400f kam aus der Ahnengalerie der Brechstangen. Dass er lange Zeit für 200€ und mehr zu haben war, ist hingegen den Marktgeschehnissen geschuldet.

Der 12400f könnte tatsächlich viele Häkchen auf einmal setzen. Zumindest dann, wenn man sich DDR5 leisten möchte. Aber selbst ohne diesen dürften solide Ergebnisse zu erwarten sein. Konkurrenz haben sie mMn alle gehabt.
 
  • Gefällt mir
Reaktionen: DannyA4
crispychips schrieb:
Und am liebsten auch wieder im Bereich um die 65-70°C.
Es ist nicht schön, wenn die Rechner bzw CPUen so heiß laufen, wie das heutzutage leider der Fall ist.
Das erhöht vermutlich den Verschleiß und macht es nur schwerer, einen Silent PC zu bauen.
Was das anbelangt: Bedenke, dass die ausgelesenen Werte nicht der Hotspot sind. Die werden irgendwo im Chip und/oder in Chipnähe gemessen, im Silizium selbst gibt es Stellen mit wesentlich höheren Temperaturen, weit über 100 °C sind möglich (bei 175 °C ist dann üblicherweise Schluss).
Der Hersteller weiß natürlich recht gut, wo die Hotspots liegen und welche Temperatur diese typischerweise haben, wenn der Sensor X Grad ausliest. Und das kann je nach Architektur ganz unterschiedlich sein.

Was bedeutet das also für dich? Wenn du die Hardware schonen willst, solltest du weniger auf den Temperaturwert an sich achten, sondern vielmehr auf den Abstand zur maximal zulässigen Temperatur.
 
Philste schrieb:
Reihe sogar Zen 2 und Zen 3 ohne jegliche Kennzeichnung verwenden (5500U + 5700U Zen 2, 5600U + 5800U Zen 3).
Na du schreibst doch grad selber wie die kennzeichnung funktioniert.
Ungerade=ZEN2, gerade=ZEN3.
Ergänzung ()

mkl1 schrieb:
sondern auch um die Flächeneffizienz
Was ist flächeneffizienz?!
Ich finde keine eindeutige Definition bezogen auf CPUs.
 
  • Gefällt mir
Reaktionen: x37
Akkulaus schrieb:
Win 10 ist ein altes OS? Mom. Sagte Microsoft damals nicht, dass Win 10 das letzte Betriebssystem sein wird? ;) Klingelt es bei dir?

Was juckt mich mein Geschwätz von gestern ;) Das ist halt typisch MS. MS hat schon viel gesagt wenn der Tag lang ist und hat am Ende nichts davon gemacht.

Akkulaus schrieb:
Warum dürfen wir das nicht erwarten? Vielleicht nach Patchen?

Warum man es nicht erwarten kann? Weil MS will, dass auf Windows 11 umgestiegen wird. Windows 10 ist für MS tot. Ja es wird noch supportet aber erwartet nicht, dass die neuste HW darauf out of the Box läuft. Sieht man ja jetzt schon auf Kartons von Produkten, dass "Windows 11 Ready" draufsteht.

Patchen wäre möglich, halte ich aber für nicht realistisch weil es dafür den Scheduler aus Windows 11 benötigt. Wie jeder wohl mitbekommen hat verursacht der aber aktuell sehr sehr großes Kopfweh bei MS weil er AMD CPUs deutlich bremst. Sollte das kommen wird das eher in rund 6 oder mehr Monaten kommen, wenn überhaupt. Wie gesagt MS will die Win 11 adoption erhöhen.

Akkulaus schrieb:
Noch mehr befördern von Ressourcen Verschwendung in dem man immer neue HW kaufen musst und alte Fliegt weg, obwohl die noch für einige Jahre reichen würde.

Oder man bleibst einfach auf seiner HW und Windows 10 bis 2025 :) Mein 1950X hat auch kein Win 11 Support und mich stört es 0,0. Wenn man sich "jetzt" Adler Lake kauft warum dann auf Win 10 setzen? Win 11 ist genau das gleiche nur neuer.

Akkulaus schrieb:
Achso? Hm. Also Bankautomaten waren auch noch zu der Zeit mit dem Internet Verbunden ;) Obwohl schon lange der Support eingestellt wurde. Hoffe du hast in der Zeit keine Bank benutzt.

Das war nicht Win XP sondern "XP Embedded" welches bis 2016 Support erhielt... Nicht alles nachlabern was man so am lesen ist ;)
 
  • Gefällt mir
Reaktionen: Stefan1200, Pjack und Forum-Fraggle
wern001 schrieb:
die Leistung von AVX-512 ist schon krass. Das Problem ist einfach das man die Anzahl der Software die das nutzt, außer Benchmark, an der Hand abzählen kann.
Fritzler schrieb:
Und?
Wenn die Erweiterung verbreitet ist werden die Optimierungen zunehmen.
Das hat mit der Verbreitung wenig zu tun. Das ist in der Regel Aufgabe des Compilers und aktuelle Compiler unterstützen schon AVX-512. Das richtige Compiler Flag zu aktivieren sollte jetzt nicht die große Herausforderung sein, dass hier so eine große Verbreitung vorausgesetzt werden muss.

Das Problem an AVX-512 ist, dass dieses nur für Aufgaben nutzbar ist, wo für 512 Bit an Daten (entspricht 8x64 Bit bzw. 16x32 Bit) diese Operation durchgeführt wird. Dies ist nur bei sehr speziellen mathematischen Problemen wie z.B. Vektor oder Matrixmultiplikationen der Fall.
Der Großteil der Algorithmen hat dadurch keinen Vorteil besonders Algorithmen, die vorwiegend zählen und nicht rechnen.

Der Entscheidende Punkt ist jedoch:
Aufgaben, die von AVX-512 profitieren sind paralleler Natur d.h. diese können in der Regel auch jederzeit durch mehrere Threads parallelisiert werden.

Intel hat es geschafft die MT Leistung eines Big Cores (2 Threads durch SMT) mit 2 Little Cores (je 1 Thread ohen SMT) auf der halben Fläche zu erreichen.

Man erreicht somit dieselbe Beschleunigung wie bei AVX-512, jedoch nicht nur bei AVX-512 Befehlen, sondern bei allen Aufgaben, die sich in mehrere Threads zerlegen lassen.

0x8100 schrieb:
entweder ist bei linux der scheduler schon hinreichend auf so ein design vorbereitet (z.b. durch den arm-support) oder der thread director ist so gut, dass er es auch ohne os-support schafft oder eine kombination aus beidem.
Der Thread Director greift nicht aktiv in das Scheduling ein. Dieser stellt dem OS lediglich mehre Informationen zur Verfügung anhand dessen dieses eine bessere Schedulingentscheidung treffen kann. Unterstützt das OS den Thread Director nicht explizit, so ist dieser nutzlos.

Der Thread Director ist jedoch nur eine zusätzliche optionale Optimierung, ist aber aus meiner Sicht nicht zwingend notwendig, dass Alder Lake vernünftig läuft.
Notwendig ist jedoch, dass zwischen Big und Little Cores unterschieden wird.

Bisher lief das Scheduling so ab:
.) Zuerst bekommt jeder phyische Kern einen Thread
.) Danach bekommt jeder physische Kern einen 2. Thread (SMT)

Jetzt muss es so ablaufen:
.) Jeder Big Core bekommt einen Thread
.) Danach bekommt jeder Little Core einen Thread
.) Dannn bekommt jeder Big Core einen 2. Thread (SMT)

Gibt es diese Anpassungen nicht, so bedeutet dies, dass eine Single Threaded Applikation auf einem zufälligen Kern laufen wird, was auch ein Little Core sein kann, was die Performance im Worst case auf ca. 2/3 reduzieren wird.

Diese Anpassungen sind denke ich keine große Sache vorausgesetzt das OS kann schon mit SMT umgehen. Im Prinzip ist es ja bloß 1 Stufe mehr. Das könnte bei Linux schon längst passiert sein.
Bei Windows 10 wurden die Anpassungen derzeit noch nicht gemacht und es ist fraglich, ob dies nachgereicht wird. Intel hat in ihrem Guide Anmerkungen gemacht, dass einige Features möglicherweise auf Win10 rückportiert werden, ich würde allerdings nicht damit rechnen schon gar nicht jetzt zu Release.
Also ja man wird mit Windows 10 spielen können, jedoch nicht so effizient wie mit Windows 11, vermutlich jedoch ausreichend für die nächsten 2-3 Jahre.

Linmoum schrieb:
Nein, ADL läuft genauso mit Win10. Wäre ja komplett bescheuert wenn nicht.

Die spannendste Frage ist und bleibt nur, wie sehr sich die Performance zwischen Win10 und Win11 unterscheiden wird. Man kann bei diesem unfertigen Mist, den Microsoft hier auf den Markt geworfen hat, nur hoffen, dass ADL mit Win10 nicht deutlich schlechter läuft. Ansonsten wird das noch übler für Intel.
Bis ADL wirklich im Markt angekommen ist (frühestens Q2 2022) werden die gröbsten Bugs von Windows 11 schon behoben sein.

Wobei generelle Frage:
Was waren denn die Probleme von Win11 weswegen du es als unfertigen Mist bezeichnest?
.) Das Desaster mit der Kompatibilität trifft ja auf neue Rechner nicht zu
.) Dass das Upgradetool herumspinnt ist auch kein Thema wenn es um neue Geräte geht so Win11 vorinstalliert ist
.) Die Probleme mit dem L3 von Ryzen betreffen ja Intel CPUs nicht
.) Software, die nicht Win11 kompatibel ist: Trifft ja hauptsächlich Software, die generell nicht mit einem 64 Bit OS kompatibel ist. Aber wenn sich das nicht lösen lässt, dann wird generell kein neuer Rechner angeschafft weil wer holt sich einen neuen Rechner und steckt dann nur 3GB RAM rein?
.) Cloud Account Pflicht bei Home Versionen: Stört den typischen Home User nicht, wer ein vernünftiges Gerät will holt sich sowieso ein Businessmodell mit Win11 Pro.

Der einzige Markt, den man nun nicht mehr mit dem vollen Lineup bedienen kann ist der für die LTSC Versionen, denn die nächste LTSC Version 2022 wird noch Win10 basierend sein und die erste Win11 Version kommt erst 2025. Bis diese dann entsprechend validiert ist wird es mindestens 2026 sein. Das hört sich jetzt dramatisch an aber für die Desktop LTSC Systeme gibt es ja sowieso die 4+0 bzw. 6+0 Konfigurationen, die ja problemlos laufen. Für die Industrietablets muss man sich halt was einfallen lassen aber angeblich gibt es ja auch 0+2, 0+4 und 0+8 Konfigurationen nur mit Gracemont Kernen.

WinnieW2 schrieb:
Ansonsten sehe ich höchstens Probleme bei Unternehmen welche zwar neue PCs (mit ADL-CPUs) erworben haben, aber aus Softwaregründen kein Windows 11 nutzen können, weil ältere unbedingt benötigte Unternehmenssoftware (noch) nicht (fehlerfrei / stabil) unter Windows 11 läuft.
Also mir sind bisher keine größeren Kompatibilitätsprobleme bekannt. Da hat es in der Vergangenheit viel größere Probleme gegeben z.B. Anwendungen, die nicht ohne Adminrechte laufen, Anwendungen mit Treibern, die ab Vista aufwärts nicht mehr laufen, das berühmte "Any CPU" Häkchen in .NET Anwendungen, irgendwelche wilden verdongelungen mit veralteten Office Versionen die Meltdown Fixes, Webanwendungen die auf alte IE Versionen angepasst wurden bzw. ActiveX/Java voraussetzen usw.

Da habe ich vor den überraschenden halbjährlichen Features Updates ehrlich gesagt mehr Angst als Win11 auf einem neuen PC, wo man das Ganze zumindest vernünftig planen bzw. Workarounds finden kann.
 
  • Gefällt mir
Reaktionen: WinnieW2, xexex, Fritzler und eine weitere Person
Hektor26 schrieb:
Ich trauere immer noch meinem Haswell 4790k nach, der wurde beim Gaming nie wärmer als 55 Grad und war sehr sparsam.
Der Haswell hieß nicht umsonst "Heizwell..." der war doch nicht kalt xD
 
  • Gefällt mir
Reaktionen: medsommer, darthbermel, x37 und 2 andere
Beitrag schrieb:
Was das anbelangt: Bedenke, dass die ausgelesenen Werte nicht der Hotspot sind. Die werden irgendwo im Chip und/oder in Chipnähe gemessen, im Silizium selbst gibt es Stellen mit wesentlich höheren Temperaturen, weit über 100 °C sind möglich (bei 175 °C ist dann üblicherweise Schluss).
Der Hersteller weiß natürlich recht gut, wo die Hotspots liegen und welche Temperatur diese typischerweise haben, wenn der Sensor X Grad ausliest. Und das kann je nach Architektur ganz unterschiedlich sein.

Was bedeutet das also für dich? Wenn du die Hardware schonen willst, solltest du weniger auf den Temperaturwert an sich achten, sondern vielmehr auf den Abstand zur maximal zulässigen Temperatur.

Das hast Du mißverstanden. Ich habe keine Angst vor hohen Temperaturen, sofern sie sich im Rahmen der Specs bewegen. Ich spreche hier von anderen Dingen.

Ich habe etwas dageben, wenn die Hersteller bei Ihrem Kopf an Kopf Rennen nur noch am Takt schrauben und die CPUen unter Last sehr heißt werden.

Diese Hitze muss letzten Endes aus dem Gehäuse abgeleitet werden und das ist nicht gerade förderlich für Silent Builds. Ich habe das lange genug gehabt, einen Rechner den man hört .. sowas möchte ich nicht mehr.
Ergänzung ()

catch 22 schrieb:
"Weit und breit" ist eine unschöne Formulierung... sie schließt etwas kategorisch aus... und sowas sollte man vermeiden, wenn man sich nicht exakt informiert hat
aktuelle AM4 Boards mit Thunderbolt 3
aktuelle AM4 Boards mit Thunderbolt 4

Ja stimmt, die habe ich vergessen, aber die bringen mich auch nicht weiter. Warum ?
Ziehe mal die Boards mit aktivem Chipset Lüfter und die Hersteller ASRock und Gigabyte ab.
Was bleibt dann noch übrig ?
 
catch 22 schrieb:
Weit und breit" ist eine unschöne Formulierung... sie schließt etwas kategorisch aus... und sowas sollte man vermeiden, wenn man sich nicht exakt informiert hat
aktuelle AM4 Boards mit Thunderbolt 3
aktuelle AM4 Boards mit Thunderbolt 4
Das funktioniert bei den Boards folgendermaßen: Man nimmt das beiliegende Displayportkabel, schließt es an seine Grafikkarte an, das andere Ende kommt in den Displayport IN am Mainboard. Dann kann man über den USB-C vom Mainboard ein Videosignal abgreifen. Das nennen sie dann bei den Boards Thunderbolt, echt super. (Weiß nicht ob es wirklich überall so ist, aber beim Asus Creator auf jeden Fall)
 
Tulol schrieb:
Was ist flächeneffizienz?!
Ich finde keine eindeutige Definition bezogen auf CPUs.
Leistung/mm² bezogen auf die Größe des jeweiligen Kerns.

Die Idee dahinter:
Statt 2 Big Cores kann man 8 Little Cores verbauen, die unter MT Last die Performance von 4 Big Cores haben (die mit SMT auch 8 Thread ausführen)

Die bessere Energieeffizienz ergibt sich bei im Desktop üblichen Taktraten nur indirekt dadurch, dass man mehr Kerne zur Verfügung hat und diese bei derselben Performance dann niedriger takten kann.

Cool Master schrieb:
Das war nicht Win XP sondern "XP Embedded" welches bis 2016 Support erhielt... Nicht alles nachlabern was man so am lesen ist ;)
Das mit dem Support für Embedded Systeme ist sehr theoretischer Natur. Ich habe noch kein Win XP oder 7 Embedded in der freien Wildbahn gesehen, bei denen überhaupt Updates aktiviert waren.

Ich weiß nicht wie das bei Bankomaten aussieht aber im Industriebereich haben die ganzen Embedded Systeme alle einen Write Filter drauf. Da kann außer in bestimmten Ordnern gar nichts permanent geändert werden und alle Schreiboperationen landen im RAM und sich beim nächsten Restart wieder weg. Das ist erstens als Schutz der CF Karten vor Schreibzugriffen üblich und zweitens damit man die Anlagen ohne Herunterfahren bzw. USV einfach mit dem Hauptschalter ausschalten kann.

Was Bankomaten angeht:
Die hängen doch nicht am Internet. Die sind per VPN (oder ähnlichen Technologien) mit dem zentralen Server verbunden und sonst schon gar nichts. Wenn diese infiziert werden, dann höchstens über den Server und dann hat die Bank sowieso größere Probleme.
 
  • Gefällt mir
Reaktionen: Cool Master
DevPandi schrieb:
Wenn ich es jetzt richtig im Kopf habe - will gerade nicht suchen - verbrauchen 4 E-Kerne soviel Platz vie wohl ein P-Kern oder waren es 2? Egal. Dank der Verbesserungen bei den Atom-Kernen kommt man dabei auch auf die IPC von SkyLake bei einem doch teilweise simpleren und einfacheren Design.
Genau das ist das was viele immer vergessen in ihren Vergleichen. Wenn, dann muss man einen 10-Kerner mit einem 8+8 Kerner vergleichen da die Chipfläche gleich groß ist und nicht 8+2 oder 6+4 etc. Mit 4 Atom Cores und Skylake IPC lässt sich sogar im Desktopbetrieb einiges anfangen. Es wird Zeit, dass Officerechner auch nur noch 1-5W verbrauchen im 'Normalbetrieb'. Diese Ersparnis x der 20 Mio. verkauften Geräte über die nächsten paar Jahre wird schon einiges ausmachen können.

Das gleiche gilt für die HEDT Hobbyfraktion: Man überlege was ein 16-Kerner an Fläche benötigt und wie viele HPC wirklich benötigt werden (Spoiler: es sind gar nicht so viele..). Meist spielen solche Rechner ihre Stärken erst aus sobald der Render/Export anläuft. Man nehme nun 8 HPC und 8x4=32 Atom/i5-Skylake-Kerne und kuckt im direkten Vergleich wer über die Software schneller exportiert. Ich würde auf den 40 Kerner tippen der vermutlich sogar noch unter mit 65 W betrieben werden kann + guter Leistung.
 
Philste schrieb:
Das funktioniert bei den Boards folgendermaßen: Man nimmt das beiliegende Displayportkabel, schließt es an seine Grafikkarte an, das andere Ende kommt in den Displayport IN am Mainboard. Dann kann man über den USB-C vom Mainboard ein Videosignal abgreifen. Das nennen sie dann bei den Boards Thunderbolt, echt super. (Weiß nicht ob es wirklich überall so ist, aber beim Asus Creator auf jeden Fall)
Und wie soll es sonst funktionieren?
Ein Thunderbold 4 Anschluss muss nunmal 4 PCIe 3.0 Lanes, USB 3.1 Gen 2 und DisplayPort bieten, wo soll das Board DisplayPort hernehmen wenn nicht von der Grafikkarte?
 
Zurück
Oben