News Intel Alder Lake-S: Samples der 16-Kern-Desktop-Modelle im Umlauf

maxpayne80 schrieb:
mich würde tatsächlich einmal interessieren, wie sich das äußert, und warum man sich selber als einen solchen bezeichnet.
Also man ohne Polemik ... denn sogar wenn ich AMD-Aktien besitzen würde, ich würde mich niemals als "Fan" bezeichnen, von welcher Firma auch immer.
Ist vermutlich sehr subjektiv das Thema. Ich bin bspw. ein wirklich ernst gemeinter Fan von bspw Seasonic und Noctua. Beide Unternehmen bieten mir in Jahr(zehnt)elanger PC-Bauleidenschaft schon immer ausgezeichnete Qualität zu fairen Preisen und insb. der Service von Noctua ist einfach unglaublich gut und extrem Kundenorientiert. Die stehen zu ihren Produkten und deren Qualität/Langlebigkeit. Den NH-D14 hier hab ich schon auf drei Sockeln laufen gehabt, bei jedem Wechsel wurde ein neues Mount-Kit erforderlich das mir Noctua sogar in die Schweiz völlig Kostenlos zugesandt hat auf Vorlage eines Kaufbelegs für ein entsprechendes Mainboard. Dass ein Kühlturm jetzt keiner großartigen Alterung unterliegt finde ich noch recht nachvollziehbar, da nicht mechanisch. Aber auch die Lüfter verrichten seit locker bald 10 Jahren unverdrossen ihren flüsterleisen und effektiven dienst. Wohlgemerkt inzwischen in einem System das seit 2 Jahren bis auf Reboots 24/7 läuft.

Das sind für mich Gründe warum ich mich zu einigen wenigen Unternehmen offen als "FAN" oute.
 
Irgendwie dauert mir das alles viel zu lange. Ich will core-technisch endlich zweistellig werden.
Im "bezahlbaren Consumerbereich" natürlich, um das klarzustellen. Da wird die Reise sowieso hingehen.
Machen wir uns nichts vor. Aber nach diesen Prognosen wird das wohl noch (mindestens) 3 - 4 Jahre
dauern, wenn man den Prognosen Glauben schenken darf. Keine guten Aussichten. Richtige Sprünge in
der Rechenpower haben wir dann wohl erst wieder Mitte des Jahrzehnts erreicht. Sehr schade....
 
Alder Lake... Alder Schwede...

Was will das Paper nur andeuten, wo Gamer zu lesen ist und die Hälfte vom Chip mit Graphics bezeichnet ist? Ersetzt die neuerdings etwa eine 3090?

Oder wer oder was soll sonst dieser ominöse Gamer sein?
 
Diablo87 schrieb:
dazu zähle ich auch 6 Kerner mit 12
Darf man sich in deinen Augen etwas Geschwindigkeit nur mit dicker Geldbörse leisten dürfen? Oder wie ist deine Aussage zu verstehen?
 
Nur tangentiel zum eigentlichen Thema, aber ich wundere mich doch, wie so viele hier AMD, Intel, oder NVIDIA, oder Apple schon fast kultartig anhängen. Jetzt habe ich Produkte aller dieser Firmen (und das sind sie nun Mal alle, keine Glaubensrichtungen) besessen und benützt, und war mehr oder minder zufrieden und hier und da sogar etwas begeistert (mein erster Zweicore Athlon x64, und mein erster Intel Core m). Ansonsten ist's immer "wer verkauft mir was ich brauche oder will fürs wenigste Geld" und das war's.
Und, zum Abschluss eine Frage: welche Produkte der genannten Firmen sind denn (noch) "Made in Germany"? Wenn ich's richtig sehe, kein einziges. Schade eigentlich.
 
Apples toller M1 und quasi alle Smartphone SOCs machen dasselbe, Little Big...

So sehr auf dem Holzweg kann Intel also kaum sein. Da die kleinen Kerne bei etwa 25% Flächenbedarf noch gut 70% Leistung haben dürften kann die Sache durchaus aufgehen. Gerade bei langen Multi Thread Lasten sind viele kleine Kerne nahe am Sweet Spot getaktet deutlich effizienter. Schön wäre es wenn Intel ggf das ganze sogar mit Mesh kombiniert, zumindest langfristig wenn wir von 100 kleinen Kernen reden. Vielleicht nicht pro Kern aber ähnlich wie AMD als CCX zusammengefasst.

8+8 ist aber ziemlich mau. 8+64 wäre eher was für mich gewesen.
 
  • Gefällt mir
Reaktionen: tidus1979
hnSzXIDIiA schrieb:
Richtige Sprünge in
der Rechenpower haben wir dann wohl erst wieder Mitte des Jahrzehnts erreicht.

Bis 2025 wird es "knallen". Danach wird es schwer und ich sagte ja schon voriges Jahr, dann geht der "Krieg" am Hardwaremarkt los, da nach 2025 die Schritte kleiner und sehr teuer werden.

Am Graka Markt (als Beispiel) haben wir dann aber die 100TFlop locker gerissen und ob der geneigte User zu Hause solche Monster auch wirklich noch braucht, muss man abwarten.

mMn muss irgend wann sowieso alles in die cloud wandern, da es absolut sinnlos ist, jedem ein solches Teil unter den Schreibtisch zu stellen, welches stundenlang rumlungert.

Diesen Fehler haben wir vor Jahrzehnten schon bei Autos (als Beispiel) gemacht.

Damals hatten wir aber noch keinen Klimawandel und Milliarden von Menschen, die sich solche Maschinen leisten können und wollen.

mfg
 
Ich möchte mal ganz dezent darauf hinweisen, dass AMD's Bulldozer noch eher ein waschechter 8 Kerner ist als jedes verfügbare Smartphone-SOC, und Intel's "Smartphoneprozessor" ist da auch keinen deut besser.
Also wenn man anfängt über diese komische Zusammenkleberei von unterschiedlichen Prozessoren zu reden oder gar in einer offiziellen News zu berichten, dann bitte in dem einzig korrekten x + y Namensschema.
Denkt dran, AMD wurde in Amerika deswegen zu einer hohen Geldsumme verklagt, was natürlich ein völliger Witz war.
Also nochmal für die Mathematiker unter uns: wenn in einem Systemverbund von 4+4 jeweils bei Niedriglast 4 Stromsparprozessoren aktiv sind, unter Vollast dann die anderen 4 leistungsstarken Prozessoren, na dann handelt es sich genau genommen maximal immer nur um einen 4 Kerner.
Von etwas anderem zu reden und falsche Werte vorzugaukeln wäre im schlimmsten Fall schlichtweg Betrugsversuch und ein Fall für den Anwalt.
Im Falle von Newsseiten würde ich die Betreiber der Seite nicht mehr für ernst nehmen wollen, wenn die solche einfachen technischen Dinge nicht auf die Reihe bekommen, oder aber deren Qualitätsmanagement hat ein großes Sicherheitsloch zu stopfen.

An die Intel-Fanboys (und andere, die so ein komisches Blitzen in den Augen bekommen) sei zudem noch gerichtet, dass bei einem 4+4 oder 8+8 System zwar etwas für den Stromsparbetrieb dabei herausspringt, aber bei allem, wo Leistung vorrang hat, und das ist ja bei Desktopsystem eher der Fall, dort nehmen diese 8 Billigkerne nur unnötig viel Platz weg, die man lieber hätte in vollwertige Kerne investieren sollen, um auch Anwendungen Dampf machen zu können.
Will ich also eine reine Gamerkiste, kaufe ich mir einen günstigen 8 Kerner, will ich auch für Anwendungen richtig Power, nehme ich einen reinen 16 Kerner. Wozu brauche ich dann also einen 8+8 Kerner?
Will ich denn unbedingt etwas Strom sparen, nehme ich wie in meinem Fall einen 3700X mit 65 Watt, auf die 10 Watt im Idle (was man eigentlich vermeiden sollte, wenn man so ein Ding anstellt) kann man getrost verzichten, dafür bezahle ich nicht auch noch extra 8 weitere Kerne. Und schielt man jetzt einmal auf die Grafikkarten, die sich die allermeisten Nutzer aus den diversen Hardwareforen auch noch reinstecken, ist die ganze Diskussion für viele schon völlig gegessen.
Selbst eine 3070 mit schon 220W und eine 3090 mit OC Bios höllische 500W? Ja, macht absolut Sinn. <augenroll>
Ich möchte dieses X+Y System aber nicht kaputtreden, es macht im Mobilbereich natürlich absoluten Sinn.
Dort hat man die letzten 10 Jahre absolut verschlafen und hätte längst mit der großen Verbreitung von Smartphone-SOCS nach diesem Schema ebenfalls etwas aus der Schublade zaubern müssen.
 
  • Gefällt mir
Reaktionen: Rockstar85
BxBender schrieb:
Von etwas anderem zu reden und falsche Werte vorzugaukeln wäre im schlimmsten Fall schlichtweg Betrugsversuch und ein Fall für den Anwalt.

Typen wie du, machen Anwälte reich und bringen Richter zur Weißglut.

SMT als Kerne zu verkaufen, ist ein Betrugsfall.

Das Big.Little Konzept als 24 Kern zu verkaufen, ist ein Betrugsfall. Die kleinen Kerne als Kerne zu verkaufen, ist absolut korrekt.

mfg

@hnSzXIDIiA

Ich habe da gute Hoffnung. Wird schon werden. Strom gab es auch nicht sofort für alle. Daher hat sich die Dampfmaschine so lange gehalten und in bestimmten Regionen hat man mit furchtbarer Effizienz noch bis in die 70er Jahre seinen Strom selber erzeugt.

Im Busch im irgendwo, wird heute noch Strom aus Sprit erzeugt. :stock:
 
Zuletzt bearbeitet:
[wege]mini schrieb:
Am Graka Markt (als Beispiel) haben wir dann aber die 100TFlop locker gerissen und ob der geneigte User zu Hause solche Monster auch wirklich noch braucht, muss man abwarten.

mMn muss irgend wann sowieso alles in die cloud wandern, da es absolut sinnlos ist, jedem ein solches Teil unter den Schreibtisch zu stellen, welches stundenlang rumlungert.

Bei Grafikprozessoren vielleicht. Das sind aber auch alles hochspezialisierte Chips die nur eine Sache gut können. Bei normalen Anwendungen sind wir da aber noch meilenweit weg. Und für Clouds braucht man
gute Netzanbindungen, die leider auch nicht überall vorhanden sind. Mal sehen ob da 5G was bringen wird.
 
  • Gefällt mir
Reaktionen: [wege]mini
gnadenix schrieb:
Hihi... naja wie war das damals noch mit diesen "4 glued-together desktop die"-Witzen als die Epic CPUs rauskamen? Oder waren das noch die Bulldozer?

Naja war wohl doch nicht so witzig ;)
Wie war das noch als AMD seine native quad Cores gefeiert hat und in Marketingfolien die Intel Core 2 Quad dual Die schlecht gemacht hat?

@BxBender
Du schreibst so viel Unsinn, anstatt dich erstmal zu informieren. Unter Volllast laufen alle Kerne, klein und groß, und somit sind deine ganzen Aussagen kompletter Blödsinn.
 
  • Gefällt mir
Reaktionen: BernmanHH, v_ossi und tidus1979
[wege]mini schrieb:
Das Big.Little Konzept als 24 Kern zu verkaufen, ist ein Betrugsfall. Die kleinen Kerne als Kerne zu verkaufen, ist absolut korrekt.
Ein kleiner Kern bleibt trotzdem ein kern oder?
Wer sagt das alle Kerne mit 5GHz+ arbeiten müssen oder steht das irgendwo in einem Gesetz das das so sein muss?
 
  • Gefällt mir
Reaktionen: [wege]mini und andi_sco
kingphiltheill schrieb:
"Denn bei Alder Lake steht viel mehr auf dem Spiel."
Nach dem was Apple mit dem M1 gezeigt hat, steht die Existenzberechtigung von x86 auf dem Spiel.

Komisch, der M1 lässt mich völlig kalt. Ich lasse mir meinen x86er nicht wegnehmen.
Stelle mir ein System hin, was schneller und kostengünstiger ist, wo alles drauf läuft, was ich zu nutzen pflege, ohne irgendwelche Zugeständnisse, Arbeitsaufwand, was auch immer, dann kann man mal darüber reden.
Ich bin froh, wenn ich meine 20 und 30 Jahre alte Software einfach so aus der Schublade ziehen kann und das läuft noch unter Win 10. So muss es sein.
Man darf niemals vergessen: x86 ist ein 10-Kämpfer. Nirgends perfekt, aber immer ordentliche Leistung. Bei einem ARM Prozessor wird speziell auf eine Sache hin gearbeitet, was dieser Prozessor besonders gut können soll. Dafür sind aber immer Schaltkreise notwendig, die auch Platz wegnehmen, ergo unterliegt auch ARM einer Begrenzung seiner Möglichkeiten.
Es gibt so viele Maschinen und Anwendungsfälle, würde man alles durch ARM ersetzen wollen, müsste etliche Prozessoren dafür extra entwickelt werden, was natürlich wieder zu einer schönen Zerstreuung führen würde.
Auch die Softwareentwickler stünden vor der Wahl, sich auf bestimmte Systeme einzuprogrammieren.
Das alles wäre also absolut kontraproduktiv.
Ihr seht den Zerfall doch bei den Streamingdiensten.
Einst durch Netflix und Amazon Prime ausgefochten, haben wir nun schon knapp 10 verschiedenen Dienste, jeder ist in seinem eigenen Segment Stark und bietet eigene Filme und Serien.
Preislich mögen diese auch einzeln günstiger sein, aber man hat halt nicht mehr alles.
Will man alles, zahlt man doppelt, obwohl beide Bezahldienste ja quasi fast das gleiche Grundangebot haben.
Und man ärgert sich darüber, das man doch lieber alles von einem Anbieter hätte, mit einer klaren Struktur.
So wie man am TV auch liebe rnur eine Fernbedienung hätte, nicht noch AV reciever, Bluray Player, Media Station, pi pa po.
Und ich sage euch , ihr werdet euch tierisch ärgern, wenn das bei Personalcomputern wieder so kommen sollte, wie es damals vor 40 Jahren der Fall war.
Jeder Anbieter hatte seine eigene Hardwareschiene und dazu ein eigenes Betriebssystem, kaum war etwas miteinander kompatibel.
Man kann schimpfen was man will, wir sollten Bill Gates dafür danken, dass er MSDOS und Windows geschaffen hat, vorher war das wirklich der letzte Schexx.
Und das gleiche gilt für die Erfindung des x86.
Ich bin absolut dankbar dafür, es hat uns das Leben vielfach vereinfacht.
Ohne gemeinsamen Leitfaden für alle Entwickler gibt es ein heilloses drunter und drüber.
Ich möchte mir nicht vorstellen, wie schlimm das auch für Firmen wäre, wenn die nicht mehr einfach so ihre Software gegen etwas anderes austauschen könnte so wie jetzt, sondern dann evtl. ein kompletter Tausch gegen was Neues notwendig wäre, weil das eine zwar beschleunigt wird, das andere aber nicht, udn dieses zwar darauf läuft, das dafür aber nicht. Hölle.
 
  • Gefällt mir
Reaktionen: BlaueElbe und WiP3R
Ohne mich jetzt damit tiefer beschäftigt zu haben, mal ein paar Verständnisfragen:

* Wird Intel in der übernächsten Generation dann auch endlich mehr als 8 Kerne bieten, oder ist das 8+8 Design schon das höchste der Gefühle? Was ist mit 12/16 schnellen Kernen?

* Wird das 8+8 Design auch in den Desktop kommen, wo ich gar keine Energiesparfunktionen brauche oder wird das dann einfach weggekürzt auf ein 8 + 0 Design? Ist das ganze so flexibel?

* Wie aufwändig wird eine solche "Optimierung" auf ein Big-Little-Archtektur. Zum Beispiel browsen? Wie wird das konkret aussehen? Kann das die Software dann entscheiden oder der Windows Kernel, ob die Hauptkerne runtergefahren werden, während ich nur eine Seite betrachte?

Es bleibt spannend! Dankeschön.
 
BxBender schrieb:
Also nochmal für die Mathematiker unter uns: wenn in einem Systemverbund von 4+4 jeweils bei Niedriglast 4 Stromsparprozessoren aktiv sind, unter Vollast dann die anderen 4 leistungsstarken Prozessoren, na dann handelt es sich genau genommen maximal immer nur um einen 4 Kerner.

Du meinst, es werden bei Volllast nur 8 Kerne aktiv rechnen können bei ADL-S? Wie kommst du denn darauf? Die Behauptung musst du erstmal belegen damit deine Rechnung Sinn ergibt.
 
Ich tue mich ebenfalls schwer mit den Anwendungsfällen in den mir so ein Design Vorteile bietet.

Bin ich auf dem Desktop, mache Büro oder surfe im Netz legen sich einige Kerne eh schlafen und ziehen kaum Strom.
Bin ich aber am zocken oder gar mit Fotobearbeitung bzw. Videorendern beschäftigt, laufen alle Kerne mehr oder weniger mit voller Pulle.
Wo bringt mir das Big.Littel Gedöns jetzt Vorteile und vor allem, wie viel Strom spare ich dadurch?
Wenn ich so ein 8+8 Design drin hätte, mit was für einer Vollast Leistung könnte man rechen (bei z.B. Videorendern)?
Etwa auf Höhe heutiger 10 oder 12 Kerner?
 
BxBender schrieb:
-Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.
Wenn dir deine so wichtige Software 20 Jahre alt ist, läuft sie also unter 32 Bit. Damit lässt sich das ganz problemlos auf Windows on ARM emulieren, die Hardwareanforderungen dürften nicht ausufernd sein. Ein 64bit-Emulator ist in Arbeit und als Beta verfügbar. Wo ist also das Problem?

Bezüglich "Ich lasse mir meinen x86er nicht wegnehmen": Sowas ähnliches dürften die Hufschmiede auch gesagt haben als die ersten Autos aufkamen.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
Precide schrieb:
Das was Qualcomm bisher rausgebracht hat, ist auch maximal ein Feldversuch gewesen. Richtig spannend wird es, wenn Intel, AMD oder Microsoft damit beginnen, gezielt ARM-CPUs mit eigenen Kernen entwickeln, ausschließlich für den Zweck der x86-Ablöse. Irgend eine Basis auf Smartphone-SoCs sehe ich da nicht zielführend.
Es muss nicht zwangsweise ARM sein. X86 lässt sich genauso ARM Code laufen, so wie umgekehrt.
Desweiteren gab es von AMD ein Projekt Skybridge, welches ARM und x84 verheiraten wollte und ich wette, sowas werden wir noch sehen, aber anders als gedacht.
https://www.computerbase.de/news/prozessoren/big-little-cpu-patent-amd.73108/

Da möchte ich aber auf das Verweisen und auf RDNA2 hinweisen und auf Infinty Cache ect.
1609264247966.png

Denn mein Tipp ist, dass AMD das Big-Little Konzept direkt im CCX oder gar im Core integrieren wird, also sogar tiefer als Intel aktuell. Man könnte es auch mit RDNA2 Vergleichen (Dual-Compute Units) oder NVs Ansatz mit FP64 plus Int64 oder FP128
Ein SM von Ampere dagegen entweder 128 FP32- oder 64 FP32- und 64 INT32-Berechnungen
https://www.computerbase.de/artikel...hnitt_woher_kommen_shader_und_leistungssprung

Es gab auch mal von einem Youtuber (müsste jetzt schauen wie der heißt) der meinte, das dieses "Feature" Klassen auch in die GPU wandern könne. CUs in unterschiedlichen Größen und je nach "Komplexität" werden diese dann zu geteilt. Somit BigLITTLE muss nicht so "getrennt" umgesetzt werden, wie es bei ARM der Fall ist. ARM hat seinen Werdegang vom Smartphone aus gemacht und es waren kleine Chips. Da war es auch effizienter und genug Platz vorhanden, einfach zwei Cores aufzulegen. Kleine und Große Cores, als von Anfang an Stromspar-Mechnismen und Co einzubauen.

Im Endeffekt ist das HSA. Workload soll dort passieren, wo sie am Effizientesten gelöst werden. Smartphone setzen ja deshalb nicht nur Little, Big Core und GPU ein, sondern auch NPU und andere Chips.

Denkbar wäre auch, dass ein Little Core in Zukunft sehr straightforward, simple OP-Codes auf gebaut ist und alles komplexe kommt dann in den High_feature Part. So wäre plötzlich x86 wieder sehr fit gegen ARM gut gerüstet. Sowas passiert aber aufgrund des Alters nicht von heut auf morgen.

Also was macht man, wenn etwas zu "Komplex" geworden ist. Man zieht ein Teil heraus und entwirft zwei Teilbereiche die für sich gesehen, weniger komplex sind.

BxBender schrieb:
Also wenn das nichts mit dem hinlänglich bekannten Big.Little System zu tun hat und jede Software grundlegend alle Kerne gleichzeitig benutzt, schwächt das jedoch nur die Leistungsunterschiede bei Vollast ab, die Aussagen behalten trotzdem ihre allgemeine Gültigkeit.
Das Problem war ja die Verpackung. Der 0815 Kunde kennt den Intel Core und hat bei Bulldozer quasi das "gleiche" erwartet. Würde Intel jetzt einen 8 Core mit Big und 8 Core Little direkt als Konkurrenten zum Zen mit 16 "Big" Cores stellen, könnte in Amerika hier auch jemand versuchen, das Anzufechten. Dort kommt ja schnell mal was vor Gericht. Man braucht nur einen Richter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und v_ossi
Thares schrieb:
Ich kann iwie vom Intel nichts mehr hören, die bringen wirklich null Erneuerungen auf dem Markt.
Gottseidank gibts AMD ( das ich das mal sagen würde ) als Jahrelange Intel Kunde.

Das Statement war die letzten Jahre nicht falsch, das Alder-Lake-Konzept ist jetzt mal was (relativ) Neues.

Außerdem, bin ich hier in der Kirche, dass ich mir den abgestandenen Sermon von wegen "booo Null Innovation" in jedem CPU-Thread anhören muss?
 
bensen schrieb:
Du schreibst so viel Unsinn, anstatt dich erstmal zu informieren. Unter Volllast laufen alle Kerne, klein und groß, und somit sind deine ganzen Aussagen kompletter Blödsinn.

Also wenn das nichts mit dem hinlänglich bekannten Big.Little System zu tun hat und jede Software grundlegend alle Kerne gleichzeitig benutzt, schwächt das jedoch nur die Leistungsunterschiede bei Vollast ab, die Aussagen behalten trotzdem ihre allgemeine Gültigkeit.
Ein 8+8 Kerner darf nicht einfach so 16 Kerner geannt werden, weil es den Begriff durch den Kakao ziehen würde.
Stell dir nur mal vor, Media Markt würde dir so ein System verkaufen, wenn es ein 16 Kern System mit 14 kleinen Kernen , aber auch einmal mit 14 großen Kernen geben würde.
Schon jetzt wird einem alles verschwiegen oder alles aufgebauscht, was eben ihm Rahmen der Gesetzeslage irgendwie noch gerade rechtlich zulässig ist.
Wenn man im Jahr 2020 noch Aussagen wie ultraschnelle SATA-SSD und megagroße 1TB HDD lesen muss, pfui Spinne.
Und da die kleinen Cores sicherlich nur maximal halb so schnell arbeiten wie ein großer Leistungskern, hast du dennoch keine 16 Kerne, sondern vielleicht bei Gleichschaltung und ohne Leistungsverlust durch das Scheduling dann nur noch irgendwas vermutlich zwischen 10 und 12 Kernen als Vergleichswert.
Ich bleibe also bei meiner Meinung, dass volle gleiche Kerne im Desktop auch für Windows und die Lastverteilung etc. bei normaler Anwendung die einfachere und bessere Basis bieten.
Das was Intel vorhat mit den vielen unterschiedlichen Leistungsvarianten und Corezusammenstellungen, das ist sicher auch wieder eine weitere Problematik udn Leistungsverlust für das Betriebssystem udn die Softwareprogrammierung.
Apple hats da einfacher. Wenig Hardware, wenig Software, alles wird zwangsweise aufeinander abgestimmt.
Intel wirft sich so schon mal vorweg wieder einen Stock zwischen die Beine.
 
  • Gefällt mir
Reaktionen: Kodak
Zurück
Oben