News 500-Watt-CPUs: Intel Granite Rapids und Sierra Forest auf LGA 7529

@xexex Ja,ok , schlechtes Beispiel :freak::daumen: .

Ich frage mich dann halt ob MS dann entweder die 16-Kerne-Standardversion anhebt oder ob es von Intel dann auch Xeons ohne E-Kerne gibt weil so richtig bezahlbar ists dann für die kleinen KMU eher nicht mehr. Jetzt nimmt man halt 2x 8Kerner oder 1x16er Gold und fährt damit recht gut. Mehr Kerne sind ja immer schön aber bezahlbar muss es dann halt auch bleiben.
 
arfarf schrieb:
Ich frage mich dann halt ob MS dann entweder die 16-Kerne-Standardversion anhebt oder ob es von Intel dann auch Xeons ohne E-Kerne gibt
xexex schrieb:
also zählen E-Kerne, wenn es die mal bei einer Server-CPU gibt, als ein normaler Kern.
Es gibt aktuell keine Xeons mit E-Kernen und trotzdem wird es Microsoft nicht interessieren welcher Kern nun genutzt wird. Du kannst im NAS auch eine Atom CPU verbauen einen leistungsabhängigen Unterschied bei der Windows Lizenzierung gibt es nicht.
https://www.computerbase.de/2023-02/intel-xeon-w-3400-w-2400/
Ergänzung ()

rosenholz schrieb:
Und vergessen wir nicht das Gerücht von bis zu 128 P-Kernen und 334 E-Kernen. Denn anscheinend sind mehr Kerne immer besser, auch wenn die meiste Software damit kämpft, sie effizient zu nutzen. Aber hey, wer kümmert sich schon um die Praktikabilität, wenn wir uns damit brüsten können, die meisten Kerne zu haben, oder?
Du hast schon mal mit Servern gearbeitet?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch, BAR86, IllusionOn und 10 andere
rosenholz schrieb:
Oh Freude, mehr stromhungrige CPUs mit größeren Sockeln und höheren TDP-Werten. Genau das, was die Welt braucht! Denn wer will nicht mehr für Stromrechnungen zahlen und sich mit Kühllösungen herumschlagen, die kaum mit der Wärmeabgabe dieser Giganten mithalten können?
Das sind Server CPUs und kein Desktop Spielzeug. Mit Wasserkühlung lässt sich das problemlos kühlen.
Es kommt auf sie Effizienz an und die wird sicherlich steigen.
rosenholz schrieb:
Und vergessen wir nicht das Gerücht von bis zu 128 P-Kernen und 334 E-Kernen. Denn anscheinend sind mehr Kerne immer besser, auch wenn die meiste Software damit kämpft, sie effizient zu nutzen.
Siehe oben. Keinen Ahnung was du für Server einsetzt, aber Auslastung ist meist nicht das Problem...

rosenholz schrieb:
Und vergessen wir nicht die "logische Entwicklung" einer 12-Kanal-Speicherschnittstelle, denn offenbar brauchen wir noch mehr Speicherbandbreite, um schlecht optimierte Software auszugleichen. Wer braucht schon eine Optimierung, wenn man das Problem einfach mit mehr Hardware lösen kann, oder?
... Speicherdurchsatz hingegen schon. Warum sollte man die Kerne künstlich ausbremsen?
Im Desktop hat man 16 Kerne mit 2 Channel. 128 mit 12 ist jetzt nicht gerade überdimensioniert.
rosenholz schrieb:
Vergessen Sie die Verbesserung der Effizienz oder die Reduzierung des Stromverbrauchs.
Bitte Details, du scheinst ja schon Messwerte zu haben.
 
  • Gefällt mir
Reaktionen: BAR86, ThirdLife, Pjack und 2 andere
  • Gefällt mir
Reaktionen: IgorGlock und DFFVB
xexex schrieb:
Es gibt aktuell keine Xeons mit E-Kernen und trotzdem wird es Microsoft nicht interessieren welcher Kern nun genutzt wird. Du kannst im NAS auch eine Atom CPU verbauen einen leistungsabhängigen Unterschied bei der Windows Lizenzierung gibt es nicht.

Deshalb schreib ich das ja auch in diesem Thread zur kommenden Version (5th Gen Xeon?) die das haben wird ;) .

Ja, hab auch VMs auf Atom-NAS (Qnap) im Einsatz und klar auch hier zählen die Kerne. Mir gings eher darum wenn ich jetzt so eine Hybrid-CPU habe wie sich das dann in Hyper-V lizenztechnisch verhält. Wenn sie E und P hier gleich behandeln wäre das ziemlich fatal. Ich denke auch das das der Grund war warum MS das Hyperthreading nicht in die Kernzahl mitrechnet wenn sie nur 10-15% Leistung eines "echten Kerns" aufweisen.
 
da wirkt mein sockel 3647 ja richtig micro gegen ^^ ... aber bald ist der sockel größer als die ram slots :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bikerider
arfarf schrieb:
. Ich denke auch das das der Grund war warum MS das Hyperthreading nicht in die Kernzahl mitrechnet wenn sie nur 10-15% Leistung eines "echten Kerns" aufweisen.
Die kleinen Kerne sind aber echte Kerne und die Leistung liegt in ganz anderen Regionen. Daran wäre übrigens gar nichts "fatal", bei einer Server-CPU liegt bei voller Auslastung nie die volle Leistung eines Kerns an und mit den "e" Kernen nutzt man diese Tatsache aus. Deshalb wird da Microsoft auch wenig machen und für einen möglichen Server mit 384 (e)Kernen wird man auch entsprechend viele Kernlizenzen benötigen.
 
Cr4y schrieb:
12 Kanal-Speicher und DDR5-8000!? Was ist die theoretische, maximale Speicherbandbreite!? :-o
768GB/s
 
  • Gefällt mir
Reaktionen: Zarlak
Berserkervmax schrieb:
500Watt
Mit OC über 1000Watt
Wer bitte betreibt denn Overclocking im Serverbereich?
Ergänzung ()

@rosenholz Komm mal aus deiner Gamingbubble raus! 😉
 
  • Gefällt mir
Reaktionen: MalWiederIch, thuering, ThirdLife und 4 andere
er zb.

 
rosenholz schrieb:
Oh Freude, mehr stromhungrige CPUs mit größeren Sockeln und höheren TDP-Werten. Genau das, was die Welt braucht! Denn wer will nicht mehr für Stromrechnungen zahlen und sich mit Kühllösungen herumschlagen, die kaum mit der Wärmeabgabe dieser Giganten mithalten können?

Und vergessen wir nicht das Gerücht von bis zu 128 P-Kernen und 334 E-Kernen. Denn anscheinend sind mehr Kerne immer besser, auch wenn die meiste Software damit kämpft, sie effizient zu nutzen. Aber hey, wer kümmert sich schon um die Praktikabilität, wenn wir uns damit brüsten können, die meisten Kerne zu haben, oder?

Und vergessen wir nicht die "logische Entwicklung" einer 12-Kanal-Speicherschnittstelle, denn offenbar brauchen wir noch mehr Speicherbandbreite, um schlecht optimierte Software auszugleichen. Wer braucht schon eine Optimierung, wenn man das Problem einfach mit mehr Hardware lösen kann, oder?

Aber hey, wenigstens bekommen wir mit DDR5-8000 schnellere Speichergeschwindigkeiten, denn das ist eindeutig das drängendste Problem in der CPU-Welt im Moment. Vergessen Sie die Verbesserung der Effizienz oder die Reduzierung des Stromverbrauchs. Konzentrieren wir uns einfach darauf, die Grenzen des technisch Machbaren auszuloten, unabhängig davon, ob es tatsächlich Sinn macht oder nicht.
©chatgpt-4
Uii...
Hier hat sich jemand zum Lappen gemacht 🙄.

Lasst doch einfach das kommentieren, wenn ihr offensichtlich noch nie mit Servern gearbeitet habt...
 
  • Gefällt mir
Reaktionen: MalWiederIch, M11E, Kitsune-Senpai und 7 andere
rosenholz schrieb:
Oh Freude, mehr stromhungrige CPUs mit größeren Sockeln und höheren TDP-Werten. Genau das, was die Welt braucht! Denn wer will nicht mehr für Stromrechnungen zahlen und sich mit Kühllösungen herumschlagen, die kaum mit der Wärmeabgabe dieser Giganten mithalten können?
Für die, die die Leistung wirklich benötigen ist das super. 2 Server mit gleicher Rechenleistung wären da wahrscheinlich weniger effizient.
 
  • Gefällt mir
Reaktionen: MalWiederIch, M11E, kaji-kun und eine weitere Person
Schon krass wie riesig ^^. Dauert nicht lange und so ne cpu bekommt alleine ne Schublade in so nem Server Schrank.
 
Tenferenzu schrieb:
Ist es ab einer gewissen Sockelgröße nicht viel einfacher die CPUs zu verlöten als einen enormen Aufwand betreiben zu müssen um den Anpressdruck immer gleich zu verteilen? Gerade bei Servern die eh nie wirklich geupgradet werden und so viel Strom verbrauchen, das das doch kein Normalsterbilcher am Ende der Nutzungszeit noch verwenden will würde das doch sicher Sinn machen oder?
1. Machst du dich mit verlöteten CPUs unflexibler bezüglich der Konfiguration und Lagerhaltung. Es geht dabei nicht um Upgradefähigkeit sondern darum, dass HPE z.B. einfach EIN mainboard für alle DL380 Gen X hat.
Bei deinem Vorschlag müssten sie 14 Modelle vorhalten.
2. Wenn du das ganze mit mehr know-how betrachtest, setzt du die Leistung der Rechenleistung gegenüber. Die Kisten werden bei vielen Firmen durchaus 5 oder mehr Jahre (nicht selten bis zum Supportende des Serverherstellers) betrieben. Nicht jeder hat ein RZ dass alle 3 Jahre die Kisten rauswirft (welche danach noch wo anders laufen, weil die ggf. hohen Energiekosten günstigen Einkaufspreisen entgegenstehen.
Ergänzung ()

rosenholz schrieb:
Oh Freude, mehr stromhungrige CPUs mit größeren Sockeln und höheren TDP-Werten. Genau das, was die Welt braucht!
Oh super. Noch ein Enduserbeitrag im falschen Forum.
Wir reden hier nicht über einen i9 mit einer Hand voll Kernen und 300 Watt Verlustleistung. Und natürlich vergisst du die Plattformverluste einzubeziehen, die natürlich weniger anfallen, wenn ich mehr Bleche konsolidieren kann. Das "Ökosystem" um die CPUs verschlingt übrigens auch nicht wenig.
 
  • Gefällt mir
Reaktionen: Newbie_9000, input_iterator, Skysnake und 4 andere
Berserkervmax schrieb:
500Watt
Mit OC über 1000Watt

Zur Not auch als Warmhalteplatte zu benutzen...
Ich würd ne Eisenplatte statt des Kühlers drauf machen und dann damit Nudeln kochen.
Zocken und parallel Essen kochen - das nennt man praktisch. :smokin:
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und ToflixGamer
  • Gefällt mir
Reaktionen: Jarhead91, MalWiederIch, brthr_nemiel und 2 andere
stefan92x schrieb:
Verlöten ist miserabel geeignet, um Systeme anzupassen. Konfiguratoren mit Dutzenden von CPU-Optionen wären dann nicht mehr möglich, oder mit hohen Lieferzeiten verbunden, die keiner haben will.

Doch, das geht schon: Da ist eh der selbe Chip (bzw. das selbe MCM) drauf, einfach beim Ausliefern konfigurieren, ob das jetzt ein Xeon xyz oder abc ist. Vor einiger Zeit lief einmal die Meldung durch, dass Intel den Kunden sogar Umkonfiguration on-site anbieten will, natuerlich gegen entsprechendes Geld. Wobei ich etwas uebertrieben habe: gerade bei den Servern baut Intel ja doch unterschiedliche Hardware: XCC, HCC, LCC. Aber der grosse Sockel wahrscheinlich nicht mit LCC, oder? Also eventuell kaemen die Hersteller dann mit zwei Board-Typen aus: Dem mit XCC-Die, und dem mit HCC-die. Der Rest waere Konfiguration zur Auslierferungs- oder zur Laufzeit.
 
rosenholz schrieb:
Denn wer will nicht mehr für Stromrechnungen zahlen und sich mit Kühllösungen herumschlagen, die kaum mit der Wärmeabgabe dieser Giganten mithalten können?
In einem RZ interessieren die Stromrechnungen für die Server meist eher weniger. Und da träumt auch keiner davon sich mit irgendwelchen Raumtemparaturen von 25°C und mehr rumschlage zu müssen.

rosenholz schrieb:
Und vergessen wir nicht das Gerücht von bis zu 128 P-Kernen und 334 E-Kernen. Denn anscheinend sind mehr Kerne immer besser, auch wenn die meiste Software damit kämpft, sie effizient zu nutzen. Aber hey, wer kümmert sich schon um die Praktikabilität, wenn wir uns damit brüsten können, die meisten Kerne zu haben, oder?
Gerade Anbieter von z.B. virtuellen Servern freuen sich über mehr Kerne/Rack. Macht das ganze einfach wesentlich günstiger. Und Software für Server, welcher Art auch immer, ist auch für solchen Betrieb gemacht.

rosenholz schrieb:
Und vergessen wir nicht die "logische Entwicklung" einer 12-Kanal-Speicherschnittstelle, denn offenbar brauchen wir noch mehr Speicherbandbreite, um schlecht optimierte Software auszugleichen. Wer braucht schon eine Optimierung, wenn man das Problem einfach mit mehr Hardware lösen kann, oder?
Sachen die von einem Server kommen sind nicht selten sehr optimiert. Sonst könnten die Hersteller auch keine astronomischen Preise verlangen. Und gerade Datenbanken lieben viel und schnellen RAM. Je mehr davon desto besser. Wenn das Frontend bei jeder Suchanfrage erstmal mühselig irgendwo auf Platte anfängt zu suchen wird das ganze echt eklig. Lieber das ganze im "etwas" schnelleren RAM vorhalten.
 
rosenholz schrieb:
Schließlich ist es ja völlig normal, dass in diesen heiligen Hallen der Technik Energieeffizienz und Wärmeabfuhr nebensächlich sind.
Dein Denkfehler ist, dass du glaubst, dass CPUs mit 500W TDP nicht energieeffizient wären.

Das Gegenteil ist der Fall, weniger Server mit sehr fetten Chips zu verwenden ist effizienter, als viele Server mit kleinen Chips.
 
  • Gefällt mir
Reaktionen: tso, Newbie_9000, Skysnake und 14 andere
Zurück
Oben