News Skylake-EP/EX: 32-Kern-CPU als Sample in China zum Verkauf

Helios_ocaholic schrieb:
Intel Xeon-Prozessoren werden ja seit längerem beispielsweise in den Laptops Lenovo ThinkPad P50/P70 eingesetzt.
Das ist nicht seit längerem, sondern im Gegenteil ganz neu und wie schon gesagt wurde, sind das ganz andere Xeons als die um die es hier geht. Dort werden im Grunde mobile i7 verwendet, die Intel nun einmal nicht um die ECC RAM Funktion beschnitten hat und als Xeon E3 1500er verkauft. Die Dies dürften mit denen der Xeon E3 1200er identlich sein.
Helios_ocaholic schrieb:
Xeon-Prozessoren sind schon lange nicht mehr nur Servern vorbehalten.
Nein, die gehören genauso in Workstations und genau das sind die genannten Mocelle von Lenovo (es gibt auch ähnliche von anderen Anbietern wie Dell und HP): Mobile Workstations.

Nur ist leider vielen Usern der eigentliche Unterschied zwischen einem PC und einer Workstation gar nicht bekannt und ebensowenig, dass es diesen Unterschied eben auch Notebooks gibt.
Köf3 schrieb:
so ist der Chip fast 1 Jahr alt.
Hätte ich nicht gedacht, dass der doch schon so alt ist - aber andererseits ist das eh eine Testmuster-CPU ("confidential") und daher wohl auch nicht mehr so außergewöhnlich.
Jetzt hast Du aber entgültig die Hoffnungen von alle denen zerstört, die darin Intels Reaktion auf AMDs kommende CPUs sehen zu der Intel nur gezwungen wurden, weil AMD wieder erstarkt :evillol:

mcasd schrieb:
mache mir eher Gedanken zu den Kosten - ist doch von Otto Normalverbraucher mit Ambitionen eh nicht zu bezahlen.
Ist Dir schon mal aufgegangen, dass so eine CPU sich an Unternehmenskunden und nicht an "Otto Normalverbraucher mit Ambitionen" richtet? Oder solltest Do Hobbypilot sein, kommentierst Du dann auch, dass Airbus für einen A380 wohl so viel verlangt, dass es für den Hobbypoloten mit Ambitionen eh nicht zu bezahlen ist?

spassmusssein schrieb:
32 virtuelle Maschinen die jeweils 1 Kern zugewiesen bekommen. Oder 16 2, oder 8 4. Denk dir was aus.
Aber bitte was schlaueres als das, denn Thin provisioning gerade auch im Bereich der CPU Kerne macht die Virtualisierung erst richtig lohnen.
 
alffrommars schrieb:
Sowas kommt erst 2100 in den Endkundenhandel ...

Nur wer braucht sowas in dem Bereich wo die CPUs angesiedelt sind?
Grafikkarten übernehmen heute vielfach die Arbeit der CPU und das bei mehrfacher Leistung und effizienter?
GPUs nennt man im HPC-Bereich auch Rechenbeschleuniger. Warum? Weil sie das Rechnen beschleunigen, eigenständig aber zu nichts zu gebrauchen sind.
Je leistungsstärker die GPUs werden, desto mehr Leistung müssen auch die Systeme haben, die den GPUs die Daten 'vorkauen' - und viele Dinge lassen sich auf GPUs schlichtweg nicht (brauchbar) rechnen.

GPUs sind nur dort leistungsstark, wo man eine enorm große Menge an wenig komplexen Rechenaufgaben hat.
Auch beim Speicherausbau ist die Tendenz klar - und um den Speicher zu nutzen benötigst du? Genau CPU-Kerne.

Es gibt genug Literatur dazu, die auch sehr interessant ist. Google/Heise bieten da reichlich...

Holt: Du meinst over- nicht thin provisioning.
32kerner werden aber auch weniger zur Virtualisierung, als mehr im HPC-Bereich Verwendung finden.
Da inzwischen mehr Software nach Kernen, statt Sockeln, lizensiert wird, spielt es am Ende wohl oft keine Rolle.

Abgesehen davon, dass Du in vielen Bereichen mit weniger, aber schnelleren, Kernen besser bedient bist - auch virtualisiert.
 
Zuletzt bearbeitet:
Nein, ich meine genau was da steht:
Was bedeutet, ich tue so als wären mehr Kerne da als wirklich da sind und wenn ich 32Kerne / 64 Thread in der CPU haben, dann mache ich nicht nur 72 VM mit je einem Kern, sonder mehr oder geben jeder mehr Kerne, weil sowieso nie alle ihre virtuellen Kerne voll auslasten werden und damit die Auslastung der physikalischen Kerne steigt.

Over provisioning wäre das Gegenteil, dabei tue ich so als wären weniger Resourcen vorhanden als tatsächlich da sind. Bei Virtualisierung macht man das normalerweise nicht, bei Storages macht man es, vor allem bei SSDs um die (Schreib-)Performance bei hoher Last zu verbessern. Da nimmt man ihr einfach einen Teil der Nutzkapazität und lässt den unbeschrieben, tut also so als wäre sie kleiner wie sie wirklich ist. Auch bei Netzwerken ist over provisioning nicht unüblich, damit bei einem Ausfall das Netz noch genug Reserven hat und selbst bei maximaler Belastung die Antwortzeiten nicht steigen, dimensioniert man auch dort Netzwerkkapazitäten höher als es selbst der normale Spitzenbedarf erfordern würde.
 
Man spricht in diesem Fall eigentlich eher von overcommit und nicht von thin provisioning.
Wenn man von thin provisioning spricht, ist zu 99% storage gemeint. Finde jetzt auf anhieb praktisch nichts über Google wo thin provisioning und cpu/memory in einem Satz erwähnt werden.
 
Zuletzt bearbeitet:
Die Frage die sich mir stellt wie gut die Yields sind.

Der aktuelle E5 v4 hat ja auf seinem max Ausbau DIE auch 24 Cores (selbst die höchste SKU des Broadwell-EP hat aber nur 22 aktive Kerne...).

tmkoeln
 
digger66a schrieb:
ok die Logik entzieht sich mir hier.
Du sagst also man könne die 32 core Xeon nicht mit den 32 core Naples (ZEN) vergleichen weil amd keine chipsets dafür bietet?
ja, denn bisher ist es ein reiner Papiertieger mit unbekannten Features vom Chipsatz, zudem müssen die großen Hersteller von Servern erstmal damit anfangen etwas eigenes zu entwickeln was auf deren Chipsatz basiert - falls überhaupt Interesse besteht - da die Kunden lieber auf ausgereifte Technik und Stabiliät setzten.. wie lange solll das noch dauern.. also kein Vergleich..
 
Genauso sieht es aus.

https://www.heise.de/newsticker/mel...enCompute-mit-ROCm-aber-kein-Zen-3491050.html

Auch wer gehofft hatte, einen Prototypen der nächsten Prozessorgeneration Zen mit bis zu 32 Kernen (Naples) auf der Supercomputer-Konferenz SC16 in Salt Lake City vorgeführt zu bekommen, wurde enttäuscht. Nicht mal hinter den Kulissen konnten die vielen Interessierten aus Wissenschaft, Forschung und Industrie laufende Zen-Systeme bewundern.

Wenn AMD nichtmal eine Plattform wie die SuperComputing Konferenz nutzt,...

Bisher haben auch alle OEMs, mit denen ich bisher zum Thema Zen Server gesprochen habe, schulterzuckend abgewunken. Solange der Markt nicht wirklich danach schreit, wird kaum einer große Entwicklungsbudgets dort reinstecken. Ladenhüter stellt niemand freiwillig her.
 
Schöne CPU, gerade dann wenn die Anwendung 1:1 mit den Kernen skaliert . ..Z. B 3D Render
 
Na - da kommt doch endlich Bewegung in den Sever CPU Markt ! Mal sehen, was Intel für Preise generiert, wenn die neuen 32 Core Zen Opterons auftauchen ? Ich glaube nicht, das es später bei 1,7 k € für den 10 Kerner i7 6950 /XEON bleibt, falls AMD was gutes liefert. Allerdings muss AMD dann auch gute Chipsätze haben, sonst bleiben die Kunden bei Intel. Das was gegenwärtig von AMD angeboten wird, ist unwürdig noch beachtet zu werden. -und Server CPUs und Chipsätze sollten sich nicht nur über Dumping Preise verkaufen lassen. Ein wenig mit Aufrüstungen zu warten, spart nächstes Jahr sicher ne Menge Geld !Wer die beste Leistung fürs` Geld bietet, bekommt den Zuschlag...:evillol:
 
Zuletzt bearbeitet:
Eggcake schrieb:
Man spricht in diesem Fall eigentlich eher von overcommit und nicht von thin provisioning.
Wenn dann overcommitment und landet man bei wikipedia bei Memory overcommitment, es wird also wohl nicht wirklich generell auf CPUs benutzt. Thin provisioning bezieht sich generell auf alle physikalischen Resourcen und das macht man ja meist bei der Virtualisierung, nämlich in der Summe den VMs mehr CPU Kerne und mehr RAMs zu geben als der Host überhaupt hat, weil nie alle ihre Resourcen zeitgleich voll nutzen und somit die Auslastung der Resourcen des Hosts optimiert wird.

Nutzen öfter alle VM bestimmte Resourcen voll, so bleibt dann nur der Vorteil diese VM ggf. auf andere Server zu verschieben wenn es mal Probleme mit der HW gibt ohne sie neu aufsetzen zu können, bzgl. der Auslastung der physikalischen Resourcen und leistungsmäßig bringt Virtualisierung dann aber meist nichts oder bei der Leistung sogar Nachteile.
 
Zuletzt bearbeitet:
Holt schrieb:
Zitat entfernt​
@Holt
Es ging um beispiele und nicht optimierte Konfigurationen. Man kann die Erbsen getrost ignorieren. ....
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
Xedos99 schrieb:
Na - da kommt doch endlich Bewegung in den Sever CPU Markt !
Ahja, vor 2018 wird das nix. Und selbst dann: Die meisten OEMs werden erstmal sehr vorsichtig sein und maximal 1-2 Servermodelle auf Basis von Zen anbieten. KEINER wird sämtliche Serien- und Formfaktoren (Rack, Tower, Blade, Micro, Modular, etc.) mit AMD-Modellen ausstatten. Außer vielleicht Supermicro und ggf. irgendeiner der Chinesen.
Xedos99 schrieb:
Mal sehen, was Intel für Preise generiert, wenn die neuen 32 Core Zen Opterons auftauchen ? Ich glaube nicht, das es später bei 1,7 k € für den 10 Kerner i7 6950 /XEON bleibt, falls AMD was gutes liefert.
Wir reden hier von Servern und nicht von so einem billigen HEDT-Kram. Und selbst wenn: Der 10-Kerner i7 wird auch für einen 8-Core Zen höchstwahrscheinlich unbeatable sein, dementsprechend wird Intel den Premium-Aufschlag kaum reduzieren müssen. Und von einem 12/16-Core FX ist aktuell nix in Sichtweite und für AMD auch wenig lukrativ (Aufwand zu groß, Menge zu gering).
Xedos99 schrieb:
Allerdings muss AMD dann auch gute Chipsätze haben, sonst bleiben die Kunden bei Intel. Das was gegenwärtig von AMD angeboten wird, ist unwürdig noch beachtet zu werden. -und Server CPUs und Chipsätze sollten sich nicht nur über Dumping Preise verkaufen lassen.
Wen interessieren im Server-Segment heutzutage noch die Chipsätze???

Nahezu alles(!) wichtige wird heute direkt über die PCI-Lanes der CPUs angesteuert. (10+ Gbit/s Ethernet, HBAs, RAID-Controller, Beschleunigerkarten) Der Chipsatz übernimmt nur noch einfache Southbridge-Funktionen, aber ob ein Server nun 3x USB 3.1 oder 3.0 hat, spielt i.d.R. keine Rolle. Maximal die BMC und vielleicht ein paar lausige Onboard Gigabit-Links werden nativ über den Chipsatz angesteuert, das wars dann aber auch.

Xedos99 schrieb:
Ein wenig mit Aufrüstungen zu warten, spart nächstes Jahr sicher ne Menge Geld !Wer die beste Leistung fürs` Geld bietet, bekommt den Zuschlag...:evillol:
Richtige Unternehmen richten sich in erster Linie nach Support und ggf. Abschreibungszyklen. Ich kenne nur wenige ernsthafte IT-Leiter, die ein feuchtes Höschen bekommen, weil irgendwann in den nächsten zwei Jahren AMD mit neuen Opterons an den Start geht. Auf ernsthafte Kostenersparnisse würde ich da auch nur bedingt hoffen.

Zu den TCO eines Servers gehört mehr als die reinen Anschaffungskosten der Hardware. 2.000 € Ersparnis bei der Serverhardware helfen wenig, wenn ein potenzieller 32-Kern Opteron vielleicht nur so schnell ist wie ein 24-Kern Skylake-EP und ich daher pro Dual-Sockel-Server im Zweifelsfall 16 zusätzliche Core-Lizenzen für Windows Server 2016 Datacenter / SQL-Server etc. benötige, die garantiert NICHT für 2.000 € zu kaufen sind. Da kann man dann, gerade wenn man das Beispiel SQL nimmt, gerne noch einmal einen "0" hinten dran hängen.

Ja ich weiß, es gibt auch noch anderes als Microsoft im Server-Segment, aber bitte: Die Anzahl an Unternehmen, die vollständig auf Open Source arbeiten, lassen sich am kleinen Finger abzählen.
 
Eben, die TCO, die Total Cost of Ownership (also die Gesamtkosten über die Einsatzdauer) entscheiden und nicht der Preis der CPUs die in der Kiste stecken.
 
Was ich mich hier eher frage - der Prozessor hat doch knapp 2700 Pins, richtig? Wie schafft AMD dann eine 32 Kern CPU mit knapp 1300? Pins? Das wundert mich schon sehr.
 
Die Pins haben nicht direkt mit der Zahl der Kerne zu tun, man braucht ja nicht eine bestimmte Anzahl an Pins pro Kern und außerdem hat die AMD CPU mit 32 Kernen dann sicher auch mehr als 1300 Pins. Der AM4 Sockel hat 1331 Pins, der ist aber für die Desktop Zen CPUs und die sollen für den Sockel auch nach bisherigem Kenntnisstand nur mit maximal 8 Kernen erscheinen.
 
Natürlich haben die Pins nur eine begrenzte Aussagekraft, ich war einfach verwundert. Aber danke dafür.
 
Zurück
Oben