News Intel Xeon W-3300: Ice Lake für Workstations mit 38 Kernen bei 270 Watt

Gesunde Marktkonsolidierung, würd ich sagen. Durch ebenbürtige Konkurrenz werden solche Preisspirenzchen nicht mehr möglich sein. Kunde denkt mit.. Und die von Computer Base liebevoll "Intel-Stänker-CPU" (https://is.gd/k7gTqV) genannten 28-Kerner hat man wohlweißlich nicht mehr eingeplant.
Verglichen mit der AMD-Liste (siehe link) ist ein Intel aber immer noch nicht günstig 😉
 
  • Gefällt mir
Reaktionen: Xtrasmart
Maximal 38 ist einfach zu wenig wenn man bei AMD definitiv wieder 64 kerne Bekommen wird. Warum geht intel nicht auch den Modularen weg ?
 
Rassnahr schrieb:
Warum geht intel nicht auch den Modularen weg ?
Aus dem gleichen Grund aus dem man nicht mal eben so aus einem Bobby Car ein Go Kart schnitzt. Zwischen dem Zeitpunkt der Entscheidung pro Chiplet und dem fertigen Produkt vergeht die übliche Zeit, die eine komplett neue Architektur halt so braucht. Und das setzt auch voraus, dass alles glatt über die Bühne geht und man auch gewillt ist, alle anderen Entwicklungen, die bis dahin noch in Arbeit sind / fertig werden (Geld gekostet haben) und vermarktet werden könnten (die Unkosten wieder reinholen) direkt in die Tonne würfelt und somit viel Geld abschreiben darf.
 
pmkrefeld schrieb:
Premature optimization is the root of all evil ;)
Dieses ursprüngliche Zitat von Knuth bezog sich auf "worrying about efficiency in the wrong places and at the wrong times". Wenn man also Software auf Szenarien optimiert, die niemals eintreten (z.B. ein Blender auf 1 Million Kernen)

Unter dieses Zitat fällt nicht, die Software durch fehlende Optimierung unbenötigte oder unsinnige Dinge berechnen zu lassen, weil es ja angeblich egal sei, weil ja ohnehin viel Ressourcen zur Verfügung stünden, wie von @JoeDoe2018 angenommen.

Klar ist, dass Optimierung Geld kostet, durch die Arbeitszeit der Programmierer und deswegen mitunter nicht den Stellenwert bekommt, den sie haben sollte.
 
Wird es einen Xeon W-3175x Nachfolger daraus geben?
 
Ernste Frage: Laut den Intel Benchmarks wurde der Xeon im direkten Vergleich gegen den AMD mit Wasser- statt Luftkühlung, 128GB gegenüber 64GB RAM und einer neueren GPU Treiberversion getestet. Was hat das für Auswirkungen in so nem Server/WS?
 
@cRoss. Kann einige Auswirkungen je nach workload haben. Klingt ziemlich nach schummeln.

Ungeachtet davon: Intel hat zumindest wieder was in diesem Segment.

Klar haben sie im Vergleich zu Threadripper Pro weniger Takt, weniger lanes, sind teurer und haben insgesamt auch weniger Kerne.

Immerhin hat man wiedermal was sinnvolles in diesem Segment. Sehr Gut finde ich auch dass man die RAM Nutzung vollständig und ohne Aufpreis ermöglicht (nehm ich ihnen in all den Jahren aber immernoch übel)

Ganz reichen tut es nicht, dafür hat AMD zu Viele Optionen mit mehr Kernen, mehr konnektivität bei weniger Geld. Auch bin ich gespannt was bei Intel in diesem Zusammenhang hier"TDP" wieder bedeutet. AMD hält die sehr genau ein.

Auch Kommt wohl ein Nachfolger auf Zen 3 Basis.
 
der Vorteil durch AVX-512 ist auch nur noch temporär, da Zen 4 es ziemlich sicher implementiert haben wird. Bis dahin brauchen sie bei Intel echte gute Produkte für entsprechend selektive Benchmarks.

Und als Nebeneffekt könnte dies die Verbreitung von AVX-512 über Matlab und co. Hinaus zunehmen wenn alle CPUs am Markt, auch auf consumerplattformen, dies Unterstützen.
 
PS828 schrieb:
Klingt ziemlich nach schummeln.
Das stimmt doch gar nicht!!! Intel hat nie geschummelt und schummelt auch jetzt nicht!!!

Intel erteilt nur aller Welt eine weitere Lektion, die uns lehren soll, warum unabhängige Tests notwendig sind und man den Angaben der Hersteller, vor allem denen von Intel, nicht trauen darf.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx und PS828
JoeDoe2018 schrieb:
Wenn dann noch der neue Threadripper auf den Markt kommt mit den Ryzen 3 ...

Die Kerne heißen "Zen 3". Ryzen 3 sind eine Kategorie innerhalb der Ryzen Produktfamilie und haben mit Threadripper mal so gar nichts zutun.
 
Ob der normale Threadripper 5000 ohne Pro dann auch Octa-Channel bekommt?
 
Atkatla schrieb:
Dieses ursprüngliche Zitat von Knuth bezog sich auf "worrying about efficiency in the wrong places and at the wrong times". Wenn man also Software auf Szenarien optimiert, die niemals eintreten (z.B. ein Blender auf 1 Million Kernen)

Unter dieses Zitat fällt nicht, die Software durch fehlende Optimierung unbenötigte oder unsinnige Dinge berechnen zu lassen, weil es ja angeblich egal sei, weil ja ohnehin viel Ressourcen zur Verfügung stünden, wie von @JoeDoe2018 angenommen.

Klar ist, dass Optimierung Geld kostet, durch die Arbeitszeit der Programmierer und deswegen mitunter nicht den Stellenwert bekommt, den sie haben sollte.

Ich interpretiere das Zitat anders.
Für mich fällt jede Optimierung, die nicht notwendig ist unter diese Definition.
Und notwendig ist es nur, wenn die Performance unter der geforderten bleibt, was eigentlich immer an der HW liegt. Ein Beispiel dafür wäre Raytracing, alles was kein Raytracing ist, ist eine Optimierung Aufgrund dafür fehlender Leistung.

Finde die folgende Erläuterung überraschend knapp und gut :)
(...) If there is any doubt whether an optimization is premature, then it is premature!

Zu der Zeit als das ursprüngliche Zitat entstanden ist gab es den Fall praktisch nicht, dass 'zu viel Leistung' vorhanden war. Heute ist es der Standardfall.

Vor allem auf die Software-Entwicklung bezogen halte ich es für den einzig richtigen Ansatz nicht zu optimieren bis es einem auf die Füße fällt.

Alles andere führt dazu, dass im Namen einer vermeintlichen "Optimierung" Code geschrieben wird, der schwieriger zu lesen, verstehen und ändern ist, was ein viel höheres Risiko birgt als ein Programm das halb so schnell läuft wie es potenziell könnte. Hab ich selbst schon gesehen und gemacht :D

Optimierung ist böse, es ist ein notwendiges übel, dass wir in einer Welt von limitierten Ressourcen brauchen.
Die Menge der Ressourcen hat sich seit 1974 aber vervielfacht, und selbst damals meinte Knuth, dass Optimierung in etwa 3% der Fälle sinnvoll ist. Damals war gerade ein Intel 8080 erschienen, (für einen besseren Vergleich) ein paar Jahre später lieferte ein 8086 mit einem Coprozessor ca. 1 MFlops, heute leistet ein 10900K lt. Intel 592 GFlops. Für mich haben sich damit die 3% entsprechend der Leistung um Faktor 592000 reduziert ;)
 
  • Gefällt mir
Reaktionen: Cruentatus
JoeDoe2018 schrieb:
Jedoch kaufen die Firmen immer noch Intel Workstation anstelle von AMD. Dies erlebe ich leider auch.
Ja aber immer mehr kaufen jetzt auch AMD. Die Leistung lässt sich einfach nicht mehr weg Diskutieren. Egal ob Leistung Preis oder Features Threadripper liegt bis auf AVX512 immer vorne.
 
catch 22 schrieb:
Der Fairness halber erhebe ich hier Einspruch, denn pro Kern betrachtet ist der TDP Wert sogar minimal gesunken
Der Gesamtverbrauch besteht aber wahrscheinlich nicht nur aus variablen Anteilen sondern hat auch "Gemeinkosten" (Overhead) für Memorycontroller und was da sonst noch drumherum werkelt. Das verteilt sich in der Relationsrechnung natürlich auf mehrere Kerne
 
Rassnahr schrieb:
Maximal 38 ist einfach zu wenig wenn man bei AMD definitiv wieder 64 kerne Bekommen wird. Warum geht intel nicht auch den Modularen weg ?
Ich glaube Intel ist jetzt in einer ähnlichen Situation, wie damals AMD mit dem Bulldozer. Die Frage ist jetzt ob Intel 10 Jahre braucht um AMD wieder ein oder zu überholen.
 
Schade, dass da nur 4GHz im Turbo gehen...
Da sieht man mal, wie weit Intel im Moment AMD hinterher ist.
 
Zurück
Oben