K3ks schrieb:
Das müssten die normalen sein, die mit "3D-Cache" müssten mind. 1GB(!) Cache haben...
16 * 32 + 16 * 64 = 1536 MiB an RAM oder 1,5 GiB. Das wird dann echt lustig.
Quidproquo77 schrieb:
Wann zieht Intel mit den 288 Cores von Sierra Forest nach? Müsste doch eigentlich bald soweit sein.
Selbst wenn Intel mit den 288 Cores hier kommt, wird das Intel nur in bestimmten Szenarien etwas bringen - genauso wie die 192 "e-Cores" bei AMD.
Calid schrieb:
Q1, wird aber keine chace haben gegen Turin. Diese e-waste cores haben ja auch nur 288 threads.
Das kann man so schreiben, ist aber an der Stelle etwas zu pauschal. Die 288 e-Kerne könnten in bestimmten Sztenarien auch die 192 AMD-Kerne schlagen, weil hier am Ende die reinen Kerne mehr zählen.
Auch im Server-Bereich gibt es Szenarien, die von "echten" Kernen stärker profitieren.
Quidproquo77 schrieb:
welche mittlerweile ja fast so stark sind wie die P Cores.
Nur kommen diese "e-Kerne" bei Sierra Forest noch nicht zum Einsatz. Sierra Forest baut auf den Crestmont-Kernen auf, die bei der IPC auf dem SkyLake-Level liegen und damit ein gutes Stück langsamer als die Zen5 und Zen5C-Kerne sind.
Quidproquo77 schrieb:
sondern vor allem auch um Effizienz und da haben die E-Cores sehr viel Potenzial
Ja und Nein zur gleichen Zeit. Die E-Kerne bei Intel sind nicht wirklich auf "Energie-Effizienz" getrimmt, sondern primär auf Flächen-Effizienz.
Im Serverbereich taktet sowohl AMD als auch Intel ihre CPUs in der Regel im Sweetspot. Wir schreiben hier je nach TDP von 2 - 3 GHz "Basistakt" und knapp 4 GHz im Turbo. Das ist "Meilenweit" von den 5,7 bis 6,2 GHz entfernt, die Zen 5 sowie Golden Cove/Raptor Cove verkraften und ebenso auch von den Lion Cove-Kernen, die jetzt kommen.
Bei der Energie-Effizienz können die e-Cores von Intel hier nicht wirklich glänzen. Man sieht es ja bereits an den "P-Kernen", dass hier pro Kern ein Energie-Budget von 2 - 3 Watt vorgesehen ist. Bei den E-Kernen sind wir dann bei 1 - 2 Watt.
Entsprechend geringer fällt der Takt aus und Co. Dazu kommt, dass die E-Cores kein AVX512 sowie AMX und Co können, was sie in bestimmten Szenarien auch sehr langsam macht. Die Energie-Effizienz geht dann Flöten.
Im Serverbereich ist das Spiel "Intel" vs "AMD" alles andere als "einfach" zu beurteilen, weil da verschiedene Faktoren eine Rolle spielen und auch wenn man mit Testsuites hier vieles testen kann, kann ich aus eigener Erfahrung sagen, dass die Tests von Phoronix in diesem Zusammenhang auch alles andere als "verlässlich" sind. Direkt aber vorweg: Ich will sie nicht als Inkompetenz oder sonstwas hinstellen, es geht hier alleine um die Problematik bei Tests mit Servern. Bei den nächsten Zitaten schreib ich dazu mehr.
Yosup schrieb:
Sorry, aber ein Mittel aus 140 Benchmarks ist einfach nur Käse, und zwar völlig unabhängig davon, ob man das "geometrische" oder "arithmetische" Mittel wählt, denn es setzt schlicht und ergreifend vorraus, dass alle Benchmarks relativ gleich (ge)wichtig sind
Ja und Nein. Es kommt halt darauf an. Phoronix, Anandtech - RIP - und Co, allgemein der Tech-Journalismus hat hier ein Problem, sogar ein paar Probleme, die hier auch rein spielen.
Sie müssen auf der einen Seite "representative" Software finden, mit denen man entsprechend Benchmarks machen kann. Dazu müssen sie sich entsprechende Testszenarien überlegen und diese auch validieren, damit sie entsprechende Ergebnisse bekommen.
All das muss zu dem dann auch noch "spannend" aufbereitet werden und so "vereinfacht", dass viele Menschen das verstehen. Und genau das ist auch der Punkt. Wenn ich einen Artikel schreibe, der die CPUs als "Ganzes" bewertet, dann nehme ich meine 140 Ergebnisse und muss diese passend Zusammenführen, in der Regel ist hier das "Mittel" die einfachste und gleichzeitig praktikabelste Lösung, weil viele Daten so überschaubar abgebildet werden.
Gleichzeitig hat man damit aber das Problem, dass spezifische Stärken und Schwächen der CPUs kaschiert werden. Es ist dann die Aufgabe des Journalisten, diesen Sachverhalt entsprechend aufzulösen, was in der Regel auch gemacht wird.
Wir sind da jetzt aber auch an dem Punkt, dass Phoronix, Anandtech und Co ja auch bei den Tests auf gewisse "Grundeinstellungen" zurückgreifen, die eine Vergleichbarkeit gewährleistet und selbst da ist schon oft ein Problem vorhanden und damit sind wir bei dem "verlässlich". Phoronix, Anandtech und Co fahren bei entsprechendenden Benchmarks oft mit Standard/Grundeinstellungen, die für die Vergleichbarkeit "Out-of-the-Box" richtig sind, die am Ende aber auch das Bild verfläschen können. Gerade was Datenbanken, Webserver und Co angeht, kann man noch sehr viel mit der Konfiguration erreichen und teilweise Speed-Ups erleben, die jenseits von einer "Neuen Generation" sind.
Yosup schrieb:
Diese Prämisse ist in der Praxis jedoch absolut nicht erfüllt.
Stimmt, an der Stelle ist es aber auch an den ITlern in den Firmen, dass Sie entsprechend Erfahrungen haben und sich in den Artikeln die Zahlen heraussuchen, die sie benötigen. Wenn ich einen Webserver suche, dann nehme ich mir die Ergebnisse für Apache, Nignx und Co. Such ich einen DB-Server, dann die für MySQL, PostgreSQL und co.
Ich kann dir dabei aus Erfahrung sagen, dass man in der Regel aber solche Artikel wie bie Phoronix nur als Ausgangsbasis nimmt und man oft bei Herstellern auch Plattformen mal anfordert zur Validierung und entsprechend auch Tests ausführt, bevor man die Server erneuert. Da fließen in neue Server viele Stunden arbeit.
ETI1120 schrieb:
In den 90 igern hat Microsoft das Betriebssystemmonopol bei den PCs dazu genutzt um die Konkurrenz bei der Anwendungssoftware vom Markt zu drängen. Und die Aufsichtsbehörden haben zugesehen und sogar den Kauf von Visio durchgewunken.
Im Endeffekt ist hier das Problem, dass in den 90er die "Bedeutung" zwar zu erahnen war, aber noch nicht so klar. Bei MS hat man ja ab den 00er auch "gegen" gesteuert, nur zu spät.