News Qualcomms Server-Sparte: Nur 50 von 1.000 Angestellten bleiben

incurable schrieb:
Höhere minimale Latenzen sowohl beim Zugriff auf Speicher und I/O als auch bei der Kommunikation zwischen den Kernen.

Rome mit seiner Northbridge, durch die alle (1S) bzw. ein gros der (>1S) Informationen des ganzen Systems laufen müssen, erinnert im Systemdesign schon frappierend an frühe Xeons von vor 20 Jahren. (jaja, point to point vs shared bus :p)

Und in welchen Anwendungsbereichen ist das von Nachteil bzw wieviel Geschwindigkeit büßt man dadurch ein?

Ist ein 32 Kern Threadripper für 1733€ jetzt langsamer als zb ein Intel Xeon mit 16 Kernen für den gleichen Preis?
https://geizhals.de/?cat=cpu1151&as...hloc=eu&filter=aktualisieren&sort=-r&xf=25_16
https://geizhals.de/?cat=cpuamdam4&...filter=aktualisieren&plz=&dist=&mail=&sort=-r

Also hier scheint der Epyc sich auch als MCM sehr gut behaupten zu können.
https://www.heise.de/newsticker/mel...c-vs-Xeon-SP-in-der-SPEC-CPU2017-3896842.html
 
Zuletzt bearbeitet:
lynx007 schrieb:
Welche Nachteile?
Die Frage ist wohl rhetorisch gemeint, denn Du weilst ja selbst das die eben nicht bei allen Anwendungen ähnlich gut wie die monolithischen Intel CPUs performen.
lynx007 schrieb:
Und warum will Intel jetzt selbst MCMs rausbringen wen sie so schlecht wären?
Intel wird das MCM Desgin so bringen, dass sie eben die Nachteile möglichst vermieden. Dieser 56 Kerner ist sicher nicht das finale Design, sondern der ist nur ein Schnellschuss als Antwort auf die 64 Kerner, damit es nicht heißt die anderen hätten CPUs mit mehr als doppelt so vielen Kernen. Wie die Verbindung zwischen den Dies wird letztlich über Mesh und EMIB sein, damit hat man dann keine erhöhte Latenz nur weil der Nachbarkern auf einem anderen Die ist und man umgeht auch das Problem das alle Kerne über die gleiche Verbindung (bei AMD die IF die den CCX bzw. das Chiplet anbinden) kommunizieren müssen, sondern eben so viele parallele Verbindungen wie es Zeilen / Spalten mit Kernen im Die gibt.
lynx007 schrieb:
Aber sind sie deshalb auch in jedem Anwendungsbreich auch grundsätzlich unterlegen?
Das behauptet doch niemand, er ist nur auch nicht in allen Anwendnungsfällen so überlegen wie bei solchen die gut zu dem Konzept passen wie z.B. Cinebench. Selbst die RYZEN sind immer dann gut, wenn jeder Kerne unabhängig von den anderen viel auf den gleichen Daten rechnen muss und immer dann unterlegen, wenn viel Kommunikation zwischen den Kernen erfolgt, wie es bei Spielen typischerweise der Fall ist, denn die sind ja im Grunde Simulationen mit viele Akteuren und was der eine macht beeinflusst was mit allen anderen passiert. Wenn im Spiel einer schießt muss derjenige umfallen den er trift, aber wenn der Kern für Cinebench einen Teil eines Bildes rendert, ist dem einem Kern egal wie die Pixel aussehen die die anderen Kerne berechnet haben.
incurable schrieb:
Rome mit seiner Northbridge, durch die alle (1S) bzw. ein gros der (>1S) Informationen des ganzen Systems laufen müssen, erinnert im Systemdesign schon frappierend an frühe Xeons von vor 20 Jahren.
Bin mal gespannt wie sich das verhalten wird, aber es dürfte am Grundproblem nichts ändern und das ist nun einmal die extrem unterschiedliche Latenz bei der Kommunikation zwischen den Kernen, die bei Kernen auf dem gleichen CCX sehr gering ist, bei anderen aber sehr hoch sein kann. Wenn nun in einer Datenbank jemand etwas lockt, müssen aber trotzdem alle anderen Kerne davon erfahren, egal ob sie auf dem gleichen CCX sitzen oder nicht, dann dann darf keine anderer diese Daten verändern, die Intel CPUs können dies viel schneller. AMDs aktuelle CPUs performen daher immer nur gut, wenn jede möglichst unabhängig für sich arbeiten kann, ohne mit den anderen interagieren zu müssen.
 
Holt schrieb:
Selbst die RYZEN sind immer dann gut, wenn jeder Kerne unabhängig von den anderen viel auf den gleichen Daten rechnen muss und immer dann unterlegen, wenn viel Kommunikation zwischen den Kernen erfolgt, wie es bei Spielen typischerweise der Fall ist

Komisch halt, das der Abstand im CPU Limit praktisch rein dem Taktunterschied entspricht und du auch gar keine Information hast warum und weshalb die IPC in manchen wenigen Anwendungen niedriger ist. Das kann eine ganze Reihe von Gründen haben von denen die wenigsten Hardwareseitig sein dürften. Warum also wieder diese Unsinnige Tirade?

Holt schrieb:
der bisherige Ansatz von AMD bringt dem Nutzer nur Nachteile

Einen erheblichen Kostenvorteil versuchst du hier als Nachteil zu verkaufen. Warum? Die Ehrliche Antwort wäre eigentlich: Sie bringt dem User kaum einen Leistungsnachteil aber einen erheblichen Kostenvorteil.

Den Rest verkneif ich mir an einem 2. Adventstag.
 
Ned Flanders schrieb:
Einen erheblichen Kostenvorteil versuchst du hier als Nachteil zu verkaufen.
Nein, wo habe ich das gemacht, aber der Verkaufspreis hängt ja nun auch nicht alleine von den Herstellungskosten ab, die 8 Kern FX CPUs waren in der Herstellung sicher noch teurer, wurden aber trotzdem noch billiger verkauft als ihre RYZEN Nachfolger. Aber ich werden in den Satz das technisch einbauen, um es den Faktenverdrehern schwer zu machen.
 
lynx007 schrieb:
Und in welchen Anwendungsbereichen ist das von Nachteil bzw wieviel Geschwindigkeit büßt man dadurch ein?
Praktisch überall und das hängt vom Anwendungsprofil ab.

lynx007 schrieb:
Ist ein 32 Kern Threadripper für 1733€ jetzt langsamer als zb ein Intel Xeon mit 16 Kernen für den gleichen Preis?

Also hier scheint der Epyc sich auch als MCM sehr gut behaupten zu können.
Du hast explizit nach den Nachteilen gefragt.
 
@incurable

Quantifizier doch mal deine Aussage das man dadurch Nachteile hat. Wie groß ist denn der Nachteil sagen wir bei einem aktuellen Threadripper 2950X?

Wie groß ist denn der Vorteil wenn ich mich als User für Intels monolithisches Die entscheide?
 
Ned Flanders schrieb:
Die Ehrliche Antwort wäre eigentlich: Sie bringt dem User kaum einen Leistungsnachteil aber einen erheblichen Kostenvorteil.
Den Kostenvorteil bringt die Northbridge-Architektur mutmaßlich AMD. Dass die Preise für die Kunden im Serverbereich bestenfalls im Allerentferntesten etwas mit den Kosten der Hersteller zu tun hat, gilt für AMD im übrigen genauso wie für Intel.
Ergänzung ()

Ned Flanders schrieb:
@incurable

Quantifizier doch mal deine Aussage das man dadurch Nachteile hat. Wie groß ist denn der Nachteil sagen wir bei einem aktuellen Threadripper 2950X?

Wie groß ist denn der Vorteil wenn ich mich als User für Intels monolithisches Die entscheide?
Insufficient data.
 
Ned Flanders, schaffst du es nicht dir selbst Reviews rauszusuchen und die Ergebnisse der unterschiedlichen Benchmarks zu vergleichen oder willst du nur trollen?
 
incurable schrieb:
Insufficient data.

How come? Wenn man so gaggert wärs doch gut auch mal zu legen.

Ich würde auch annehmen, das in einem halbwegs funkionierenden Markt, ein günstiger Herstellungspreis zu einem günstigen Produkt führt.... nicht? Warum wird denn Intel ein vergleichbares Design bringen?

@Holt

Das Trollen überlass ich schon allein aus traditionsgründen und damit einhergehendem Respekt Dir, aber wenn du was konkretes Zeigen kannst, wo bei einem 2950x oder 2700x die aus dem CCX Design rührenden Latenzen ein Problem darstellen, dann her damit.
 
Holt schrieb:
Ned Flanders, schaffst du es nicht dir selbst Reviews rauszusuchen und die Ergebnisse der unterschiedlichen Benchmarks zu vergleichen oder willst du nur trollen?


Nein seine Frage ist absolut gerechtfertigt.

Du bringst immer wieder gerne den IF ins Spiel mit der Behauptung das die Inter-CCX Kommunikation daran schuld sei, dass die Spieleperformance bei Intel noch ein Quäntchen höher liegt. Es wurden aber schon genügend Benchmarks gemacht in dem die Inter CCX Kommunikation durch deaktivieren eines CCX eliminiert wurde, vor allem bei Spielen, welche sowieso keine großen Vorteile aus mehr als 4 Kernen ziehen und die Performance lag in der Messgenauigkeit von +-1%. Selbst wenn bei vollaktiviertem R7 die Threads zwischen den CCX hin und her springen, hat sich das nicht wirklich auf die Spieleleistung ausgewirkt. Auch dort war die Performance im Bereich +-1%.

Mehrere gute Testportale haben sich bei Zen+ erneut dem Thema gewidmet und sind zum gleichen Schluss gekommen. Der IF ist kein Problem bei Spielen, Intel zieht das mehr an Leistung ausschließlich aus dem höheren Takt den ihr durchoptimierter 14nm Prozess bietet.
 
  • Gefällt mir
Reaktionen: Ned Flanders
Ned Flanders schrieb:
Why would you ask me? You posed the question.

Ned Flanders schrieb:
Wenn man so gaggert wärs doch gut auch mal zu legen.
Verhälst Du Dich im echten Leben auch so freundlich?

Ned Flanders schrieb:
Ich würde auch annehmen, das in einem halbwegs funkionierenden Markt, ein günstiger Herstellungspreis zu einem günstigen Produkt führt.... nicht?
Klingt nach 1. Semester BWL.
 
Wenn du haben willst, suche es dir selbst raus. Außer dir scheint jeder zu wissen das es genug Beispiele gibt.
 
Nee das Problem ist grundsätzlich hier, dass du immer wieder als einziger hier im Forum Kritikpunkte anbringst bei bestimmten Produkten, die alle anderen als keine Kritikpunkte sehen.

Du sprichst von genügend Beispielen? Wo sind sie denn? Es gibt genügend Gegenbeispiele die sich genau dieser Thematik widmen.

Aber es ist meist ja völlig egal wer dir antwortet, du ziehst deine Behauptung durch bis zum Ende, völlig egal ob dir etliche Tech-Seiten widersprechen.

Du bist ja auch der einzige Spezialist der befürchtet das Zen2 bei der Singlethreadleistung langsamer als Zen+ ist. Auch so eine Behauptung bei der du ziemlich alleine stehst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ned Flanders
incurable schrieb:
Klingt nach 1. Semester BWL.

Viel schlimmer! 2009 promovierter Naturwissenschaftler. Wir neigen dazu die Welt übertrieben zu objektivieren. Zumindest hab ich berufsbedingt eine Allergie gegen das Verbreiten von nicht verifizierten Annahmen als Tatsache.

Quark beiseite, Du hast doch geschrieben das man "überall Geschwindigkeit einbüßt und die Höhe der einbußen lediglich vom Anwendungsprofil abhängt". Mach halt mal Butter bei die Fische und beleg das mit ein paar Daten. Der Effekt ist nämlich in den meisten Fällen zu vernachlässigend klein.
 
Ned Flanders schrieb:
Quark beiseite, Du hast doch geschrieben das man "überall Geschwindigkeit einbüßt und die Höhe der einbußen lediglich vom Anwendungsprofil abhängt". Mach halt mal Butter bei die Fische und beleg das mit ein paar Daten. Der Effekt ist nämlich in den meisten Fällen zu vernachlässigend klein.
Warum formulierst Du Deine Zustimmung als würdest Du mir widersprechen?

PS: Was Du da als mutmaßliches Zitat markiert hast, habe ich nicht geschrieben.
 
Schön, wir sind uns also einig das der Effekt zu vernachlässigen ist. Warum dann so einen Zauber drumm gemacht?
 
Also hier schneidet der Epyc scheinbar nicht so schlecht ab.
https://www.heise.de/newsticker/mel...c-vs-Xeon-SP-in-der-SPEC-CPU2017-3896842.html
Auch hier scheint man in Epyc nicht nur Nachteile zu sehen.
https://www.servethehome.com/amd-epyc-7551p-benchmarks-and-review-a-32-core-value-monster/4/
https://www.zdnet.com/article/epyc-one-year-on-and-amd-has-transformed-the-server-landscape/

Mehr erscheint es mir das Epyc überall nur gelobt wird... Mir will auch nicht in den Sinn welchen Nachteile MCM haben soll wo doch ein Barbone meistens sowieso 2 oder gar 4 sockel hat. Sprich selbst mit Monodies müssen bei Mehrsockelsystem dann Latenzen zurechtkommen....

Und lässt es sich in einer Anwendung nicht realisieren das sich Zeitkritische Elemente dann innerhalb eines Dies verarbeitet werden? Was machen Großrechner die aus Hunderten oder gar tausenden Sockeln arbeiten?

https://www.tomshardware.com/reviews/amd-ryzen-threadripper-2-vs-intel-skylake-x,5727.html
 
Zuletzt bearbeitet:
lynx007 schrieb:
nicht nur Nachteile zu sehen.
Hast du nichts zwischen Nur Nachteile und Nur Vorteile? Die Welt ist nicht schwarz weiß, auch wenn manche es immer so hinstellen wollen.
 
Man kämpft hier halt primär gegen ein Ökosystem und nicht nur gegen einen Hersteller. Das System hat sich seit Jahrzehnten so eingeschlichen und der Desktop wird nicht von jetzt auf gleich alles auch für ARM anbieten. Die einzige Möglichkeit, die ARM in meinen Augen bleibt, ist weiter auf die Verlagerung der wichtigsten Dinge in den Browser zu warten. Da arbeiten auch Unternehmen wie Google dran und man könnte hier Nutznießer sein. Ohne große Allianz wird man das x86 Monopol im User-Markt nicht aufbrechen können, dazu ist das schon zu etabliert. Dabei gefällt mir die ARM Architektur eigentlich sehr gut, für alles kleine special function units und auch das 3-Register-Design im ASM beschleunigt die Verarbeitung doch ganz gut. Aber solange ich meine Software nicht weiter nutzen kann, passiert hier erst mal nix :D

Edit: Oh boy, ich hätte mir die Kommentare mal vorher an tun sollen, irgendwie wirkt mein Post dazwischen voll Off-Topic xD
 
Zuletzt bearbeitet:
Zurück
Oben