News Neue Acht-Modul-Opteron „Warsaw“ bei Händlern gelistet

Ich denke dass AMD eher beide Sockel mit FM3 zusammenführen wird.
 
Halte ich auch für wahrschienlich, ist auch wirtschaftlich eher sinnvoll. Da müssten weniger unterschiedliche Chipsätze produziert werden usw usf. Außerdem wäre dann die Gesamtauswahl an Mainboards größer.
 
AMINDIA schrieb:
...dann aber nicht für AM3+, sonder wohl AM4 und PCI-3.0 und DDR4...

Effe schrieb:
...AMD bringt es nichts, jetzt Steamroller-CPUs auf DDR3-Plattformen zu veröffentlichen, da DDR4 vor der Tür steht...

Es soll ja schon CPU´s gegeben haben, die mit einem dualen Memory Controller ausgestattet wurden.

Ich sag mal, die Hoffnung stirbt zuletzt. ;)
 
Herdware schrieb:
Was dieses Support-Dokument angeht, da ist von "Compute Units" ("CU") die Rede. Wenn ich danach



CUs haben 2 Core bei AMD. Sprich: 8 CUs / 16 Cores

Das Bild sagt ja schon bereits: 8 CUs am SRI vor XBAR ...

Die News an sich hinkt eine ganze Woche nach... das Dokument gibt es ja von AMD schon weitaus länger.


Ich gehe davon aus, dass AMD eine große DIE raus knallt ( ~400mm² + )
Wirtschaftlich auch ok + ( Teil Deaktivierte ebenfalls und ab dafür :) )
 
Zuletzt bearbeitet:
an dieser Stelle mal ne (aus eurer Sicht vermutlich ziemlich dumme) Frage:
Wäre es nicht billiger die ServerProzessoren im Bulk Verfahren herzustellen, mit entsprechend mehr Transistoren als der Takt gesenkt werden würde? Bei den Opterons wärs ja eig. völlig wurscht, da kommts oftmals auf Gesamtleistung und nur Selten auf Leistung pro Kern an.
 
Das ginge schon alles. Aber um einen wirklich gut skalierenden Prozessor zu haben, müsste man wohl die komplette Architektur umstellen. Man könnte ja durchaus ein Design entwickeln, dass bei ~2Ghz seinen Sweetspot hat, der aktuell eher irgendwo kurz vor 4Ghz liegt.
Aber so könnte man wohl kaum einfach ein aktuelles Design nehmen und einfach anders fertigen.
Kaveri zeigt ja, dass die Packungsdichte von 32 auf 28nm extrem gestiegen ist. Nur, ob man mit immer mehr Transistoren auch in einem ordentlichen Verhältnis schnellere CPUs bauen kann, weiß ich nicht :D
 
Wir haben hier u.a. auch noch Systeme mit einigermaßen aktuellen Valancia-Opterons auf Dual-CPU-Boards mit 2x Sockel C32 - da laufen 16 Threads und DDR 1600 ECC ohne Probleme. Die Crux sind allerdings die hornalten Chipsätze, weil es bei allen SATAII-Anschlüssen sogar Probleme mit aktuellen HDDs gibt. Ohne Zusatzkarte läuft da momentan nichts performat und stabil, weil die Chipsätze einfach nichts mehr taugen. Die integrierte Grafik ist zwar ein Lacher, reicht aber für den Serverbetrieb. So schlecht sind die Valencias ja gar nicht, da es auch einige wenige Anwendungen gibt, auf denen die recht gut skalierten. Trotzdem werden diese Systeme auch bei uns Schritt für Schritt ersetzt, wenn buchhalterisch die Zeit dafür reif ist.
 
Bei mir läuft nen Dual-G34-Sockelsystem.
Die SSD dran läuft problemlos und das unter Boinc-Dauerstress...
 
[F]L4SH schrieb:
Kaveri zeigt ja, dass die Packungsdichte von 32 auf 28nm extrem gestiegen ist. Nur, ob man mit immer mehr Transistoren auch in einem ordentlichen Verhältnis schnellere CPUs bauen kann, weiß ich nicht :D

Nicht wirklich vergleichbar. GPUs kannst du quetschen wie Hölle, sh. AMDs reine Grafikchips in Form von Hawaii mit 6,2 Mrd. Transis auf nur 438 mm². Nimmst du das als Parallele zu Kaveri, ist Kaveri nicht mehr so prall. 2,4 Mrd. Transistoren auf bereits 246 mm² entspricht 38% der Transistoren von Hawaii auf 56% der Fläche im Vergleich zu Hawaii. Da zeigt sich bereits der Einfluss des CPU-Parts. Eine reine CPU wäre am Ende noch viel schlechter was die Packungsdichte anbelangt, und L3-Cache brauchst du ja auch noch eine Unmenge, denn weniger wird es kaum werden. Nicht umsonst ist AMD in der Vergangenheit auch immer durch riesige CPU-Dies aufgefallen - denn so einfach ist das alles nicht, wie man anhand von diesen Milchmädchenrechnungen denken könnte.
 
Wobei rießige CPU Dies ja nichts grundauf schlechtes sind, da verteilt sich (laut meiner Milchmädchenrechnung^^) die wärme besser
 
@Herdware
Schau mal kabini an und die Konsolen da werden 4 CPU Kearne als CU verkauft, zudem im dokument wo das bild her kommt ist CU als Bulldozer (als Familie/ nicht erste implementation davon) modul definiert also muss man nicht rum Raten was CU meint in dem Dokument.
 
Volker schrieb:
2,4 Mrd. Transistoren auf bereits 246 mm² entspricht 38% der Transistoren von Hawaii auf 56% der Fläche im Vergleich zu Hawaii. Da zeigt sich bereits der Einfluss des CPU-Parts. Eine reine CPU wäre am Ende noch viel schlechter was die Packungsdichte anbelangt, und L3-Cache brauchst du ja auch noch eine Unmenge, denn weniger wird es kaum werden.

Die Frage ist auch: Wie korrekt die Angabe über die 2,4 Mrd. Transistoren ist? Bei näherer Betrachtung glaub ich da nicht dran, dass die Zahl korrekt ist. Ein Cape Verde hat gerade mal 1,5 Mrd. Transistoren. Wenn man jetzt bei Kaveri großzügig rechnen würde blieben noch >1 Mrd. Transistoren für den nicht GPU-Anteil (~130mm²) übrig. Damit hätte man immer noch eine höhere Packdichte als Intel mit ihren 22nm FinFET Node. Eher unwahrscheinlich, da die High Density Libraries erst bei Excavator zum Einsatz kommen werden. Beim Bulldozer hat die PR Abteilung auch erst von 2 Mrd. Transistoren gesprochen, später wurde die Zahl auf 1,2 Mrd. korrigiert.

Oromis schrieb:
Wobei rießige CPU Dies ja nichts grundauf schlechtes sind, da verteilt sich (laut meiner Milchmädchenrechnung^^) die wärme besser

Irrelevant, bei einer GPU bekommt man das Zweifache an W/mm² gekühlt im Vergleich zu einer CPU.

Viel wichtiger sind die Kosten. Intel hat einen Fertigungsvorteil. AMD kann also gar nicht über Performance/Watt punkten. Also muß man billiger sein als Intel, dazu braucht man aber kleine Chips. Einen nativen 8 Modul Chip gibt es wenn überhaupt im 20nm Node, da man dort bei ~300mm² wäre, was wirtschaftlich noch vertretbar wäre.

Nehmen wir mal Intel mit 22nm als Vergleich:
Ivy 10 Kern Version mit 25MB L3-Cache braucht 346,5mm²

10 Intel Ivy Kerne sind von der Fläche kleiner als 5 Module (jeweils ohne L2 Cache). Bei AMDs Architektur hat jedes Modul 2 MB L2 Cache bei 8 Modulen wäre man also bei 16MB L2 und wenn man sich am Bulldozer orientiert kämen also noch 16MB L3 Cache hinzu. Man wäre also grob gerechnet bei über 430mm² für eine 8 Modul CPU in 28nm SHP. Das lohnt sich nicht. Erst recht nicht wenn Intel demnächst mit DDR4 Support im Server-Segment um die Ecke kommt.
 
N.t.H. schrieb:
Leute die noch einen alten Serveruntersatz von 2010 haben :evillol:

Was wohl gar nicht so wenige sind...

Folglich gibt es auch 2014 kein USB 3.0, kein SATA mit 6 Gbit/s und die PCI-Express-Unterstützung bleibt ebenfalls beim Standard 2.0.
Alles nicht weiter tragisch, USB nutzt am Server eh kaum einer, SATA läuft sowieso über nen extra SAS Controller und PCIe 2.0 reicht da auch aus. :D
 
@ Gummert und ONH
Nach dem, was Matzegr aus dem AMD-Dokument zitiert hat, denke ich jetzt auch, dass es sich wahrscheinlich um CPU-Module handelt.

Aber für mich ist es wirklich das erste mal, dass ich ein AMD-Dokument gelesen habe, in dem mit CU/"Compute Unit" nicht die Shader-Cluster einer GCN-GPU gemeint sind.

Dass auch schon bei den Jaguar-basierten APUs im Zusammenhang mit der CPU von CUs die Rede ist (ich glaube das jetzt einfach mal so, ohne es nachzuprüfen), macht es eher nur noch verwirrender. Denn wenn AMD bei der Bulldozer-Architektur mit CU ein komplettes CPU-Modul (mit zwei Cores) bezeichnet, was ist dann bei den Jaguar-APUs eine CU? Die haben ja gar keine Module sondern einzelne Cores. Werden da willkürlich Cores zusammengezählt?

Unterm Strich heißt das wohl, dass mit "Compute Unit" wirklich alles mögliche gemeint sein kann. Eine Untereinheit der GPU (Shader-Cluster), ein CPU-Modul (2 Cores mit geteilten Ressourcen), oder auch einzelne CPU-Cores, oder gar zwei (oder mehr?) unabhängige CPU-Cores, die mal eben zusammengerechnet werden.

Ich finde also schon, dass man da spekulieren kräftig muss, was gemeint sein könnte, wenn irgendwo von CUs die Rede ist. Es sei denn, es ergibt sich klar aus dem Zusammenhang.
 
Zuletzt bearbeitet:
wie schon gesagt wurde fehlende Sata und USB Unterstützung im Serversegment ist sicher nicht das große Problem, das aber die Leistung gegenüber Intel fehlt bzw. die Spanne immer größer wird, langsam schon.
Da hilft langsam auch der super Preis nichts mehr - schade...
 
Herdware schrieb:
Was dieses Support-Dokument angeht, da ist von "Compute Units" ("CU") die Rede. Wenn ich danach google, dann benutzt AMD diese Bezeichnung eigentlich immer nur für Shader-Cluster von (GCN-)GPUs, nicht für CPU-Cores.

Ich denke AMD abstrahiert diese Begriffe absichtlich so stark.
Das macht für die Ausrichtung der zukünftigen Produktpalette nicht nur Sinn, sondern ist IMHO sogar notwendig.
Wenn HSA und hUMA irgendwann mal laufen und es auch Software dafür gibt, wird den User nur noch interessieren wie viele Recheneinheiten er zur Verfügung hat und nicht ob das CPU oder GPU Einheiten sind.

Bin mir ziemlich sicher dass AMD bald nur noch "Recheneinheiten" haben wird. Die spalten sich dann eben in x86/x64 Units, ARM Units und GPU Units auf. Und dann wird jede Aufgabe in dem Bereich ausgeführt für den sie am besten geeignet ist.
 
@DocWindows
Da hast du recht.
Ich bin eigentlich auch der Ansicht, dass z.B. Cores zu "zählen" heutzutage auch weitgehend sinnlos geworden ist. Die Grenzen was ein Core ist und was nicht verschwimmen eh schon durch Techniken wie die CMT oder Hyperthreading und bei APUs (und HSA) wird es noch komplizierter. Letztlich sind es am Ende die Threads, die zählen. Wobei man dann doch schon recht tief in die Eigenheiten der jeweiligen Architektur einsteigen muss, um abzuschätzen, was für eine Rechenleistung am Ende bei verschiedener Thread-Auslastung letztlich zu erwarten ist.

So richtig relevant ist das aber nur für Programmierer oder halt auch Leute, die sich "privat" für das Innenleben von Hardware interessieren (Hobbyisten). Für den normalen Anwender zählen am Ende nur die Leistungswerte, die hinten raus kommen. Nicht von wieviel "echten" Cores die geleistet wurden und ob diese Cores nun der CPU oder der GPU zuzuordnen sind.

Aber hier wird dann ja doch eben genau über sowas spekuliert. Eine APU mit 8 GPU-CUs gibts schon. Das ist der normale Kaveri-Vollausbau. Eine APU oder klassische CPU mit 8 CPU-Modulen (16 CPU-Cores) und PCIe3.0 usw. wäre aber schon was neues/besonderes.
 
Also die haben sich Stromverbrauchstechnisch doch (im Normalsegment) sehr gebessert. Weit genug um Intel nahe zu kommen und selten zu überholen.
 
Herdware schrieb:
Dass auch schon bei den Jaguar-basierten APUs im Zusammenhang mit der CPU von CUs die Rede ist (ich glaube das jetzt einfach mal so, ohne es nachzuprüfen), macht es eher nur noch verwirrender. Denn wenn AMD bei der Bulldozer-Architektur mit CU ein komplettes CPU-Modul (mit zwei Cores) bezeichnet, was ist dann bei den Jaguar-APUs eine CU? Die haben ja gar keine Module sondern einzelne Cores. Werden da willkürlich Cores zusammengezählt?
http://m.3dcenter.org/dateien/abbildungen/AMD-Jaguar-Presentation-Slide05.jpg
Hier zum Bsp., ob das in der doku auch so ist habe ich nicht geprüft.

AMD hat für alle Recheneinheiten eine kleinste Einheit definiert, und diese nennt sich CU, welche der Kunde so auf sein Semicostom Chip integrieren lassen kann.
 
Zuletzt bearbeitet:
Zurück
Oben