Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Neue Acht-Modul-Opteron „Warsaw“ bei Händlern gelistet
- Ersteller Volker
- Erstellt am
- Zur News: Neue Acht-Modul-Opteron „Warsaw“ bei Händlern gelistet
WarumAuchNicht
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.744
AMINDIA schrieb:...dann aber nicht für AM3+, sonder wohl AM4 und PCI-3.0 und DDR4...
Effe schrieb:...AMD bringt es nichts, jetzt Steamroller-CPUs auf DDR3-Plattformen zu veröffentlichen, da DDR4 vor der Tür steht...
Es soll ja schon CPU´s gegeben haben, die mit einem dualen Memory Controller ausgestattet wurden.
Ich sag mal, die Hoffnung stirbt zuletzt.
G
Gummert
Gast
Herdware schrieb:Was dieses Support-Dokument angeht, da ist von "Compute Units" ("CU") die Rede. Wenn ich danach
CUs haben 2 Core bei AMD. Sprich: 8 CUs / 16 Cores
Das Bild sagt ja schon bereits: 8 CUs am SRI vor XBAR ...
Die News an sich hinkt eine ganze Woche nach... das Dokument gibt es ja von AMD schon weitaus länger.
Ich gehe davon aus, dass AMD eine große DIE raus knallt ( ~400mm² + )
Wirtschaftlich auch ok + ( Teil Deaktivierte ebenfalls und ab dafür )
Zuletzt bearbeitet:
Oromis
Lt. Commander
- Registriert
- Dez. 2011
- Beiträge
- 1.999
an dieser Stelle mal ne (aus eurer Sicht vermutlich ziemlich dumme) Frage:
Wäre es nicht billiger die ServerProzessoren im Bulk Verfahren herzustellen, mit entsprechend mehr Transistoren als der Takt gesenkt werden würde? Bei den Opterons wärs ja eig. völlig wurscht, da kommts oftmals auf Gesamtleistung und nur Selten auf Leistung pro Kern an.
Wäre es nicht billiger die ServerProzessoren im Bulk Verfahren herzustellen, mit entsprechend mehr Transistoren als der Takt gesenkt werden würde? Bei den Opterons wärs ja eig. völlig wurscht, da kommts oftmals auf Gesamtleistung und nur Selten auf Leistung pro Kern an.
[F]L4SH
Rear Admiral
- Registriert
- Aug. 2008
- Beiträge
- 5.315
Das ginge schon alles. Aber um einen wirklich gut skalierenden Prozessor zu haben, müsste man wohl die komplette Architektur umstellen. Man könnte ja durchaus ein Design entwickeln, dass bei ~2Ghz seinen Sweetspot hat, der aktuell eher irgendwo kurz vor 4Ghz liegt.
Aber so könnte man wohl kaum einfach ein aktuelles Design nehmen und einfach anders fertigen.
Kaveri zeigt ja, dass die Packungsdichte von 32 auf 28nm extrem gestiegen ist. Nur, ob man mit immer mehr Transistoren auch in einem ordentlichen Verhältnis schnellere CPUs bauen kann, weiß ich nicht
Aber so könnte man wohl kaum einfach ein aktuelles Design nehmen und einfach anders fertigen.
Kaveri zeigt ja, dass die Packungsdichte von 32 auf 28nm extrem gestiegen ist. Nur, ob man mit immer mehr Transistoren auch in einem ordentlichen Verhältnis schnellere CPUs bauen kann, weiß ich nicht
Dr.Schiwago
Lt. Junior Grade
- Registriert
- Aug. 2011
- Beiträge
- 446
Wir haben hier u.a. auch noch Systeme mit einigermaßen aktuellen Valancia-Opterons auf Dual-CPU-Boards mit 2x Sockel C32 - da laufen 16 Threads und DDR 1600 ECC ohne Probleme. Die Crux sind allerdings die hornalten Chipsätze, weil es bei allen SATAII-Anschlüssen sogar Probleme mit aktuellen HDDs gibt. Ohne Zusatzkarte läuft da momentan nichts performat und stabil, weil die Chipsätze einfach nichts mehr taugen. Die integrierte Grafik ist zwar ein Lacher, reicht aber für den Serverbetrieb. So schlecht sind die Valencias ja gar nicht, da es auch einige wenige Anwendungen gibt, auf denen die recht gut skalierten. Trotzdem werden diese Systeme auch bei uns Schritt für Schritt ersetzt, wenn buchhalterisch die Zeit dafür reif ist.
- Registriert
- Juni 2001
- Beiträge
- 18.736
[F]L4SH schrieb:Kaveri zeigt ja, dass die Packungsdichte von 32 auf 28nm extrem gestiegen ist. Nur, ob man mit immer mehr Transistoren auch in einem ordentlichen Verhältnis schnellere CPUs bauen kann, weiß ich nicht
Nicht wirklich vergleichbar. GPUs kannst du quetschen wie Hölle, sh. AMDs reine Grafikchips in Form von Hawaii mit 6,2 Mrd. Transis auf nur 438 mm². Nimmst du das als Parallele zu Kaveri, ist Kaveri nicht mehr so prall. 2,4 Mrd. Transistoren auf bereits 246 mm² entspricht 38% der Transistoren von Hawaii auf 56% der Fläche im Vergleich zu Hawaii. Da zeigt sich bereits der Einfluss des CPU-Parts. Eine reine CPU wäre am Ende noch viel schlechter was die Packungsdichte anbelangt, und L3-Cache brauchst du ja auch noch eine Unmenge, denn weniger wird es kaum werden. Nicht umsonst ist AMD in der Vergangenheit auch immer durch riesige CPU-Dies aufgefallen - denn so einfach ist das alles nicht, wie man anhand von diesen Milchmädchenrechnungen denken könnte.
think->write!
Lt. Commander
- Registriert
- Mai 2008
- Beiträge
- 1.156
@Herdware
Schau mal kabini an und die Konsolen da werden 4 CPU Kearne als CU verkauft, zudem im dokument wo das bild her kommt ist CU als Bulldozer (als Familie/ nicht erste implementation davon) modul definiert also muss man nicht rum Raten was CU meint in dem Dokument.
Schau mal kabini an und die Konsolen da werden 4 CPU Kearne als CU verkauft, zudem im dokument wo das bild her kommt ist CU als Bulldozer (als Familie/ nicht erste implementation davon) modul definiert also muss man nicht rum Raten was CU meint in dem Dokument.
Matzegr
Commander
- Registriert
- Jan. 2011
- Beiträge
- 2.628
Volker schrieb:2,4 Mrd. Transistoren auf bereits 246 mm² entspricht 38% der Transistoren von Hawaii auf 56% der Fläche im Vergleich zu Hawaii. Da zeigt sich bereits der Einfluss des CPU-Parts. Eine reine CPU wäre am Ende noch viel schlechter was die Packungsdichte anbelangt, und L3-Cache brauchst du ja auch noch eine Unmenge, denn weniger wird es kaum werden.
Die Frage ist auch: Wie korrekt die Angabe über die 2,4 Mrd. Transistoren ist? Bei näherer Betrachtung glaub ich da nicht dran, dass die Zahl korrekt ist. Ein Cape Verde hat gerade mal 1,5 Mrd. Transistoren. Wenn man jetzt bei Kaveri großzügig rechnen würde blieben noch >1 Mrd. Transistoren für den nicht GPU-Anteil (~130mm²) übrig. Damit hätte man immer noch eine höhere Packdichte als Intel mit ihren 22nm FinFET Node. Eher unwahrscheinlich, da die High Density Libraries erst bei Excavator zum Einsatz kommen werden. Beim Bulldozer hat die PR Abteilung auch erst von 2 Mrd. Transistoren gesprochen, später wurde die Zahl auf 1,2 Mrd. korrigiert.
Oromis schrieb:Wobei rießige CPU Dies ja nichts grundauf schlechtes sind, da verteilt sich (laut meiner Milchmädchenrechnung^^) die wärme besser
Irrelevant, bei einer GPU bekommt man das Zweifache an W/mm² gekühlt im Vergleich zu einer CPU.
Viel wichtiger sind die Kosten. Intel hat einen Fertigungsvorteil. AMD kann also gar nicht über Performance/Watt punkten. Also muß man billiger sein als Intel, dazu braucht man aber kleine Chips. Einen nativen 8 Modul Chip gibt es wenn überhaupt im 20nm Node, da man dort bei ~300mm² wäre, was wirtschaftlich noch vertretbar wäre.
Nehmen wir mal Intel mit 22nm als Vergleich:
Ivy 10 Kern Version mit 25MB L3-Cache braucht 346,5mm²
10 Intel Ivy Kerne sind von der Fläche kleiner als 5 Module (jeweils ohne L2 Cache). Bei AMDs Architektur hat jedes Modul 2 MB L2 Cache bei 8 Modulen wäre man also bei 16MB L2 und wenn man sich am Bulldozer orientiert kämen also noch 16MB L3 Cache hinzu. Man wäre also grob gerechnet bei über 430mm² für eine 8 Modul CPU in 28nm SHP. Das lohnt sich nicht. Erst recht nicht wenn Intel demnächst mit DDR4 Support im Server-Segment um die Ecke kommt.
S
SB1888
Gast
N.t.H. schrieb:Leute die noch einen alten Serveruntersatz von 2010 haben
Was wohl gar nicht so wenige sind...
Alles nicht weiter tragisch, USB nutzt am Server eh kaum einer, SATA läuft sowieso über nen extra SAS Controller und PCIe 2.0 reicht da auch aus.Folglich gibt es auch 2014 kein USB 3.0, kein SATA mit 6 Gbit/s und die PCI-Express-Unterstützung bleibt ebenfalls beim Standard 2.0.
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.897
@ Gummert und ONH
Nach dem, was Matzegr aus dem AMD-Dokument zitiert hat, denke ich jetzt auch, dass es sich wahrscheinlich um CPU-Module handelt.
Aber für mich ist es wirklich das erste mal, dass ich ein AMD-Dokument gelesen habe, in dem mit CU/"Compute Unit" nicht die Shader-Cluster einer GCN-GPU gemeint sind.
Dass auch schon bei den Jaguar-basierten APUs im Zusammenhang mit der CPU von CUs die Rede ist (ich glaube das jetzt einfach mal so, ohne es nachzuprüfen), macht es eher nur noch verwirrender. Denn wenn AMD bei der Bulldozer-Architektur mit CU ein komplettes CPU-Modul (mit zwei Cores) bezeichnet, was ist dann bei den Jaguar-APUs eine CU? Die haben ja gar keine Module sondern einzelne Cores. Werden da willkürlich Cores zusammengezählt?
Unterm Strich heißt das wohl, dass mit "Compute Unit" wirklich alles mögliche gemeint sein kann. Eine Untereinheit der GPU (Shader-Cluster), ein CPU-Modul (2 Cores mit geteilten Ressourcen), oder auch einzelne CPU-Cores, oder gar zwei (oder mehr?) unabhängige CPU-Cores, die mal eben zusammengerechnet werden.
Ich finde also schon, dass man da spekulieren kräftig muss, was gemeint sein könnte, wenn irgendwo von CUs die Rede ist. Es sei denn, es ergibt sich klar aus dem Zusammenhang.
Nach dem, was Matzegr aus dem AMD-Dokument zitiert hat, denke ich jetzt auch, dass es sich wahrscheinlich um CPU-Module handelt.
Aber für mich ist es wirklich das erste mal, dass ich ein AMD-Dokument gelesen habe, in dem mit CU/"Compute Unit" nicht die Shader-Cluster einer GCN-GPU gemeint sind.
Dass auch schon bei den Jaguar-basierten APUs im Zusammenhang mit der CPU von CUs die Rede ist (ich glaube das jetzt einfach mal so, ohne es nachzuprüfen), macht es eher nur noch verwirrender. Denn wenn AMD bei der Bulldozer-Architektur mit CU ein komplettes CPU-Modul (mit zwei Cores) bezeichnet, was ist dann bei den Jaguar-APUs eine CU? Die haben ja gar keine Module sondern einzelne Cores. Werden da willkürlich Cores zusammengezählt?
Unterm Strich heißt das wohl, dass mit "Compute Unit" wirklich alles mögliche gemeint sein kann. Eine Untereinheit der GPU (Shader-Cluster), ein CPU-Modul (2 Cores mit geteilten Ressourcen), oder auch einzelne CPU-Cores, oder gar zwei (oder mehr?) unabhängige CPU-Cores, die mal eben zusammengerechnet werden.
Ich finde also schon, dass man da spekulieren kräftig muss, was gemeint sein könnte, wenn irgendwo von CUs die Rede ist. Es sei denn, es ergibt sich klar aus dem Zusammenhang.
Zuletzt bearbeitet:
Waelder
Commander
- Registriert
- Juli 2012
- Beiträge
- 2.704
wie schon gesagt wurde fehlende Sata und USB Unterstützung im Serversegment ist sicher nicht das große Problem, das aber die Leistung gegenüber Intel fehlt bzw. die Spanne immer größer wird, langsam schon.
Da hilft langsam auch der super Preis nichts mehr - schade...
Da hilft langsam auch der super Preis nichts mehr - schade...
DocWindows
Vice Admiral
- Registriert
- Mai 2013
- Beiträge
- 6.809
Herdware schrieb:Was dieses Support-Dokument angeht, da ist von "Compute Units" ("CU") die Rede. Wenn ich danach google, dann benutzt AMD diese Bezeichnung eigentlich immer nur für Shader-Cluster von (GCN-)GPUs, nicht für CPU-Cores.
Ich denke AMD abstrahiert diese Begriffe absichtlich so stark.
Das macht für die Ausrichtung der zukünftigen Produktpalette nicht nur Sinn, sondern ist IMHO sogar notwendig.
Wenn HSA und hUMA irgendwann mal laufen und es auch Software dafür gibt, wird den User nur noch interessieren wie viele Recheneinheiten er zur Verfügung hat und nicht ob das CPU oder GPU Einheiten sind.
Bin mir ziemlich sicher dass AMD bald nur noch "Recheneinheiten" haben wird. Die spalten sich dann eben in x86/x64 Units, ARM Units und GPU Units auf. Und dann wird jede Aufgabe in dem Bereich ausgeführt für den sie am besten geeignet ist.
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.897
@DocWindows
Da hast du recht.
Ich bin eigentlich auch der Ansicht, dass z.B. Cores zu "zählen" heutzutage auch weitgehend sinnlos geworden ist. Die Grenzen was ein Core ist und was nicht verschwimmen eh schon durch Techniken wie die CMT oder Hyperthreading und bei APUs (und HSA) wird es noch komplizierter. Letztlich sind es am Ende die Threads, die zählen. Wobei man dann doch schon recht tief in die Eigenheiten der jeweiligen Architektur einsteigen muss, um abzuschätzen, was für eine Rechenleistung am Ende bei verschiedener Thread-Auslastung letztlich zu erwarten ist.
So richtig relevant ist das aber nur für Programmierer oder halt auch Leute, die sich "privat" für das Innenleben von Hardware interessieren (Hobbyisten). Für den normalen Anwender zählen am Ende nur die Leistungswerte, die hinten raus kommen. Nicht von wieviel "echten" Cores die geleistet wurden und ob diese Cores nun der CPU oder der GPU zuzuordnen sind.
Aber hier wird dann ja doch eben genau über sowas spekuliert. Eine APU mit 8 GPU-CUs gibts schon. Das ist der normale Kaveri-Vollausbau. Eine APU oder klassische CPU mit 8 CPU-Modulen (16 CPU-Cores) und PCIe3.0 usw. wäre aber schon was neues/besonderes.
Da hast du recht.
Ich bin eigentlich auch der Ansicht, dass z.B. Cores zu "zählen" heutzutage auch weitgehend sinnlos geworden ist. Die Grenzen was ein Core ist und was nicht verschwimmen eh schon durch Techniken wie die CMT oder Hyperthreading und bei APUs (und HSA) wird es noch komplizierter. Letztlich sind es am Ende die Threads, die zählen. Wobei man dann doch schon recht tief in die Eigenheiten der jeweiligen Architektur einsteigen muss, um abzuschätzen, was für eine Rechenleistung am Ende bei verschiedener Thread-Auslastung letztlich zu erwarten ist.
So richtig relevant ist das aber nur für Programmierer oder halt auch Leute, die sich "privat" für das Innenleben von Hardware interessieren (Hobbyisten). Für den normalen Anwender zählen am Ende nur die Leistungswerte, die hinten raus kommen. Nicht von wieviel "echten" Cores die geleistet wurden und ob diese Cores nun der CPU oder der GPU zuzuordnen sind.
Aber hier wird dann ja doch eben genau über sowas spekuliert. Eine APU mit 8 GPU-CUs gibts schon. Das ist der normale Kaveri-Vollausbau. Eine APU oder klassische CPU mit 8 CPU-Modulen (16 CPU-Cores) und PCIe3.0 usw. wäre aber schon was neues/besonderes.
Dario
Captain
- Registriert
- Mai 2008
- Beiträge
- 3.290
Für mich steht die Frage im Raum, ob AMD es hinbekommt eine neue Architektur zu schaffen, welche nicht nur schnell sondern auch stromsparend ist.
Hier siehts für AMD auch schlecht aus, weshalb ich mir ebenfalls gut vorstellen könnte, daß sie die Fahne streichen.
Hier siehts für AMD auch schlecht aus, weshalb ich mir ebenfalls gut vorstellen könnte, daß sie die Fahne streichen.
think->write!
Lt. Commander
- Registriert
- Mai 2008
- Beiträge
- 1.156
http://m.3dcenter.org/dateien/abbildungen/AMD-Jaguar-Presentation-Slide05.jpgHerdware schrieb:Dass auch schon bei den Jaguar-basierten APUs im Zusammenhang mit der CPU von CUs die Rede ist (ich glaube das jetzt einfach mal so, ohne es nachzuprüfen), macht es eher nur noch verwirrender. Denn wenn AMD bei der Bulldozer-Architektur mit CU ein komplettes CPU-Modul (mit zwei Cores) bezeichnet, was ist dann bei den Jaguar-APUs eine CU? Die haben ja gar keine Module sondern einzelne Cores. Werden da willkürlich Cores zusammengezählt?
Hier zum Bsp., ob das in der doku auch so ist habe ich nicht geprüft.
AMD hat für alle Recheneinheiten eine kleinste Einheit definiert, und diese nennt sich CU, welche der Kunde so auf sein Semicostom Chip integrieren lassen kann.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 18
- Aufrufe
- 6.089
- Antworten
- 269
- Aufrufe
- 22.696
- Antworten
- 91
- Aufrufe
- 9.029