News AMDs 64-Bit-ARM-Server-Prozessor ab März als Sample

Dr. MaRV schrieb:
Ich versteh den ganzen Wattwahn nicht. RZ-Betreiber haben mitunter ihre eigenen Kraftwerke und die müssen auch ausgelastet sein. Ich kenne keinen RZ Betreiber den irgendwelche Verbräuche stören, haben sie kein eigenes Kraftwerk, haben sie gute Lieferverträge mit dem Energieversorger ihres Vertrauens. Verbauchen sie weniger als Vereinbart wird es teuer, siehe Microsoft. Um Stromverbrauch machen sich nur Selbstständige und Mittelständler sorgen, die einen 10 m² Raum mit 2 Rackservern und vielleicht ein paar TB Speicher ein RZ nennen. Und was in Großrechnern zum Einsatz kommt um Rekorde zu brechen wissen wir auch alle, häufig X86 kombiniert mit GPUs.

Ich würde die Entwicklung abwarten, bevor ich große Prognosen abgebe, vor allem wenn ich AMD heiße.

IMHO kriegt man nicht mehr als 42KW aus einem 19" Rack raus.
 
Es geht nicht nur um die Effizienz der Prozessoren. Es geht auch um die Kühlung als solches. Wer weiß, was eine starke Klimatisierung überhaupt kostet.
 
Dr. MaRV schrieb:
Ich versteh den ganzen Wattwahn nicht. RZ-Betreiber haben mitunter ihre eigenen Kraftwerke und die müssen auch ausgelastet sein. Ich kenne keinen RZ Betreiber den irgendwelche Verbräuche stören, haben sie kein eigenes Kraftwerk, haben sie gute Lieferverträge mit dem Energieversorger ihres Vertrauens. Verbauchen sie weniger als Vereinbart wird es teuer, siehe Microsoft. Um Stromverbrauch machen sich nur Selbstständige und Mittelständler sorgen, die einen 10 m² Raum mit 2 Rackservern und vielleicht ein paar TB Speicher ein RZ nennen. Und was in Großrechnern zum Einsatz kommt um Rekorde zu brechen wissen wir auch alle, häufig X86 kombiniert mit GPUs.

Ich würde die Entwicklung abwarten, bevor ich große Prognosen abgebe, vor allem wenn ich AMD heiße.

Natürlich ist den RZ-Betreibern auch der Verbrauch wichtig. Wenn ich bei selben Verbrauch mehr Server anbieten, man könnte sagen Server/kW, kann kann ich damit natürlich bei gleichen Kosten mehr Geld verdienen. ;)
 
Krautmaster schrieb:
Im Prinzip muss man dann eher Silvermont dagegen stellen bzw. der Avoton 8Kern bei 20W (deutlich weniger real). Intel hat mit X86 teils ARM schon getoppt bezüglich Effizienz. Geht ein 50+ Kern Knights Landing nicht in dieselbe Richtung, aber noch kompakter? Viele Kerne und Fokus auf max Perf/W bei hochparalleln Aufgaben.

Intels Konkurrenz ist eher ARM selbst als AMD, bzw da gibts größere, marktbeherrschende Konkurrenz bei denen Intel der kleine Player ist. Da wird sich zeigen wie sich X86 bei 0-3W macht - vor wenigen Jahren undenkbar.

Jo, dann muss man aber auch die verdammt gute Fertigungsmöglichkeit bei intel berücksichtigen, die ist nunmal besser und erlaubt effizientere Chips, damit kann man halt kaschieren, dass ein gleichwertiger x86 in gleicher Strukturbreite wie ein ARM dennoch mehr Strom verbraucht.

Aber ist auch egal, wichtig ist das, was am Ende rauskommt.
 
Krautmaster schrieb:
was alle immer mit "APU" haben ^^ ein total überladeter Marketingbegriff. Ne APU ist auch nichts anderes wie relativ mächtige CPU Kerne (seis X86 oder ARM Kerne) + ne GPU die eher hoch-parallele, dafür weniger komplexe Aufgaben übernehmen kann.
Das is heute auch nicht groß anders wenn man in Supercomputern auch nicht ausschließlich GPUs betreibt sondern immer zusammen mit CPU.

Sry, aber ich bekomme nicht in das Gefühl als ob du den Vorteil der APU verstehst. Solche ARM Chips kommen klar in Micro-Server zum Einsatz. Auch größere Opteron mit großen X86 Cores wurden bereits verbaut.
Der Programmierer optimiert den Compiler auf die Hardware, sodass HSA da voll ausgenützt werden kann. Bei einem Server, wo sowohl CPU also auch GPU verbaut werden, kann ein Micro-Server beim gleichen Platz, eventuell sogar mehr Cores und Shader unterbringen.

Aber egal, ich hab gesagt, es wird sich zeigen. Doch eine APU programmiert man im dem Sinn nicht anders als ein MultiCore Prozessor mit mehr opCode für parallel Berechnungen. (zu mindestens habe ich diesen Eindruck)

Bei AMD heißt HSA und APU, woanders hats eben nen anderen Namen.
Schön das mal aus deinem Mund zu hören. Denn dann sind wir uns einig, dass diese ganze was ein "echter" Core Geschichte gegessen ist. Denn da haben ja einige auch einige gemeint ein "Core" muss ALU und FPU haben. Was rein Geschichtlich nie der Fall war, was aber egal ist, weil der Entwickler selbst seine Technologie taufen darf wie er möchte.

Also ich bin der Meinung dir ist nicht bewusst, dass MIC nichts anders ist nur ein Ansatz von Intel HSA oder Intels CUDA entgegengekommen. Da hat dann ein Core mehrere Threads (ich glaub vier) und mehr (oder größere) FPUs um die Aufgaben einer GPU zu verwirklichen. Die Programmierung fällt einfacher aus, weil man das Teil wie eine CPU programmieren kann. Gegenüber CUDA mit vielen Grafikkarten und getrennte Speicher sicherlich ein großer Vorteil.
Anderseits braucht Intel eine wesentlich bessere Fertigungstechnik um den Verbrauch zu kompensieren, den zu mindestens war es bis jetzt so, dass die GPU die gleichen Aufgaben oft mit wesentlich "simpleren" Schaltungen geschafft hat. Dafür war es oft wesentlich aufwendiger für GPU zu programmieren sodass man oft eine Schnittstelle wie CUDA benötigte.
Jetzt kommt aber AMD mit einer APU die sich wie eine CPU ansprechen lasst und die GPU Power mit sich bringt. Es gibt keine Probleme mit dem herumkopieren.

Das eine APU aus großen X86 und IGP besteht ist eine Behauptung. Denn die PS4 APU hat 8 Jaguar Cores und eine bedeutend größere GPU. Es ist also nicht abwegig, dass AMD ARM APU herstellt mit 8 kleinen ARM Prozessoren und einer fetten GPU. NV hat da übrigens nichts anderes vor.

Ich finde MIC höchst interessant, aber du brauchst jetzt nicht so tun, als stehe hinter MIC dann nicht auch "Marketing" dahinter, wenn du APU und ähnliches auch als Marketing bezeichnest. MIC könnte man auch quasi als gepimpten Multicore Prozessor bezeichnen der für "double precision floating point instructions" erweitert wurde.
Sagt ja auch der Name Many Integrated Core Architecture.

Genauso ist der AES Befehlsatz bei heutigen CPU direkt "verdrahtet" umgesetzt, Hardware nahe, und dabei dann Faktoren schneller wie alleinig auf CPU Kernen in Software gelöst.
Schön dass du auf die Erkenntnis gekommen bist, dass in Zukunft SIMD Einheiten immer wichtiger werden. Besonders weil die Bulldozer Architektur viele SIMD Einheiten hat, die momentan im Desktop einfach brach liegen. Das wurde bis dato dann gern nicht berücksichtigt mit der Argumentation, wem interessiert das schon in der Zukunft. Aber auch ein anderer Grund wieso DSP immer mehr von RISC/CISC Architekturen verdrängt werden.

Es ist immer die Frage was ich eben brauche.
Es steht schon im Text :
AMD setzt aber nicht nur auf den ARM-Markt. Zwar soll dieser bis 2019 laut Feldman einen Anteil von 25 Prozent im Serverbereich halten, dennoch wird AMD auch weiterhin x86-Produkte in diesem Bereich anbieten. Denn die Zeit, wo ein Produkt für alles passt, sei vorbei.

Ich schreibe :
Aber egal AMD vernachlässigt jetzt nicht gleich x86, immerhin kommt auch Berlin und Nachfolger. Mal sehen wie sinvoll HSA APUs sind.
Und du machst aus HSA APU ein Marketingprodukt, lobst aber MIC Architektur in den Himmel, dass er für alles quasi "Einsatzbereit" und flexibel ist. Meine Meinung dazu war, es wird sich zeigen wie AMD seine HSA APU in den Markt integrieren kann.

Das macht man aber schon heute auch und deswegen gibt es Aufgaben bei denen eine reine GPU auf Basis 5D viel fixer is als ne APU, oder aber auch Aufgaben bei denen ein XEON Phi viel geeigneter ist als ne APU.
Das wird sich zeigen. Du siehst die APU offensichtlich dazwischen sitzen, einfach weil du das Bild einer Desktop APU als Referenz nimmst. Beweißen kannst du deine Behauptung aber nicht, es ist nun mal eine Vermutung. Server ist immer noch eine Umgebung wo der Compiler und die Programme angepasst werden.

Und was das ganze mit den ATOM Prozessor angeht. Ja es ist nichts anderes. Das wird schon klar wenn man bedenkt dass der Vorgänger der AMD ARM Prozessoren X86 mit Jaguar Cores waren. Es muss sich aber mal zeigen wie effizient Silvermont gegenüber Jaguar Architektur ist und auch AMD schläft nicht, weil nach Jaguar bald Puma (hier dann Beema auch mit HSA und GCN 2.0) kommt. Worin Intel dann tatsächlich glänzen kann, ist dann wieder die Fertigung und das kommt bereits jetzt schon den MIC zu gute.
Und zu Info, mit Knights Landing hat man bereits die Silvermont Architektur der ATOM in den MIC integriert.


Ich möchte nur klarstellen, ich hab gesagt, es wird sich zeigen wie sich die APUs machen werdenund dass AMD "Foundation" und NV haben durchaus das Know-How sich von einfachen ARM Lizenznehmer abzusetzen und Anpassungen für den Server Markt anzunehmen, indem sie ihre ARM Prozessor durch GPU oder eben durch SIMD wie du es schon sagst, distanziert und einzigartig machen. Ich sehe es aber als gut, wenn der Markt mehre Anbieter hat und dadurch wird aber Intel mit deren Ideen nicht unbedeutender.
 
Zuletzt bearbeitet:
flappes schrieb:
Jo, dann muss man aber auch die verdammt gute Fertigungsmöglichkeit bei intel berücksichtigen, die ist nunmal besser und erlaubt effizientere Chips, damit kann man halt kaschieren, dass ein gleichwertiger x86 in gleicher Strukturbreite wie ein ARM dennoch mehr Strom verbraucht.

Aber ist auch egal, wichtig ist das, was am Ende rauskommt.

es geht, schaut man sich die Density an - so packt AMD mehr Transistoren in 28nm auf den mm² als Intel mit 22nm...

Mit dem GF 28nm Prozess hat AMD jedenfalls n gutes Stück aufgeholt - Fertigungstechnisch. Zeigt auch das gute V / Takt Verhältnis bis 3 Ghz.
 
Eure Argumente haben nur einen Haken, ein RZ das jetzt geplant wird, orientiert sich an aktueller Hardware und damit aktuellen Verbräuchen und nicht an dem, was in ein paar Jahren aktuell ist.

Server benötigen Platz, egal wie hoch der Energieverbrauch ist. Hier ist der Platz das Limit, wenn nur Platz für 100 Racks im Raum ist, und jeder Server 1 HE belegt, ist es egal ob er nun 200W oder 20W Leistung aufnimmt, es passen trotzdem nicht mehr in RZ, hier kann man nur mir Parallelisierung und Virtualisierung Abhilfe schaffen. Sie einfach kleiner machen wie hier geschrieben wurde geht nicht, weil bestimmte Komponenten die einfach rein müssen nicht schrumpfen. Dazu gehören z.B. Festplatten und Steckkarten. Außerdem muss man den 19" Formfaktor berücksichtigen.
 
Zuletzt bearbeitet:
Wieso wird es eig mit dem X2150 verglichen? der hat ja noch ne GPU mit drauf?
Die vorgestellte CPU jedoch nicht (zumindest finde ich auf mehreren Seiten keine Infos, die darauf hindeuten)
Der X1150 hat hingegen auch wieder eine geringere TDP von 17W und gleiche Taktraten wie der X2150,
was den ARM-Chip zwar immer noch gut, aber auch nicht ganz so gut wie angegeben dastehen lässt.

Somit wäre der X2150 doch immer noch schneller, wenn man die GPU nutzen könnte (also je nach Aufgabenbereich)
 
Server benötigen Platz, egal wie hoch der Energieverbrauch ist. Hier ist der Platz das Limit, wenn nur Platz für 100 Racks im Raum ist, und jeder Server 1 HE belegt, ist es egal ob er nun 200W oder 20W Leistung aufnimmt, es passen trotzdem nicht mehr in RZ, hier kann man nur mir Parallelisierung und Virtualisierung Abhilfe schaffen. Sie einfach kleiner machen wie hier geschrieben wurde geht nicht, weil bestimmte Komponenten die einfach rein müssen nicht schrumpfen. Dazu gehören z.B. Festplatten und Steckkarten. Außerdem muss man den 19" Formfaktor berücksichtigen.

Um so weniger ein Bauteil Strom verbraucht und eine geringe TDP hat, umso ausbreitungsfähiger ist sie, da man die SoC größer und kleiner bauen kann und die TDP es immer zu lässt, so ist ARM dynamischer und man kann viele Kerne verwirklichen. Übrigens wie hier viele beschreiben, warum man nicht einen Xeon E5 nehmen sollte? Ganz einfach dieser ist so teuer das man sicherlich dafür 4 Plates mit je 8 ARM Kernen bekommen, diese immer noch weniger Strom verbrauchen, gleichermaßen weniger Kühlungsgeräte.


Übrigens wir sind in der Zeit von Google und Ähnliches schon lange von Windows Server auf Linux als Software-Basis umgestiegen und dies profitiert enorm von Kernanzahl und Multithreading-Performance. Die Advanced RISC Prozessoren beherrschen hauptsächliche einfache Befehlssätze für normale Anwendungen und besitzen einen Emulations-Modus um etwa Arbeiten eines Complex Instruction Set Computer zu verrichten und das schneller als ein x86.

@Dr. MaRV Intel nannte immer schon Lizenz-fertiger Schmarotzer, wie man weiß, wenn man Fachliteratur darüber gelassen hat, sie haben aber auch das Konzept RISC von AMD einfach übernommen, aber eine ARM Lizenz haben sie nicht und jetzt sind sie im Mobilbereich so weit, dass sie sich da total abziehen müssen und wenn es so weiter geht, auch bei 30% der Serversparte. Denn wenn Google ARM will, dann werden sie das auch wo anders bekommen und der größte Internet Dienstleister sagt, wo es lang geht!
 
Zuletzt bearbeitet:
Krautmaster schrieb:
es geht, schaut man sich die Density an - so packt AMD mehr Transistoren in 28nm auf den mm² als Intel mit 22nm...

Vergleich Apfel mit Birnen, vorsichtig sein dabei. Als nächstes kommen sonst Haiwaii-GPUs von TSMC die nochmal viel krasser sind. Kannst du aber eben alles nicht vergleichen.
 
pipip schrieb:
Aber auch ein anderer Grund wieso DSP immer mehr von RISC/CISC Architekturen verdrängt werden.

Ahem, wenn ich da mal einen Kümmel spalten darf: Es gibt noch RISC- und CISC-Befehlssätze, die CISC-Architekturen selbst sind aber ausgestorben (naja, außer bei alten 8- und 16-bit-Controllern, aber das ist ein anderer Kümmel).
 
Volker schrieb:
Vergleich Apfel mit Birnen, vorsichtig sein dabei. Als nächstes kommen sonst Haiwaii-GPUs von TSMC die nochmal viel krasser sind. Kannst du aber eben alles nicht vergleichen.

gut, man müsste dann wohl eher CPU zu CPU Kern Density vergleichen schon richtig. Die Masse dichtgepackter Transistoren liegt heute ja meist im GPU Part.
 
Zurück
Oben