Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD stellt FirePro S9000/S7000-Grafik für Server vor
Erst vor einigen Wochen hat AMD die noch relativ neue Graphics-Core-Next-Architektur in das Workstation-Segment in Form der FirePro-W-Serie gebracht. Nun folgen entsprechende Server-„Grafikkarten“, die von nun an ebenso unter dem Namen „FirePro“ verkauft werden und sich gegen Nvidias Tesla-Karten stellen.
Daß AMDs GCN basierten Graphikkarten für Wissenschaftler eine echte und günstige Alternative zu den doch sehr teuren TESLA kArten von nVidia darstellen, belegen Benchmarks, die vermittels OpenCL die "wahre" Leistung der GPU bei doppelt genauer Fließkommaarithmetik aufzeigen.
Es ist aber nicht einfach damit getan eine solche Karte in einen Server zu stecken und dann "loszulegen". Irgendwie muß und will das teure Stück Hardware ja auch programmiert und genutzt werden - vor allem programmieren ist eine im naturwiss. Sektor wichtige Sache. Und hier hat AMD, wie die aktuellen Treiber und Entwicklungsumgebungen zeigen, mehr als nur Nachholbedarf!
Es gibt für *BSD UNIX Systeme keine Treiber. Es gibt für Linux nur BLOBs. Diese Treiber sind alles andere als stabil! Unter OpenSource ist die GCN Architektur nicht nutzbar (bei nVidia kann man fast nichts vernünftig unter OpenSource nutzen ...).
Obwohl AMDs Hardware effektiv bei DP Berechnungen wesentlich flotter als FERMI ackern kann, setzen wir lieber auf TESLA. Warum? Weil treiber und SDK stimming sind. Zwar ist der OpenCL Compiler lange nicht so gut wie das CUDA generierende Pendant, dennoch ist die Stabilität und die Verwendbarkeit vorbildlich.
AMD zieht entweder mit nVidias Qualität gleich (sehr unwahrscheinlich), oder aber besetzt zudem Nischen, die nVidia offen gelassen hat (GPGPU auf BSD Systemen, GPGPU im OpenSource Treiber möglich via OpenCL, beides relativ unwahrscheinlich).
Sehr gut.
Alle Firepro-GCN @ Server kamen wie letztes Jahr vermutet in August.
Es ist schon als kleine Sensation anzusehen, dass AMDs die momenten Stärkste Hardware am Server-GPGPU-Markt besitzt. Jetzt heißt es nur mehr die Software weiter zu verbessern, damit OpenCL bei Sea-Island, Kaveri & Kabini in viel kürzerer Zeit nach der Consumer-Einführung eingesetzt werden kann.
PS: Ich finde die Einführung mit 225W-TDP sehr klug, da z.B.: Nvidia ebenfalls 225W-TDP führ ihre GPUs verwendet.
Zumindestens die 10-15% Marktanteile die jetzt schon am Markt sind.
Aber vielleicht hört die Entwickung zuvällig nicht auf und die Software wird weiterentwickelt. Tesla hat auch viele viele Quartale braucht, bis es sich im HPC-Markt etabliert hat. Solche Entwickungen dauern länger und wer die Entwicklungen & Fortschritte nicht erkennen können, müssen halt warten bis es die Zahlen & Ergebnisse zeigen, die von viel Medien verkündet werden.
GrannyStylez schrieb:
Ich würde mir wünschen das AMD nachzieht und das alles aufhohlt.
AMD muss nicht immer die bessere Software & Hardware haben, um in einem Markt mitspielen zu können. Wichtig ist immer der gleiche Wettbewerb, die nicht durch geschlossene Systeme verzerrt werden. Daher ist es für AMD wichtig, wenn OpenCL in naher Zukunft zum wichtigsten Instrument wird. Und es sieht momemtan gut aus, da OpenCL generell in Smartphone & Tablet gut etabliert ist, sowie AMD mit Kaveri & Kabini in Desktop & Notebook (& bald Tablet) und vorallem Embedded-Markt das OpenCL viel breiter Nutzen kann als Nvidia (momentan) mit Cuda
Schlecht nicht, aber verbesserungswürdig.
Es wäre ein Wundern, wenn AMD bei der GCN-Einführung neben besserer Double-Precise-Performance auch noch eine bessere Software hätte.
Vor 1,5 Jahren wussten wir noch nicht von GCN & ECC. Damals führte man Diskussionen, ob jemand überhaupt OpenCL nutzt bzw. in ihrer Software aufnehmen würde. Und dass AMD in HPC-GPGPU Markt ohne C++ und ECC in Zukunft mitmischen wird, wurde nicht einmal diskutiert, da ECC (und C++) fehlte.
Heute diskutiert man, welche Software und Hardware (etwas) besser ist. Das zeigt schon die enorme Hardware & Software-Entwicklung, die AMD in den letzten 1,5 Jahren machte.
Ich sehe auch keinen Grund, warum AMD eigentlich immer alles so lockerflockig aufholen muss.
Schließlich hat Nvidia ja nicht die Tesla- & Quadro-Forcierung reduziert.
Die GPUs sollen dabei beim GPU-Computing (High-Performance-Computing) sowie bei der Virtualisierung von Desktop-PCs (VDI, Virtual Desktop Infrastructure)
Ja was sollen sie denn?
Und ist nicht der einzige Fehler. Fehlen auch noch Komma und eventuell weitere Wörter. Da scheint der Wolfgang noch nicht recht wach zu sein.
Könnte mir mal eine kurze einführung geben wozu man solche karten in den Server baut?
Für sachen wie Onlive also Cloud Computing oder gibt es da noch mehr , der vorteil ist das
der Markt sehr Profitabel sein soll.
Mit GPUs können abseits der Grafikwiedergabe auch Aufgaben die normal die CPU übernimmt sehr viel schneller Gerechnet werden. Dafür werden solche Karten benutzt. Z.B. um Naturwissenschaftliche Prozesse zu simulieren/erforschen.
Der Markt ist sehr profitabel. Die normalen Consumer Chips können für den 5-fachen Preis verkauft werden. Obwohl der "Profi"Markt nur cirka 10% des GPU Absatz ausmacht, wird in diesem Markt 25% des Umsatz generiert.
... wer sagt es sei eine Frage des Glaubens? Wir hoffen, daß AMD endlich etwas Stabiles liefert, weil die fakten eine andere Sprache sprechen!
Für Spielzeugrechner mag das eine oder andere Problemschen mit dem Treiber in Ordnung/tolerierbar sein, nicht aber für Rechenanlagen, die Simulationen über Tage, Wochen oder Monate rechnen.
Ergänzung ()
aylano schrieb:
Schlecht nicht, aber verbesserungswürdig.
Es wäre ein Wundern, wenn AMD bei der GCN-Einführung neben besserer Double-Precise-Performance auch noch eine bessere Software hätte.
Vor 1,5 Jahren wussten wir noch nicht von GCN & ECC. Damals führte man Diskussionen, ob jemand überhaupt OpenCL nutzt bzw. in ihrer Software aufnehmen würde. Und dass AMD in HPC-GPGPU Markt ohne C++ und ECC in Zukunft mitmischen wird, wurde nicht einmal diskutiert, da ECC (und C++) fehlte.
Heute diskutiert man, welche Software und Hardware (etwas) besser ist. Das zeigt schon die enorme Hardware & Software-Entwicklung, die AMD in den letzten 1,5 Jahren machte.
Ich sehe auch keinen Grund, warum AMD eigentlich immer alles so lockerflockig aufholen muss.
Schließlich hat Nvidia ja nicht die Tesla- & Quadro-Forcierung reduziert.
Von AMD hat man einiges erwartet - und außer in puncto Hardware brilliert AMD nicht!
Das Thema GPGPU wird seit lämgerem diskutiert - nicht erst seit es auch im Kinderzimmer populär geworden ist! Hier sollte die Beschränktheit des eigenen Horizontes nicht als Allgemeingültigkeit verkaufen werden!
In puncto Hardware hat AMD in den letzten Jahren das GPGPU Feld zeitweilig einfach nur verschlafen - oder aus Dummheit verpaßt. AMDs Hardware (damals noch ATi) war schon immer sehr gut, wenn es darum ging, Berechnungen auf den Graphikchip auszulagern. Während nVidia noch mit 24Bit Registerbreiten hantierte, war man bei AMD bereits bei 32Bit Breite. Das war vor knapp 8 Jahren, soweit ich mich erinnern kann.
Mit der HD4000 Serie "vergaß" AMD geflissentlich einen Lese-Schreib-Puffer von wenigen Bytes, um OpenCL-Kompatibilitat zu gewährleisten, die Serie war letztlich, entgegen der Ankündigungen, für den Rechenbetrieb so gut wie nicht nutzbar.
Ich weiß nicht, was Du mit C++ hast. C++ ist eine Programmiersprache und ohne entsprechenden Binärtreiber (im LLVM Jargon) kann man keine GPU "in C++" programmieren (dafür ist ja schließlich OpenCL da ). Sicher ist es sehr viel einfacher, wenn sich eine Architektur, deren logischer Ablauf und das verarbeitungsparadigma nach einem Standard orientiert. Hier hat sich bei AMD und nVidia viel in Richtung OpenCL (C und zuweilen C++-ähnliche Syntax) getan.
ECC wird dann wichtig, wenn die Kernel auf den GPUs nicht nur weniger Sekunden oder Minuten, sondern über Stunden, Tage wochen oder, wie in meinem Falle, Monate rechnen. Bitfehler, die nicht korrigiert werden, können zu unbrauchbaren Ergebnisse führen und damit zeitaufwendige Modellierungen zunichte machen. Ich verwende seit über 20 Jahren ausschließlich ECC Speicher in meinen Rechnern, auch privat - sofern es möglich ist. Daß ECC auf dem GCN Einzug hielt, war nur eine logische Konsequenz aus AMDs Betreben, auch den professionellen GPGPU Markt bedienen zu können. Für CAD/CAM ist ECC nicht unbedingt erforderlich.
Bist Du Dir im Klaren darüber, was nVidia den Naturwissenschaften zur Zeit an die Hand zu geben vermag? Das beginnt mit einer kleinen lächerlichen TESLA, über ein ausgereiftes SDK mit einem Bündel brauchbarer mathematisch-numerischer Bibliotheken bis hin zu gigantischen Clustern, deren Knoten mit vier oder sechs TESLA bestückt sind. In der meteorologischen Klimamodellierung, in Strömungssimulationen, Nuklearforschung, Kernphysik oder der hochspeziellen Astrophysik/Astrodynamik kommen solche Giganten zum Einsatz. Das sind Investitionen von einigen hundert tausend Euro bis hin zu Millionen. Dazu Software, die für einen Wissenschaftler schnell und einfach zu nutzen ist. Dazu gesellen sich Schulungen, Projekte zur Betreuung wiss. Vorhaben et cetera. Eine einzelne TESLA mag gar schwach gemessen an einer AMD GCN basierten Karte sein, aber mit dem Drumherum und all den Möglichkeiten der Clusterbildung, den entsprechenden APIs ist das eine andere Hasunummer. Und nur das zählt bei solch schweren Steuermitteleinsäzten!
AMD hat nichts dergleichen anzubieten! Die Treiber sind nach eigener Erfahrung nicht sonderlich stabil, zumindest auf Dauer und lnage Sicht gesehen (und für mich interessiert derzeit nur das Hier und Jetzt). Zudem gibt es keine vernünftigen Funktionszusicherungen für den Mehrkartenbetrieb unter diesen Treibern (2+) unter OpenCL.
Vor zwei oder drei jahren, als es AMD ganz schlecht ging, da hieß es, man werde die Opensource Gemeinschaft tatkräftig unterstützen. Als "Geheimwaffe" war LLVM im Gespräch, das Optimierer-Kernstück eines genialen Compiler Konzeptes von Apple bzw. des Erfinders Chris Lattner. AMD war Aspirnat erster Klasse für eine offene, OpenCL-taugliche Architektur mit diesem Backend.
AMDs quelloffene treiberinitiative hat sich dann schnell als Täuschung herausgestellt, die Spezifikationen waren von den Servern genauso schnell verschwunden wie sie dort auftauchten und derzeit schmurgelt das Projekt lahmend dahin. AMD tut etwas, ja, verglichen mit nVidia. Aber nVidia liefert stabile Treiber als BLOB, ja selbst für BSD Systeme.
Wie viele von den neuen GCN Server Karten, sagen wir die S9000, hast du denn in letzter Zeit so ausgiebig getestet um behaupten zu können, die Treiber seien so furchtbar schlecht? Und ich Rede jetzt explizit von den neuen S Karten mit ECC!
PS: warum hat AMD nicht alternativ eine S9001 mit 300W TDP und allen Shaderclustern herausgebracht? Intel hat ja auch von den Xeons eine ineffiziente Version mit exorbitanter TDP als Spitzenmodell im Programm. An manchen Stellen interessiert es ja nicht - und Lautstärke ist ja auch kein Argument
Ist jetzt jeder ein AMD Fanboy, der ECC, Double-Precise-Krone und C++ als wichtig statt unwichtig sieht?
Letztes Jahr war man noch ein AMD Fanboy, wenn man bei großen Firmen an einen OpenCL Umstieg glaubte, weil Cuda eh viel besser ist.
Nachdem mittlerweile Photoshop, CAD & Einige andere auf OpenCL umgestiegen sind, gilt man jetzt als AMD Fanboy, wenn man eine Weiterentwicklung von OpenCL statt Stillstand bei AMD annimmt.
Da freue ich mich schon auf die Anti-HSA-Argumente bei der HSA-Einführung.
Das Thema GPGPU wird seit lämgerem diskutiert - nicht erst seit es auch im Kinderzimmer populär geworden ist! Hier sollte die Beschränktheit des eigenen Horizontes nicht als Allgemeingültigkeit verkaufen werden!
Deshalb solltest du ja deinen Horizont erweitern und anerkennen, dass der Marktanteil bei AMDs OpenCL in den letzten 2-3 Jahren gestiegen ist.
PS: Du kannst noch so lange irgendwelche Schwächen von AMDs OpenCL auflisten. Solange du keine Entwicklung beschreibst sind deine Aussage für Zukünftige entwicklungen nicht viel wert. FirePro-GCN @ Worktstation, APU und HPC kam deshalb 8 Monate nach der Game-Version, weil sie die Treiber & Software für diese neue Architektur noch zu einer gewissen Reife bringen mussten. Man kann davon ausgehen, dass die Treiber & Software-Entwicklung weitergeht, nachdem die HSA Foundatition gerade erst gegründet wurde. Das kann man auch annehmen, ohne ein Fanboy zu sein.
Gerade mit HSA will man die Treiber & Software viel einfacher, stabiler und schneller zu machen. Dass das nicht von heute auf Morgen geht, sollte jedem eigentlich klar sein. Denn Nvidia schaffte es ja auch nicht von heute auf morgen. Und die Interessenten sind auch nicht am ersten Tag schlange gestanden.