News Neue Strategie: AMD will auch ein Software-Unternehmen werden

DevPandi schrieb:
Da ist es auch egal, wie gut RDNA 3 teilweise mit Ada mithalten kann, wenn man ROCm und die ganzen APIs zur Zusammenarbeit überreden kann. Viel zu viel Aufwand und Arbeit.
Die meisten wollen eben ein "Pauschalreisen Umfeld" sie sind auch gewillt dafür mehr auszugeben.
Zeit ist mittlerweile Kostbarer den je, wenn man mal welche findet will man nicht noch erst die Hardware zur Zusammenarbeit überreden müssen.
Genau auf diesen Kern baut auch Apple auf die sagen gib halt etwas mehr aus, dafür hast du dann aber auch das Rundum Packet mit dem du sofort loslegen kannst. Ob das jetzt gut funktioniert bei denen sei mal dahingestellt.

Technik muss out of the Box funktionieren u eine breite Kompatibilität mit Software aufweisen alles andere ist eher zweitrangig.
Ich hoffe das AMD wieder aus dem tiefen Loch heraus kommt in welches sie mit RDNA 3 gefallen sind.
Zumindest bäckt man jetzt schon kleinere Brötchen bei den Vorankündigungen der neuen GPU Generation was ich sehr gut finde.
Was geschieht wenn man zu hohe Erwartungen schürt hat man ja beim RDNA 3 Debakel gesehen. Vielleicht würde man jetzt ja besser dastehen hätte man damals die Messlatte tiefer angelegt. Zumindest hat man aus diesem Fehler lernen können.
 
DevPandi schrieb:
Das Dumme ist nur, dass auf dem Markt, der am Ende wirklich wichtig ist, davon nichts ankommt. Der "Nachwuchs" fängt in der Schule, dem Studium und in der Ausbildung immer noch mit Nvidia-Hardware und CUDA an, lernt die Tools von Nvidia und Intel kennen.
Wobei ich das halt jetzt schon so verstehe, dass sich AMD dessen bewusst ist und daran arbeitet, das zu ändern. Und man kann schon festhalten, dass ihnen die Erfolge im HPC-Bereich (Frontier ist schon seit Juni 2022 Nummer 1 in der Top500 Liste!) durchaus zumindest die Aufmerksamkeit bringen, dass man für Interesse an AMDs Lösungen sorgt. Jetzt müssen sie es "nur" noch besser für die breite Masse verfügbar machen, aber die "PR-Voraussetzungen" sind damit wenigstens schon vorhanden.
 
  • Gefällt mir
Reaktionen: SweetOhm
DevPandi schrieb:
Das Dumme ist nur, dass auf dem Markt, der am Ende wirklich wichtig ist, davon nichts ankommt. Der "Nachwuchs" fängt in der Schule, dem Studium und in der Ausbildung immer noch mit Nvidia-Hardware und CUDA an, lernt die Tools von Nvidia und Intel kennen.

ROCm ist selbst unter Linux im Endeffekt nur etwas für die "Nerds", die sich mit "Grundlagen" befassen können und möchten. Alle anderen greifen zu Nvidia.

Da ist es auch egal, wie gut RDNA 3 teilweise mit Ada mithalten kann, wenn man ROCm und die ganzen APIs zur Zusammenarbeit überreden kann. Viel zu viel Aufwand und Arbeit.

Das ist eines der absoluten Hauptprobleme. NV hat es immer wieder geschafft z.B. auch durch den Fakt das Geforce Karten Dinge konnten wie ihre Professionellen Ableger Quadro und RTX - so war es für Unis realtiv billig die Studierenden zu versorgen [mit Hardware und dem Softwarestack drum rum] und wenn zum Schluß was raus kam das man wirtschaftlich verwerten konnte wurden die großen Karten im Nachhinein gekauft...

Meine Hoffnung da ist - das durch die Großrechner vielleicht auch aus dem Uni Umfeld die ein oder andere Software kommt in zukunft die das Entwickeln auf AMD Hardware generell vereinfacht....
 
Araska schrieb:
Warum? Ist eine 7900XTX spontan spieleuntauglich, sobald eine 8000er - Karte auf den Markt kommt?
(Mal schaun, ob und was eine etwaige 9900XTX taugt, sofern AMD dann wieder das oberste Segment bedient)

Nö aber ich will baldmöglichst auf nen 39`` 5120x2160 240Hz OLED wechseln und dafür wird die 79er zu langsam sein :)
 
Btw AMD hat soeben bekannt gegeben dass sie das nächste Software Unternehmen im AI Umfeld übernehmen. Es ist Silo AI.
 
  • Gefällt mir
Reaktionen: SweetOhm
https://www.silo.ai/blog/amd-to-acquire-silo-ai-to-expand-enterprise-ai-solutions-globally

Hier die Meldung von Silo AI selbst dazu. Interessantes Detail wie ich finde: Silo AI hat softwareseitig an LUMI gearbeitet, bzw das System genutzt - die Hardware dafür kommt ja von AMD (ist ein Epyc/Instinct Supercomputer). Ich sehe mich darin mal in meiner These von vorhin bestätigt, dass AMD darauf setzt, Erfahrungen aus dem Supercomputer-Umfeld in die Allgemeinheit runtertröpfeln zu lassen.
 
  • Gefällt mir
Reaktionen: SweetOhm
DevPandi schrieb:
Hier ist oft aber auch das Problem, wir welches Publikum bereitest du das alles auf.
Hier könnte der Name ein ein Hinweis sein. Es ist nicht PC Base oder Game Base.

Und es ist nicht welches Publikum habe ich, sondern welches Publikum will ich haben.
DevPandi schrieb:
Ich stolper darüber ja auch immer noch, ob ich jetzt stark vereinfache, weniger stark, dafür aber langweile und soweiter. Es ist eine Kunst.
Ich kann gut nachvollziehen, dass es eine Website die ständig frischen Content braucht es sich nicht leisten kann, dass man viel Zeit in Artikel versenkt, die dann letztendlich niemand liest.

Auf der anderen Seite sind die GPU-Tests ein wichtiges Markenzeichen von ComputerBase. Und dazu passen meiner Meinung nach durchaus Hintergrundartikel zur GPU-Technik. Wenn sie vielleicht auch nicht unmittelbar die ganz große Leserschaft finden, werden sie wenn sie sichtbar bleiben mit der Zeit doch von sehr vielen Leuten gelesen.

Zum Thema vereinfachen.
  • Einem gewissen Herr Einstein wird folgendes zugeschrieben: Man muss einen Sachverhalt so einfach wie möglich darstellen, aber nicht einfacher.
  • Vereinfachen bedeutet die unwichtigen Details auszublenden und den Zusammenhang der wesentlichen Sachverhalte darstellen.
  • Die wesentlichen Sachverhalte nicht oder nicht richtig darzustellen, ist trivialisieren.
  • Sehr viele gute technische Lösungen zeichnen sich durch ihre Einfachheit aus. Einfach ist oft sehr schwer. Aber das gilt nicht nur für die Technik: Uwe Seeler, durch Herberger bereits als 17-Jähriger zu Länderspielehren gekommen, erinnert sich: "Herberger sagte immer zu uns: 'Männer, wenn ihr das einfache Spiel beherrscht, dann seid ihr Weltklasse. Aber das ist sehr schwer.'"
Meiner Meinung nach kann man mit einer guten Darstellung technischer Zusammenhänge niemand langweilen. Wer sich nicht dafür interessiert liest es erst gar nicht. Die Technik ist für alle die sich darauf einlassen interessant.

Wenn man einen Sachverhalt zu komplex darstellt, ist langweilen nicht das richtige Wort. Überfordern oder frustrieren trifft es IMO viel besser.

DevPandi schrieb:
Da gebe ich dir prinzipiell Recht, aber auch hier ist die Frage, ob es die Leser interessiert und wie auch da das Level der Leser ist.
In dem Artikel gibt es einfach zu viele falsche Statements, alles nur um das Motto "AMD kann keine Software" zu untermauern.
DevPandi schrieb:
Der allgemeine Grundtenor - auch in der Community - ist, dass AMD Software nicht kann und dass Treiber und Co schlecht sind.
Ja AMD hat einiges dazu beigetragen, dass dieser Grundtenor entstanden ist. Dieser Grundtenor trifft so heute in seiner Absolutheit nicht mehr zu. Es ist und bleibt aber ein Klischee, das beim kleinsten Anlass nur zu gerne bedient wird. So wie das Klischee dass Nvidia perfekte Software und Treiber liefert.

DevPandi schrieb:
Dass das nicht so ist, hab ich ja auch bereits oft versucht zu erläutern, klappt nur nicht immer.
In einem Forum in dem sich Fans sinnlose Zänkereien liefern, fallen sachliche Darstellungen auf einen unfruchtbaren Boden. Aber es ist eben auch eine wichtige Frage für ComputerBase ob diese Zänkereien laufen zu lassen oder selbst noch anzustoßen Computerbase auf lange Sicht nutzen oder eher nicht schaden.

DevPandi schrieb:
Im Endeffekt ist das Problem eher: AMD "kann Software", sie haben es nur bisher abseits des HPC-Marktes schon fast sträflich schleifen lassen.
Wenn Du auf einen CUDA-Gegenspieler raus willst, ja da hat AMD bisher nur einigermaßen im HPC-Markt geliefert. Da hatte ich mir in den letzten beiden Jahren eigentlich erheblich mehr erwartet. Inzwischen ist offensichtlich, dass viele Ressourcen in den AI-Softwarestack für die MI300X verschoben wurden.

Software bei AMD ist erheblich mehr als ROCm.
DevPandi schrieb:
Das Problem ist, dass bei solchen "Treffen", ...
Hier habe ich mich undeutlich ausgedrückt.
Wenn AMD Werte zu MLPerf einreicht, legitimisiert AMD MLPerf.

Ich gehe inzwischen davon aus, dass AMD dies nicht will. Ich gehe außerdem davon aus dass AMD die Ressourcen verwenden will, um die Anwendungen der Kunden zu optimieren anstatt den Softwarestack für einen Benchmark zu optimieren.

Im übrigen ist AMD und Benchmarks eine lange und traurige Geschichte. Userbenchmark ist nur das offensichtlichste Beispiel. CPU-Z hat es auch nur ein bisschen besser vertuscht.
DevPandi schrieb:
Die Xilinx-Fusion (eine Übernahme würde ich das nicht nennen) ist mit die beste Entscheidung, die AMD treffen konnte.
AMD hat Xilinx gekauft, also ist es eine Übernahme. Aber AMD hat die Übernahme bisher sehr gut umgesetzt. So wie es intern umgesetzt wurde, wird es eher als Fusion wahrgenommen.
DevPandi schrieb:
Sie haben jetzt auch im KI-Bereich Know-How eingekauft, das helfen wird und so langsam sieht man da auch die Früchte reifen, aber auch hier, ist es viel zu langsam.
Von außen betrachtet ist es immer zu langsam. Vor allem wenn man sieht wie Nvidia voranschreitet.
Aber es braucht eben Zeit. Vor allem wenn man die Softwareerstellung neu organisiert und jede Menge neuer Leute reinholt. Das ist notwendig um langfristig den Durchsatz zu erhöhen. Kurzfristig bremst es während der Neuausrichtung den Fortschritt.
DevPandi schrieb:
Und genau das ist mit das Hauptproblem. Im HPC-Markt macht AMD sehr viel und kann da ja auch mit Frontier und Co Erfolge vorweisen.
Aber 2015 war es leider die einzige realistische Option. Damals hat AMD wohl erkannt, dass sie mit der bisherigen Fusion-Strategie keinen Erfolg haben können. Mit den wenigen Ressourcen gab es für AMD gab es damals zwei Alternativen, alles auf HPC zu konzentrieren oder auf der ganzen Linie zu scheitern.
DevPandi schrieb:
Das Dumme ist nur, dass auf dem Markt, der am Ende wirklich wichtig ist, davon nichts ankommt. Der "Nachwuchs" fängt in der Schule, dem Studium und in der Ausbildung immer noch mit Nvidia-Hardware und CUDA an, lernt die Tools von Nvidia und Intel kennen.
Es ist eben der Vorteil wenn ein Unternehmen die richtige Vision entwickelt und diese konsequent umsetzt, Der Softwarestack wird mit der Zeit immer umfangreicher. Und wenn man Software und Hardware konsequent aufeinander abstimmt, dann benötigt man keinen großen Aufwand um die neue Hardware in den Softwarestack einzubinden.

AMD hat sich nicht nur auf HPC konzentriert, sondern hat zu dem auch noch zwei verschiedene GPU-Architekturen. Das Anbinden von beiden Architekturen erhöht den Aufwand für die Entwickler und Tester.

Ja AMD hat zu lange ignoriert, dass sie RDNA brauchen um Entwickler an ROCm zu gewöhnen.

Aber es hat auch einen ganz anderen Aspekt, bei Nvidia kann man mit einer Desktop-GPU entwickeln und das Programm auf die Server ausrollen. Dies geht bei AMD nicht. Und das ist die viel kritischere Hürde.

Allerdings hat AMD mit HIP eine sehr gute Entscheidung getroffen. Es ist nahe genug an CUDA, um das Portieren einfach zu halten und um den Programmieren den Umstieg zu erleichtern.

DevPandi schrieb:
ROCm ist selbst unter Linux im Endeffekt nur etwas für die "Nerds", die sich mit "Grundlagen" befassen können und möchten. Alle anderen greifen zu Nvidia.
Die beiden größten Schwachpunkte von ROCm sind:
  • Mangelnder Hardwaresupport auf dem Desktop
  • Es ist noch nicht schlüsselfertig
ROCm auf dem Desktop ist noch nicht fertig. Weder auf Linix und erst recht nicht auf Windows. Es ist immer noch eher Adventure als Tool.
Ergänzung ()

4BitDitherBayer schrieb:
Die meisten wollen eben ein "Pauschalreisen Umfeld" sie sind auch gewillt dafür mehr auszugeben.
Mit dem Softwarestack privat ein bisschen herumspielen wollen und für einen Softwarestack zu entwickeln sind eben zwei verschiedene Dinge.

Deshalb finde ich "Pauschalreisen Umfeld" trifft es nicht. Es geht darum dass ROCm auf dem Desktop nicht reif für die Produktion. Man muss nur schauen was für ein HeckMeck es mit Blender war bis das HIP-Backend lief.
Ergänzung ()

stefan92x schrieb:
Wobei ich das halt jetzt schon so verstehe, dass sich AMD dessen bewusst ist und daran arbeitet, das zu ändern. Und man kann schon festhalten, dass ihnen die Erfolge im HPC-Bereich (Frontier ist schon seit Juni 2022 Nummer 1 in der Top500 Liste!) durchaus zumindest die Aufmerksamkeit bringen, dass man für Interesse an AMDs Lösungen sorgt.
Frontier ist das Aushängeschild. Es wurde aber auch andere Systeme verkauft. Wie zum Beispiel an Eni.

Bei den Supercomputern ist sehr viel Opensource Software im Spiel und da wurde sehr viel für AMD und Intel lauffähig gemacht.

Aber es gibt jede Menge kommerzielle Software von Dritt-Anbietern und die Prtieren nur wenn sie einen Markt sehen. Aber hier finde ich, dass die Idee von AMD mit HIP sehr gut war.

stefan92x schrieb:
Jetzt müssen sie es "nur" noch besser für die breite Masse verfügbar machen, aber die "PR-Voraussetzungen" sind damit wenigstens schon vorhanden.
Für die breite Masse fehlt es schlicht und einfach an der der Unterstützung der Hardware.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fegr8 und SweetOhm
xexex schrieb:
Du solltest mal den Zeitrahmen betrachten, es sind fast acht Jahre seit dem vergangen, mit vermeintlich besseren und günstigeren Produkten und dabei auch einen Blick auf die Vergangenheit werfen.
Intel könnte morgen Piledriver-basierte Prozessoren auf den Markt bringen und Dell würde den Rotz trotzdem als die absolute Standard-Referenz verkaufen...

DevPandi schrieb:
Nicht so ganz richtig. AMD konnte ab 2003 mit der K8-Architektur und dem Opertron damals relativ gut von Intel aber auch anderen Anbietern "Marktanteile" sich sichern, weil man x86 "kompatibel" war, aber eben 64 Bit mitbrachte. AMD konnte so bis 2006 sogar sehr deutlich von Intel die Anteile abknabbern und erreichte um die 25 % bei den Servern. Bei den normalen Prozessoren, egal ob Notebook, OEM und Co konnte man sich sogar an die 40 % nähern.
Ja, es gab Opteron und ja, da hatte AMD gut ein Viertel Marktanteil, aber wie groß war Anno 2004 der Servermarkt und wie groß ist er im Jahre 2024?

Das ist so, als würdest Du sagen: Somalia hatte ein Wirtschaftswachstum von 30% !!!1! Deutschland aber nur 3%.
Mit einen Blick auf die absoluten Zahlen merkt man schnell, dass in diesem Beispiel Deutschland stärker gewachsen ist.

2004 - das war vor der Smartphoneexplosion, vor Massenvideostreaming, vor der Cloud.
Wieviele Server gab es damals im Vergleich zu 2024?
 
Zuletzt bearbeitet:
StockholmSyndr. schrieb:
Ja, es gab Opteron und ja, da hatte AMD gut ein Viertel Marktanteil, aber wie groß war Anno 2004 der Servermarkt und wie groß ist er im Jahre 2024?
Das spielt eine Rolle. Aber vor allem war er Anteil von X86 am Servermarkt viel kleiner. Es gibt zwischen 2000ff und 2017ff drei gewaltige Unterschiede

  • Anfang der 2000er war X86 gerade auf dem Weg sich bei den Servern durchzusetzen. Die Risc-Architekturen waren noch verbreitet. 2017 hat Intel den Servermarkt dominiert. Die Kinden waren es 2017 gewöhnt Intel zu kaufen. Und Gewohnheiten zu ändern ist nun Mal schwer.
  • AMD konnte 64 bit bieten während Intel lange nur 32 bit angeboten hat. Das war für viele Anwendungen ein entscheidender Vorteil. Einen vergleichbaren Vorsprung konnte AMD mit EPYC nicht aufbauen.
  • Durch den TLB-Bug von Barcelona hat AMD den Serverhersteller massive Probleme bereitet. Die Serverhersteller hatten die Server fertig aber AMD konnte keine Prozessoren liefern. Dies hat AMD massiv Vertrauen gekostet und das musste sich AMD erst wieder erarbeiten. Die erste Generation (Napels) wurde angeschaut und begutachtet. Erst mit der zweiten Generation (Rome) konnte AMD nenneswerte Stückzahlen absetzen.
Im übrigen sind die 23 % die hier genannt wurden sehr schmeichelhaft für Intel. Es kursieren andere Zahlen, die auch auf dem Umsatz und nicht auf den Stückzahlen basieren. AMD selbst hat 33 % genannt. Nur auf die Cloudanbieter bezogen ist der Marktanteil von AMD erheblich höher.
 
Zurück
Oben