News Neue Strategie: AMD will auch ein Software-Unternehmen werden

3 bis 5 Jahre, ist eine lange Zeit. Gerade jetzt wo ARM gefühlt langsam an Fahrt gewinnt. Im GPU Segment ist ARM bestimmt noch 5 Jahre zurück. Nur im CPU Markt wird es sehr schwer über längere Zeit für AMD und Intel.

Kann auch verstehen das AMD es erst jetzt macht, mussten Schulden abtragen und gleichzeitig Entwickeln um wieder nach Oben zu kommen.
 
In dem Punkt muss ich sagen, das fällt AMD aber früh ein. 😱
 
  • Gefällt mir
Reaktionen: konkretor und icetom
Cool Jimmy hat jetzt zwei Freunde in der Abteilung und sitzt nicht mehr alleine im Heizungskeller.
 
  • Gefällt mir
Reaktionen: SweetOhm, konkretor und blackiwid
StockholmSyndr. schrieb:
Von 0.8% auf 23.6% soll keine Leistung gewesen sein?
Du solltest mal den Zeitrahmen betrachten, es sind fast acht Jahre seit dem vergangen, mit vermeintlich besseren und günstigeren Produkten und dabei auch einen Blick auf die Vergangenheit werfen.
1720519955119.png

https://community.amd.com/t5/genera...-highest-overall-level-since-2012/td-p/328795
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: oldi46
Generell eine gute Sache.

Die Allgemeine Entwicklung ist leider unschön.

Man nehme eine Grafikkarte + einen Treiber.
Rest sollte passen.
Aber nein ... jetzt kommt man mit DLSS, FSR, RIS, tbc ... um Die Ecke damit alles erstmal überhaupt brauchbare Frameraten erreicht o.ä.

Ich finde die Entwicklung bedenklich.

Vor allem der proprietäre Kram sollte verschwinden.

Aber nVidia zeigt es, was möglich ist ...
 
  • Gefällt mir
Reaktionen: SweetOhm und daknoll
Diablokiller999 schrieb:
Kann ich so aus einem anderen Bereich bestätigen und jetzt versuchen wir alles, um Qt so gut es geht aus den Anwendungen raus zu bekommen, da die ganzen Funktionen im Backend nur die Portabilität einschränken.
Muss gerade schmunzeln, weil Radeon Software oder Developer Tools auf Qt basieren. Ersteres noch auf 5.15, zweiteres schon auf Qt 6.7. Vermutlich folgt bald Radeon Software auch auf Qt6.7!
 
Speedcontroll schrieb:
3 bis 5 Jahre, ist eine lange Zeit.
Für das, was sich AMD nach meinem Verständnis damit vornimmt, ist das mitnichten ein langer Zeitraum. Den "Endausbau" erreicht man in 5 Jahren m. E. nicht.

Einen "kompletten" Software-Werkzeugbaukasten aka Ökosystem für alle absehbaren (und noch nicht absehbaren!) zukünftigen Kundenbedürfnisse zu entwerfen/implementieren ist bereits ambitioniert. Parallel dazu muss eine hinreichend große Berater-Truppe aufgebaut werden. Und "irgendwie" müssen auch noch viele Entwickler sich davon überzeugen lassen, auf diesen Zug aufzuspringen.
 
  • Gefällt mir
Reaktionen: Jlagreen, SweetOhm und floTTes
Da bin ich mal gespannt. Software war in der Vergangenheit nie AMDs Stärke.. Aber was war heißt ja nicht dass das wieder so kommen wird.
 
Speedcontroll schrieb:
Im GPU Segment ist ARM bestimmt noch 5 Jahre zurück.
Hä? Was haben GPUs und ARM miteinander zu tun?
Der GPU ist die CPU-Architektur relativ egal, solange es Treuber gibt.
 
Für jede Zeile Code die Nvidia in CUDA schreibt, werden 3 Zeilen Code von externen (im Open Source Teil) geschrieben und das schon eine lange Zeit.
Das aufzuholen ist nicht einfach, zumal man wohl kaum die Manpower von Nvidia aufbringen wird, geschweige denn die Open Source Community so schnell aufbauen kann um mitzuhalten.

Das ist auch das Problem von Intel mit ihren Grafikkarten. Nvidia hat CUDA vor über 15 Jahren angefangen zu entwickeln. Aufholen kann man das nur durch ein viel besseres Produkt, dass Kunden animiert umzustellen.
 
und Epyc, die gegenüber Xeon viel potentere Plattform, die sich nichtsdestoweniger nicht durchsetzen kann
Die Aussage ist doch total falsch. Epyc hat sich längst durchgesetzt, alle Chips die hergestellt werden werden verkauft, Intel ist hier einfach nur Masse statt Klasse. Das ist weitestgehend bekannt, komisch das der Autor das nicht weiß.

Schlecht sieht es für AMD momentan nur bei Radeon aus, und nirgends anders.
 
  • Gefällt mir
Reaktionen: SweetOhm und bad_sign
Araska schrieb:
Warum? Ist eine 7900XTX spontan spieleuntauglich, sobald eine 8000er - Karte auf den Markt kommt?
(Mal schaun, ob und was eine etwaige 9900XTX taugt,
Nein aber Blackwell kommt auch um die Ecke... AMD hängt so bei dedizierten GPUs schon hinterher, die können sich nicht einfach treiben lass n
 
Für RX ist der Drops doch längst gelutscht. R&D hinkt hier seit locker 12 Jahren stetig hinterher, im Highend-Bereich hat man das Handtuch geworfen, Vorzeigetitel sind rar, Schlüsseltechnologien wurden nicht proaktiv entwickelt sondern mit Mühe und Not gekontert (Raytracing, FSR, FG) und das mit ordentlicher Verspätung. Bis auf rBAR fällt mir da wenig Gegenteiliges ein.

Selbst, wenn zu unrecht: Beim Durchschnittsverbraucher hat sich längst eine zweitklassige Reputation eingenistet. Wie prekär das ist, sieht man an Core iX. Da glaubt doch außerhalb der CB-Blase auch noch jeder Hinz und Kunz, diese Intel-CPUs seien das Nonplusultra in Sachen Gaming, obwohl die Ryzen X3Ds das bessere Paket bieten.

Bis sich die Effekte stärkerer Software im Grafikkarten-Segment zeigen, wird es viele Jahre dauern. Bis die Kunden umdenken, noch viel länger. Also nicht, dass ich es mir nicht wünschen würde. Der Schritt kommt nur reichlich spät.
 
Zuletzt bearbeitet:
Ich hab bei dem Artikel für ne Sekunde gedacht ist jetzt der 1. April?

Der Artikel ist mir zu unkritisch geschrieben, zum einen scheint der Autor entweder ein totaler Nvidia Fanboy zu sein der glaubt das sie alles perfekt und viel besser machen als AMD und AMD alles total falsch machen, oder man auf das Marketinggeschwätz EINES AMD Mitarbeiters rein fällt.

Alleine das anders wie bei Nvidia damals nicht Lisa Sue das sagt das man ein Softwareunternehmen sei, sollte doch zu denken geben, wäre das jetzt das allerwichtigste totale für AMD wäre sie auf dieser Konferenz gewesen und hätte das selbst verkündet. (oder per Video zu geschaltet)

Viel mehr scheint mir das eine logische Entwicklung von (vor Ryzen hatte man 0 Geld daher wenig Softwareentwickler) jetzt hat man mehr Geld dann kann man mehr Entwickler einstellen, als dieses "ohh wir dachten nur nicht dran mehr Software zu machen" uns fehlte nur die Idee dann hätten wir 100.000 Entwickler eingestellt...

Grade auch die Aussage:
und Epyc, die gegenüber Xeon viel potentere Plattform, die sich nichtsdestoweniger nicht durchsetzen kann, zeugen von der Software-Schwäche des Konzerns.
Da wundere ich mich was das Wort "durchsetzen" heißen soll? Kann man von Heute auf morgen von 1,8% Server Chip anteil auf 60-80% steigern, nein natürlich nicht,
2020/2021 wenn ich den Artikel richtig lese war man bei 1,8%
https://hothardware.com/news/amd-epyc-server-cpu-gains-highest-share-intel-15-years

Heute verkauft man wohl 23,6% der Einheiten also ein Wachstum von 1000% ca. und tendenz ständig steigend:
https://www.extremetech.com/computi...et-share-in-q1-thanks-to-ryzen-and-epyc-chips

Seit wann ist das nicht "durchsetzen"? Wenn man nur so weiter macht hat man selbst bei linearem Wachstum wenn wir mal 2023->2024 als Maßstab nehmen haben wir in ca. 5 Jahren ungefähr 50% Marktanteil bei Servern...

Man kann natürlich sagen das man sich nicht schnell genug durch setzt, ok, aber das man sich nicht durchsetzen "könne" halte ich für schlicht falsch, genau das tut AMD, wenn AMD wo stark ist dann neben dem Desktop ohne Notebooks bisher, und auf dem Server.

Aber auch bei Grafikkarten war doch nicht das Hauptproblem der letzten Generation die Software, ja mit DLSS wurde viel rum gejammert und sicher mit schneller besserem FSRR hätte man auch bisschen was gut machen können, aber am Ende des Tages hätte die RTX 4090 trotzdem den Boden aufgewischt mit jeder AMD Grafikkarte. Und das war auch nicht ein Softwareproblem durch die Treiberupdates legte man über die Monate/Jahre nicht 20-30% Speed dazu, das war die leider mislungene Hardware, wo man noch das beste draus machte.

Gut vielleicht steht hier der Konsumer Markt nicht im Vordergrund hier auf dieser Konsumer Webseite wird das da aber rein gelesen.

Sicher bei professionellen Angeboten für Firmen, muss AMD besser werden, daran arbeiten sie aber schon lange... da ist ihnen nicht Heute eine Erleuchtung gekommen wie in Zurück in die Zukunft als der Professor vom Klo gefallen ist.

Ich weiß nicht obs Clickbait artig geschrieben ist oder tendenziös oder was aber irgendwie sperrt sich recht viel bei dem Artikel bei mir. Ja man wird auf A.I. setzen, dohh, man nennt die neuen notebook chips nicht um sonst AI 300, aber da gehts sicher mehr darum externen AI. entwicklern die Tools bereit zu stellen als das man Intern jetzt von heute auf morgen alles komplett auf A.I. umstellt.

Ich denke ja 10-30% schreibt der Artikel über eine echte Entwicklung der Rest scheint mir wie gesagt zum einen ein Bias pro Nvidia und sogar Intel obwohl die ja deutlich mehr falsch machen als AMD die letzten Jahre und nicht wegen Software sondern wegen Hardware außer wir zählen die falsch kommunizierten und verbreiteten Overclock Biose als Software und viel Marketing gelaber, man ist jetzt auf ner Softwarekonferenz daher sagt man das man da sich voll drauf konzentriert, in 2 Monaten ist man dann auf ner Hardwarekonferenz mit anderen Mitarbeitern die dann sagen das man sich noch mehr auf Hardware konzentrieren wolle.

Auch die These das man bei Hardware irgendwie weniger liefern könnte, nein sie müssen weiterhin entweder die beste oder die billigste Hardware und die offenste anbieten, das ist immer noch der Kern natürlich ist es gut wenn man dann oben drauf dort wo man bisher schwächelt kräftig investiert um das problem zu verringern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Flaschensammler und SweetOhm
Inxession schrieb:
Aber nein ... jetzt kommt man mit DLSS, FSR, RIS, tbc ... um Die Ecke damit alles erstmal überhaupt brauchbare Frameraten erreicht o.ä.

Ich finde die Entwicklung bedenklich.

Vor allem der proprietäre Kram sollte verschwinden.

Aber nVidia zeigt es, was möglich ist ...
Naja, Microsoft möchte über Direct X eine Schnittstelle bieten, bei der Spiele die Vektor Daten an den Treiber übergeben. Das würde dann das Thema proprietäre Umsetzung rausnehmen.

Letztlich können wir froh sein, dass NVIDIA mit DLSS gezeigt hat was alles geht und AMD und Intel mit FSR und XESS nachgezogen haben.
Letztlich ist ja FSR genau die Baustelle, wo AMD auch noch deutlich nachholen muss, weil die Bildqualität ist von den drei Umsetzungen bei AMD die schlechteste.
 
Der richtige Schritt und hoffentlich noch rechtzeitig.
MasterWinne schrieb:
generiert keinen steigenden Marktanteile (Server, CPU). Nur auf GPU bezogen kann ich diese Aussage noch nachvollziehen.
SavageSkull schrieb:
die Bildqualität
ist bei gut gemachter Integration mit FSR3.1 kein Argument mehr.
 
  • Gefällt mir
Reaktionen: SweetOhm und floTTes
blackiwid schrieb:
Ich weiß nicht obs Clickbait artig geschrieben ist oder tendenziös oder was aber irgendwie sperrt sich recht viel bei dem Artikel bei mir. Ja man wird auf A.I. setzen, dohh, man nennt die neuen notebook chips nicht um sonst AI 300, aber da gehts sicher mehr darum externen AI. entwicklern die Tools bereit zu stellen als das man Intern jetzt von heute auf morgen alles komplett auf A.I. umstellt.
Man braucht zeitnah eine neutrale Schnittstelle, die so gut ist, dass die Software Hersteller die auch gegenüber geschlossenen Schnittstellen (wie zb CUDA) umsatteln, so dass es nachher egal ist ob AMD oder Nvidia oder Intel oder zb Qualcomm. Dann kauft der Kunde die bessere Hardware.
Ist der erstmal an Hersteller X gebunden durch die Software, kommt dann ein anderer auch mit besserer Hardware nur schwer rein.
Problem bei offenen Schnittstellen ist oft die Dokumentation und die SDKs, weshalb Software Entwickler dann lieber zur proprietären Lösung greifen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und floTTes
SavageSkull schrieb:
Problem bei offenen Schnittstellen ist oft die Dokumentation und die SDKs, weshalb Software dann lieber zur proprietären Lösung greift.
Software greift zu proprietären Lösung du meinst Kunden?

Ich seh da AMD Mantle als ne gute Schablone man brachte es schnell auf den Markt war ein riesen Erfolg ja letztlich wurde man in Windows weitgehend von MS das schnell reagiert hat und ihr damals Minderwertiges DirectX auch Hardwarenaher gemacht hat, aber man hatte erst mal viel Erfolg mit den Konsolen mit ein paar Spielen quasi unbürokratisch, weil man nichts standardisieren musste und macht dann daraus Vulkan und standardisierte es damit quasi.

Die Gefahr von so nem Ansatz ist das die Begehrlichkeiten wachsen, wenn man schon zu viel Erfolg mit der proprietären Lösung hat, verleitet es einen dann es doch nicht frei zu geben hinterher, aber wenn AMD dem widerstehen könnte, wäre das vielleicht ein guter Mittelweg.

Naja ich seh das jetzt alles halt nicht als große Änderung sondern nur logischer weg vorwärts früher hatte man weniger Geld daher weniger Entwickler jetzt ist man deutlich Reicher -> daher mehr Entwickler... gut ne ver-3fachung ist mehr als nur "wir suchen weiterhin Leute", wahrscheinlich läufts da dann darauf raus das "wir sind bereit höhere Löhne zu zahlen das auch mehr Leute kommen".
 
  • Gefällt mir
Reaktionen: SweetOhm, Tanzmusikus und floTTes
Zurück
Oben