News Quartalszahlen: AMD wächst im Server, wäh­rend Radeon stark einbüßt

incurable schrieb:
Sei Dir bitte im Klaren, dass AMD Dir Deine Treue durch nichts vergelten wird.
Das ist mir klar, umgekehrt wird ein Schuh draus. Verlange ich auch gar nicht. Beruhigt nur mein ökonomisches Gewissen :P NVidia vergilt es seinen Käufern ja auch nicht ;)
 
  • Gefällt mir
Reaktionen: Snoop7676 und jonderson
Nooblander schrieb:
Also mit FrameGen. Das ist was ich meinte.
Ja, aber alle Regler auf ultra + Raytracing, das ist jetzt vom Anspruch her schon das Maximum.
Nooblander schrieb:
Ohne ist es halt derzeit noch schwierig.
Ich komme mit alles auf Low auf 60 bis 70 FPS, ist weitgehend prozessorlimitiert. Wer da einen schwachen hat, hat sicherlich ohne FG Probleme.
Auf Ultra 1440p mit DLAA habe ich ~50 FPS.
FrameGen ist also schon nötig, funktioniert aber so gut, dass sich das wie echte 100 FPS anfühlt.
Sehe keinen Grund kein FG zu nutzen.
Nooblander schrieb:
Ich würde gerne auf die FrameGen verzichten können bei gleichen FPS oder meinetwegen Upscaling only.
Ich hab bisher immer mit FG und DLSS oder DLAA gespielt.
 
@Freiheraus Du hättest auch 2019 und 2020 mit in die Zahlen aufnehmen sollen. Da würde man die Entwicklung richtig sehen.

Gegen Nvidia sehen alle schlecht aus. Aber beim Vergleich mit Intel sehen die AMD Zahlen sehr gut aus. AMD hat im 4. Quartal 2023 die Einnahmen von El Capitan verbucht. Angesichts dessen sind die Zahlen bei Data Center sehr gut. Der Abstand zu Intel ist deutlich geschrumpft. Client hat sich gut geschlagen. Hier hat AMD sequentiell einen kleineren Rückgang als Intel. Embedded hat wie angekündigt geschwächelt, sieht aber im Vergleich zu Altera noch sehr gut aus. Und dass die Konsolen so stark einbrechen war angekündigt. Aber hier hat Intel ja nichts zu bieten und konnte auch nichts einbüßen.
 
  • Gefällt mir
Reaktionen: Icke-ffm
jo0 schrieb:
Allein dadurch, dass durch AMD mehr als 4 Kerne im Privatsektor etabliert wurden.
AMD war dazu gezwungen, die Zen-Prozessoren mit mehr Kernen auszuliefern, weil sie in der Einzelkernleistung kein Land gesehen haben.
 
  • Gefällt mir
Reaktionen: Icke-ffm, MalWiederIch und MrHeisenberg
aldaric schrieb:
Das ist Wunschdenken.

AMD hatte in der Vergangenheit auch immer wieder konkurrenzfähige Produkte und war teilweise in verschiedenen Marktsegmenten sogar noch billiger und trotzdem hat ein Großteil der Kunden blind nVidia gekauft.

Solange nVidia nicht schwächelt oder es weiter mit den Preisen übertreibt und AMD in diesem Moment ein Halo-Produkt rausbringt, wird es kein Umdenken geben, wie es im CPU Geschäft der Fall war.
Du widerlegst am Ende deine komplette Aussage :p Und klar - mit schwachen Produkten wird das nichts …
 
  • Gefällt mir
Reaktionen: Quidproquo77 und MrHeisenberg
AMD konnte eben mehr Kerne reinpacken. Das bisschen Mehrleistung bei Intel steht in keinem Verhältnis zum Flächenverbrauch.
 
  • Gefällt mir
Reaktionen: jonderson, Icke-ffm und jo0
MrHeisenberg schrieb:
Ich spiele hier überhaupt keine Rolle. Es gibt Gründe, weshalb AMD so wenig Marktanteile hat und die habe ich genannt. Ich weiß, dass viele hier RT, DLSS und co. für quatsch halten, aber außerhalb eurer Bubble ist es eben nicht so.
Die Nvidiakarten verkaufen sich, trotz des Preises besser. Woran liegt es denn deiner Meinung nach, wenn nicht am Featureset bzw. der Software?


Es geht auch nicht um die Verbreitung, sondern um das Interesse. Ich schrieb, dass der Markt sich für RT/DLSS interessiert und nicht, dass es weit verbreitet ist. Das sind zwei paar Schuhe.
Das liegt hauptsächlich an Fanboys und dem Marketing von Nvidia. Die Masse lässt sich schnell was auf quatschen und kaufen sowieso, was schon immer gekauft wurde. Dann gibt es so Leute wie dich, die fast alles schlecht reden, was AMD macht. Zudem kommt noch dazu, dass die Treiber von AMD früher ziemlich scheiße waren und man es immer noch liest, was aber schon lange nicht mehr der Fall ist.

Ich hatte noch nie so wenig Probleme mit einer Graka, wie meiner aktuellen und ich hatte schon einige, von AMD, Nvidia und damals auch 3dfx.
Sie verbinden die Marke Nvidia auch mit was tollem, welches einem ein gutes Gefühl gibt, wie auch bei Apple.

Die Features wie RT klingen erstmal toll, was von jeden auch so gefressen wird. Wenn man das aber nüchtern betrachtet, hat sich mal gar nicht so viel getan, besonders was Full Pathtracing angeht, die 2, 3*? Singleplayer Spiele oder so? Dafür kaufen sich die Leute dann die Nvidia. Haben effektiv vielleicht 100Std. (wenn überhaupt) damit vebracht und seitdem bekommen sie nichts mehr. Wäre das ein Feature, was sein Lieblings MP spiel(e) nutzt, was mehrere hunderte oder tausende Stunden gespielt wird, wäre das was, wo man auf seine Kosten kommt. Oder wenn es wirklich ein Standard wäre bei jedem neuen Spiel. Aber so?

Das bisschen Schatten in RT zu berechnen, bekommt auch jede halbwegs aktuelle AMD Karte hin, wie bei allen möglichen Unreal Engine 5 Games.
DLSS ist besser, FSR ist aber meist nicht so schlecht wie es niedergeschrieben wird. Es hat seine Schwächen, oft ist es auch gut und es fällt beim Spielen nichtmal auf. Wenn sie die Bildstabilität bei Vegetationen noch mehr in den Griff kriegen, haben sie schon viel geschafft.
Frame Generation ist bei AMD mitlerweile erste Sahne, muss man eigentlich garnicht ansprechen.

*Zahlen sind nur geschätzt

Ich war nach meiner, doch sehr geliebten 1080ti sehr am Hadern, ob ich AMD eine Chance gebe. Im Kopf verbindet man leider Nvidia als gut und AMD als schlecht. Hatte es schlussendlich gemacht, weil die 4080 so extrem teuer war, dass ich da nicht mitspielen wollte. Und Nvidia ist für mich extrem unsympathisch, was ich alles so über die Jahre mitbekam. Zum Beispiel, dass Treiber Features bei alten Generationen wegließen, obwohl es technisch möglich gewesen wäre, aber Nvidia sagte, dass es nicht möglich wäre (RTX Voice). (Gab einen modifizierten Treiber, mit dem das kurzzeitig möglich war.)

AMD war dazu gezwungen, die Zen-Prozessoren mit mehr Kernen auszuliefern, weil sie in der Einzelkernleistung kein Land gesehen haben.


incurable schrieb:
AMD war dazu gezwungen, die Zen-Prozessoren mit mehr Kernen auszuliefern, weil sie in der Einzelkernleistung kein Land gesehen haben.
Kein Land halte ich für sehr übertrieben. Schlussendlich hat Intel nachgezogen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snoop7676, Eli0t und Icke-ffm
SirSilent schrieb:
Wie AI bringt nicht den Geldsegen? Das kann doch gar nicht sein...
Naja, zumindest nicht AMD - aber das war ja zu erwarten …
 
incurable schrieb:
AMD Athlon K7 1 GHz - $1299 bei Vorstellung.
Cool, ich dachte schon es wären irgendwelche FX CPUs gewesen, das der k7 in 1ghz so teuer war ist glaube ich echt an mir vorbeigegangen. In 700mhz war er damals je relativ erschwinglich gewesen und zumindest meiner lief dann auch mit 850mhz tatsächlich noch stabil. Wobei ich fast annehme das die Straßenpreise recht schnell komme unter MSRP waren.
 
jo0 schrieb:
Das liegt hauptsächlich an Fanboys und dem Marketing von Nvidia.
Fanboys glaube ich nicht. Klar spielen die irgendwo ne Rolle, aber doch eher untergeordnet.

jo0 schrieb:
Die Masse lässt sich schnell was auf quatschen und kaufen sowieso, was schon immer gekauft wurde. Dann gibt es so Leute wie dich, die fast alles schlecht reden, was AMD macht. Zudem kommt noch dazu, dass die Treiber von AMD früher ziemlich scheiße waren und man es immer noch liest, was aber schon lange nicht mehr der Fall ist.
Mit Features verkauft man u.a. Produkte. Das ist in anderen Bereichen auch der Fall (Handys z.B.).
Und ja, die schlechten Treiber schwingen bis heute noch mit. In meinem Umkreis gibt es ein paar, die AMD meiden wie das Weihwasser, selbst wenn ich es empfehle. Als Grund geben sie die Treiber/Software an.

jo0 schrieb:
Die Features wie RT klingen erstmal toll, was von jeden auch so gefressen wird. Wenn man das aber nüchtern betrachtet, hat sich mal gar nicht so viel getan, besonders was Full Pathtracing angeht, die 2, 3*? Singleplayer Spiele oder so? Dafür kaufen sich die Leute dann die Nvidia. Haben effektiv vielleicht 100Std. (wenn überhaupt) damit vebracht und seitdem bekommen sie nichts mehr. Wäre das ein Feature, was sein Lieblings MP spiel(e) nutzt, was mehrere tausende Stunden gespielt wird, wäre das was, wo man auf seine Kosten kommt. Oder wenn es wirklich ein Standard wäre bei jedem neuen Spiel. Aber so?
Fairerweise muss man aber auch sagen, dass abseits von RT in den letzten Jahren die Anzahl der guten Spiele sich recht in grenzen hielt. Ich habe selten so wenig Spiele gekauft wie dieses bzw. letztes Jahr. Auf Konsolen übrigens das gleiche.
Grafikfeatures müssen auch nicht immer günstig oder Superperformant sein, damit die Leute drauf anspringen. Als Beispiel wären hier MSAA oder 4K zu nennen. Von 1080p/WQHD auf 4K zu wechseln rechtfertigt auch keine tausende von Euros und das halbieren der FPS.

jo0 schrieb:
Das bisschen Schatten in RT zu berechnen, bekommt auch jede halbwegs aktuelle AMD Karte hin, wie alle möglichen Unreal Engine 5 Games.
Leider nein, jedenfalls nicht in der Qualität. Software RT ist nicht so schnell/qualitativ gut wie Hardware RT. Das geht auch gar nicht.

jo0 schrieb:
DLSS ist besser, FSR ist aber meist nicht so schlecht wie es niedergeschrieben wird. Es hat seine Schwächen, oft ist es auch gut und es fällt beim Spielen nichtmal auf. Wenn sie die Bildstabilität bei Vegetationen noch mehr in den Griff kriegen, haben sie schon viel geschafft.
Frame Generation ist bei AMD mitlerweile erste Sahne, muss man eigentlich garnicht ansprechen.
Ja, aber seit wann? Wie ich schon schrieb, kam DLSS 2.0 2020 raus. Zu der Zeit gab es nicht mal FSR 1.0.

jo0 schrieb:
Und Nvidia ist für mich extrem unsympathisch, was ich alles so über die Jahre mitbekam.
Wenn ich nach Sympathie gehen würde, dürfte ich von keinem Aktienunternehmen irgendwas kaufen.

jo0 schrieb:
Zum Beispiel, dass Treiber Features bei alten Generationen wegließen, obwohl es technisch möglich gewesen wäre, aber Nvidia sagte, dass es nicht möglich wäre (RTX Voice). (Gab einen modifizierten Treiber, mit dem das kurzzeitig möglich war.)
Bin da nicht so im Thema, aber laut Google geht das immer noch und es sieht für mich so aus, als würde man die Karten einfach nicht mehr Supporten, weil zu alt. Das es technisch nicht geht, kann ich da jetzt nicht sehen.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und MalWiederIch
ETI1120 schrieb:
AMD konnte eben mehr Kerne reinpacken. Das bisschen Mehrleistung bei Intel steht in keinem Verhältnis zum Flächenverbrauch.
Tut nur nicht wirklich etwas zur Sache - die Intel CPUs waren nach wie vor sehr teuer und AMD ging über den Preis. Die Marge war bei Intel in den 1-2 Generationen vermutlich dennoch höher, erst Generationen später musste dann Intel über den Preis kommen … Ohne den günstigen Preis zu AM4 Zeiten hätte es die Verbreitung natürlich nie gegeben, der Plan ist aufgegangen.
 
  • Gefällt mir
Reaktionen: incurable
Auch wenn dass die Hardware-Nerds in Foren wieder anders sehen ist für mich Ki/Ai außerhalb von Profianwenungen ein totes Pferd. Das wird genausowening erfolgreich sein wie 3D-TV. Als Co Prozessor bei GPU evtl. wegen den ganzen Upscaler die ich nicht nutze, aber sonst, sind die privaten Anwendungsmöglichkeiten begrenzt und wer mal etwas damit machen will geht zu Chat-GPT und anderen Vertretern. Glaube auch nicht dass die Desktop Hardware wirklich potent genug für so was ist.
 
incurable schrieb:
AMD war dazu gezwungen, die Zen-Prozessoren mit mehr Kernen auszuliefern, weil sie in der Einzelkernleistung kein Land gesehen haben.
Phenom II X6? Mehr als vier Kerne gab es schon weit vor Zen bei AMD im Privatkundensektor.
 
  • Gefällt mir
Reaktionen: eXe777 und Apocalypse
incurable schrieb:
AMD war dazu gezwungen, die Zen-Prozessoren mit mehr Kernen auszuliefern, weil sie in der Einzelkernleistung kein Land gesehen haben.
Phenom hatte auch schon 6-Kerne und Bulldozer sogar 8, wobei jetzt gleich jemand sagen wird das die 8-Kerne keine vollwertigen Kerne waren und ehr wie 4 zählen sollten. Und vielleicht hat er damit sogar recht, anderseits wären es dann ein sehr mächtiger und großer 4-Kerner mit 8 Modulen gewesen. ;-)
 
duskstalker schrieb:
am5 ist einfach nix als plattform, das ding hat so viele fragwürde designentscheidungen, die den preis nach oben treiben, aber letztendlich kaum einen nutzen bringen.


duskstalker schrieb:
Aber dann kommen noch die mickrigen 28 pcie lanes
Ja also, mehr als 28 PCIe-Lanes wären aus meiner Sicht noch so eine fragwürdige Designentscheidung gewesen, die den Preis nach oben getrieben hätte, ohne einen Mehrwert für die meisten.

duskstalker schrieb:
und der saublöde doppelchipsatz via x4 gen4 dazu, der einfach nur affenartig teuer ist und die boardpreise aufbläst
Warum soll das signifikant teurer sein, als ein eigener "Southbridge"-Chip?
 
Cool Master schrieb:
Nein, Feature-Parität.

Die ist gegeben. Der Unterschied ist auch deutlich geringer, als so mancher hier immer kolportiert.

Würde aber trotzdem nichts ändern. Wie @aldaric schon schrieb würden die meisten trotzdem nVidia kaufen. Wie Schafe, die man zur Schlachtbank führt. Erst wenn das Beil fällt, fangen vielleicht ein paar Leute an, umzudenken. :D
 
  • Gefällt mir
Reaktionen: jonderson
Ja, AMD baut jetzt die besseren CPUs von der Effizienz her.
Die Grafikkarten sind jetzt auch nicht so schlecht. Aber AMD könnte etwas Gas geben.
Aber dafür beliefert AMD die Playstation und Xbox mit CPUs und GPUs. Das darf man auch nicht vergessen.
Jetzt auch bald die PS5 Pro.
 
  • Gefällt mir
Reaktionen: Icke-ffm
MalWiederIch schrieb:
Naja, zumindest nicht AMD

"Deutliches Wachstum im Server
Im Data-Center-Segment sorgten wiederum Epyc-CPUs und laut AMD auch der AI-GPU-Beschleuniger MI300X für das starke Wachstum.

Insgesamt geht AMD davon aus, mit „AI-Chips“ im Geschäftsjahr 2024 um die 4 Milliarden US-Dollar umsetzen zu können."

" hat AMD 80 Prozent Wachstum mit GPU- und Epyc-Produkten für Server vermelden können"

Nach der News und dem Bericht fällt wohl schon was ab für AMD, finanziell. Auch als Zweiter am AI Markt.
 
  • Gefällt mir
Reaktionen: Icke-ffm
MalWiederIch schrieb:
Tut nur nicht wirklich etwas zur Sache -
Deine ganzen Posts hier tun nichts zur Sache.

Intel hat nun Mal die dominierende Stellung in der IT verloren. Und es waren nicht nur die Probleme bei der Halbleiter Fertigung. Dazu gehören auch massive Fehlentscheidungen bei der Kernentwicklung.

Das einzige was Intel vor dem Totalabsturz bewahrt hat, war, dass sie zuvor eine absolut dominierende Stellung hatten. Und das es in den Kernmärkten nur einen einzigen dahin vor sich hin siechenden Konkurrenten gab.

Das Problem ist nun Mal bei Intel, dass ihre einstige Cashcow Server ganz schön abgemagert ist. Es ist schon witzig dass die frühere Chefin lieber Altera führt als die deutlich größere DCAI.

Der Laden bei Intel wird nur noch von den Client CPUs am Leben gehalten. Und das sind weniger die CPUs als die Plattformen und die bestehenden Bindungen zu den Enterprise Kunden.
 
  • Gefällt mir
Reaktionen: Freiheraus und Icke-ffm
Zurück
Oben