News Quartalszahlen: AMD wächst im Server, wäh­rend Radeon stark einbüßt

H6-Mobs schrieb:
Ich denke, er meint die LPE-cores
Waren das nicht einfach E-Cores, die im Base-Tile mit noch weniger Frequenz betrieben werden? Oder verwechsel ich da was?
 
Cr4y schrieb:
Waren das nicht einfach E-Cores
Den technischen Aufbau kenne ich nicht aber dadurch das sie direkt im SoC-Tile integriert sind, kann man sie nicht einfach mit E Cores vergleichen.
 
Unti schrieb:
Das einzige Delay das es gibt ist schlicht beim G-Sync/Monitorsettings aktivieren.
Die Globalen Settings sind quasi direkt angenommen, kein Delay.
Oder was meinst du genau?
Bei praktisch jedem Ausrollmenü im Bereich "3D-Einstellungen verwalten" gibt es mindestens zwei Verzögerungen - ein Mal, bis die Zelle nach dem Mausklick als ausgewählt (blau hinterlegt) angezeigt wird, dann bis das Menü auch ausgerollt ist.

Sollte man dann Einstellungen geändert haben, braucht es wieder Zeit, bis man die Änderungen auch übernehmen kann.
 
H6-Mobs schrieb:
Den technischen Aufbau kenne ich nicht aber dadurch das sie direkt im SoC-Tile integriert sind, kann man sie nicht einfach mit E Cores vergleichen.
Warum?
 
ETI1120 schrieb:
Ich habe bis heute keine vernünftige Erklärung gehört was schief gelaufen ist.
Ich weiß nicht, was Du Dir erwartest. 🤷‍♂️

ETI1120 schrieb:
Ich habe Dich schon einmal gefragt, warum hat Intel 2018 Jim Keller geholt, wenn in der Entwicklung bei den Kernen alles so toll war?
Hast Du nicht.

ETI1120 schrieb:
Wegen welcher physikalischer Realität wurde das Ziel der Einführung von 10 nm um 5 Jahre verfehlt?
P1272 war problematisch in die Produktion zu überführen.

P1274 war in seiner ursprünglichen Zielsetzung offensichtlich nicht in der regulären Produktion umsetzbar.

ETI1120 schrieb:
Die Geschichte mit dem Vergütungssystem ist sehr wohl Kern der Sache.
Wenn etwas nicht geht, geht es nicht. Egal wie viele Barkarotten man den Leuten in der Abteilung für Unmögliches vor die Nase hält.
 
MrHeisenberg schrieb:
Es zerreißt dir aber das Bild bzw. UI Elemente, weil der Treiber nicht zwischen UI und Ingame unterscheiden kann.
Ist mir bis jetzt nicht aufgefallen. Vielleicht wird da noch was mit Freesync synchronisiert.
Ergänzung ()

Quidproquo77 schrieb:
Und fühlt sich dann mangels Framepacing an wie 80 FPS.
Ständige Framedrops bei einfach Mausbewegungen, nein danke
Das hätte man bei 99% Percentil gesehen. Weder von den Zahlen noch vom Gefühl ist mir da was aufgefallen. Die Latenz beträgt im Durchschnitt 8 ms.
 
ETI1120 schrieb:
Und die 50 % Marktanteil sind noch lange hin und auch nur dann möglich wenn AMD bei den CPUs in jeder Generation absolut Top liefert.
Das bezweifele ich, Intel greift ab ende des Jahres auch zum grossteil auf TSMC Fertigung um die eigenen CPUs zu fertigen, und muss gleichzeitig die eigene Fertigung wieder state of the art bringen, was ein Drahtseilakt wird. Ich sehe das Risiko für Intel weitaus höher wie für AMD
ETI1120 schrieb:
Das wird nicht funktionieren. Mit 10 % Operation Marge wäre es ein Balance Akt für AMD.
ich meinte damit auch die Instruct GPUs kein Gaming, AI muss AMD auf Nvidia aufholen und den vorsprung zu Intel ausbauen, und das sie keine 10% OMarge ausweisen werden ist klar aber wenn die CPUs 100% Marge und 70% Umsatz machen drückt das nur die gesamt marge im Data
ETI1120 schrieb:
Nach allem was man hört wird RDNA 4 nur mit 2 Dies kommen, wobei der kleinere eigentlich nur für Notebooks taugt.
genau die meinte ich ja, RDNA3 war das Erstlingswerk, und noch kein wirkliches Chiplet, lediglich die Speichercontroler sind extern das wird bei den RDNA4 wohl auch so bleiben, aber das 2 oder mehr GCDs zusammen eine Grosse GPU ergeben. Notebooks sind der Hauptumsatzbringer da wird auch Nvidia die meisten GPUs absetzen, AMD hingegen gibt es hingegen nicht ein Intel NB mit AMD GPU der letzten 3 Generationen.
ETI1120 schrieb:
Die OEM hätte sich von Intel schon zu einem tollen Bundle Deal mit CPU und GPU überreden lassen.
selbiges gilt auch für AMD, wohl auch der Grund für “Strix Halo” wenn das wirklich stimmt könnte das eine extrem brauchbare Workstation APU werden, dank 256Bit speicherinterface dürfte auch die CPU allein davon Profiteren und wer dann das schnellste Gaming NB haben will muss eben AMD die GPU mitbezahlen und Nvidia on TOP.

zumindest scheint sich nun der Backlock bei den OEMs gelöst zu haben und es geht wieder Richtung normalität, Intel hat die letzten 2Jahre über die Masse und dank eigener Fertigung den Umsatz gehalten, lässte aber ab der nächsten gen auch viel bei TSMC fertigen und muss die eigene Fertigung noch hinbekommen.
AMD musste die bestellten Wafer 22&23 abnehmen, oder wenn nicht Strafe zahlen
in den Jahren, verpflichtende Käufe für selbes Jahr, hat Intel wegen eigener Fertigung nicht.
2021 - 3,026Mrd.
2022 - 5,765Mrd.
2023 - 6,489Mrd.
2024 - 3,858Mrd.
Vertraglich Zugesicherte Verkäufe binnen 1Jahr oder weniger Intel/AMD stand Q1 Zahlen
2021 - 3,596Mrd. / Amd nichts gefunden
2022 - 26,683Mrd / 2,090Mrd.
2023 - 15,874Mrd / 2,474Mrd.
2024 - 5,579Mrd. / 3,638Mrd.
Zahlen können in den 10-Q Zahlenwerk nachgeschlagen werden.
Intel hat NB Stückzahlen anfang des Jahres um 39% und Desktop 29% gesteigert bei unverändertem ASP
AMD hingegen 58% total mehr stückzahlen und 16% mehr ASP richtig Interessant wird das ganze dann im Nächstem Quartal wo 22 der Einbruch gekommen ist, AMD hat einen Riesen Inventarbestand den sie abverkaufen müssen, und Intel hat kaum noch zugesagte Verkäufe, also entscheidet der Preis und wer wie schnell liefern kann wird ein spannendes Jahr werden
 
TigerherzLXXXVI schrieb:
boykottiert einfach diese hohen GPU-Preise und hört auf so viel Geld für eine Gaming-Grafikkarte auf den Tisch zu legen. Spielt mal mit niedrigeren Grafiksettings oder setzt ein 60-FPS-Lock. Der Markt regelt.
Der Markt hat keinerlei Einfluss auf die Gestehungskosten.

Wenn die Geräte nicht für Gestehungskosten + angestrebte Marge verkauft werden, senkt das (abseits eines möglichen letzten Abverkaufs) nicht etwa die Preise, sondern sie verschwinden ganz.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Cr4y
latiose88 schrieb:
das Problem an der ganzen Sache ist das ab und zu AMD wirklich noch massive Probleme hat.

Was in aller Regel, wenn überhaupt vorhanden, aber - genauso wie bei nVidia - auf drei Dinge zurückzuführen ist: Entweder ist das Spiel verbuggt, das System wurde nicht richtig eingerichtet (User-Error) oder sind Hardware-Defekte/Instabilitäten.

Ich habe nun dafür keine belastbaren Zahlen, bezweifle aber, dass diese Probleme bei AMD inhärent öfter vorkommen als bei nVidia. Alleine dadurch, dass nVidia schon viel öfter gekauft wird... Der schlechte Ruf basiert hauptsächlich auf Hören-Sagen von Leuten, die keine Ahnung haben, es nie probiert haben etc. und diese Falschinformationen dann weiter ins Netz streuen.
 
  • Gefällt mir
Reaktionen: Icke-ffm
Du lässt zwei Faktoren aus:

Es wird beim PC hauptsächlich mit Nvidia-Karten entwickelt und getestet. Das sorgt dafür dass viele Probleme mit Nvidia Karten schon früh behoben werden.

Wenn dann doch Probleme auftreten ist bei Nvidia erstmal das Game schuld und bei AMD wird immer zuerst der Treiber beschuldigt.
 
  • Gefällt mir
Reaktionen: Icke-ffm, Flaschensammler und jonderson
MrHeisenberg schrieb:
Wer sein hart erarbeitetes Geld aus Mitleid lieber Unternehmen A, statt B gibt, dem ist nicht mehr zu helfen.
Das sind Aktienunternehmen. Die interessiert nur Gewinne und als Konsument ist man da immer der Verlierer.

Ich kaufe, was mir am besten Gefällt/am besten zu mir passt. Welches Unternehmen dahinter steckt, ist mir sowas von egal.

Und ich denke an die Zukunft. Denn die ist nicht "sowas von egal".
Erst kaufen die Leute "was mir am besten Gefällt/am besten zu mir passt" und wenn sich dann ein Monopol bildet wird nach Staat geschrien. Mitdenken scheinbar unerwünscht.

Was meinst du warum DLSS so verbreitet ist. Ja es wird so verrückt, dass die Kunden Sturm laufen, wenn es nur FSR aber kein DLSS in einem Spiel gibt.
Meinst du in so einem Markt kann ein Konkurrent mit wenig Marktanteil gut überleben, insbesondere wenn alles auf den Quasi-Monopolist optimiert wird?
Ergänzung ()

incurable schrieb:
Sei Dir bitte im Klaren, dass AMD Dir Deine Treue durch nichts vergelten wird.
Ich möchte gar nichts von AMD, ich möchte einen gesunden Markt.
Problem ist, dass dieses Bewusstsein im Grafikkartenmarkt kaum vorhanden ist...
Wie gesagt: Der Konsument drückt sich vor seiner Verantwortung den Markt zu regeln und schreit am Ende nach dem Staat...
Ich möchte nicht das Nvidia alles mit mir machen kann, was sie wollen. Und erste sehr deutliche Anzeichen gibt es schon seit längerem und sie werden immer schlimmer!
 
  • Gefällt mir
Reaktionen: Icke-ffm, Flaschensammler und ETI1120
latiose88 schrieb:
hm das Problem an der ganzen Sache ist das ab und zu AMD wirklich noch massive Probleme hat. Da drauf haben Kunden keine Lust und diese frikeln und so erst recht nicht. Man liest von hier abstürzen oder da klemmt was usw.
Und das bestätigt einige noch und dann greifen sie Automatisch zu nvidia. Da gab es zwar auch mal Probleme aber die wurden um einiges schneller behoben.
Klar hat auch nvidia Probleme wie aktuelle Treiber mit alten bis sehr alten games. So bis 20 Jahre und älter als Beispiel.
Da bleibt halt eben nur die Wahl mit einem älteren Treiber übrig zu nehmen.
Also macht der NVIDIA Treiber Probleme. Ich habe nur AMD und da läuft alles.
NVIDIA ist besser im Raytracing, verwendet dafür aber extra Chipfläche, die ansonsten brach liegt. AMDs Ansatz ist da wesentlich effizienter, da die Rechenkerne fürs Rastern und für Raytracing verwendet werden können. Und mit steigender Anzahl der Rechenkerne, steigt dann auch die Raytracingleistung. Ich denke, wenn es mehrere Compute-Chiplets geben wird und die Anzahl der Rechenkerne stark ansteigt, wird AMDs Ansatz sich durchsetzen.
 
  • Gefällt mir
Reaktionen: Icke-ffm
jonderson schrieb:
Ich möchte nicht das Nvidia alles mit mir machen kann, was sie wollen. Und erste sehr deutliche Anzeichen gibt es schon seit längerem und sie werden immer schlimmer!

AMD zieht doch größtenteils mit. Es gibt ja nicht umsonst die von einigen geäußerte Hoffnung, dass Intel (!) wieder was regeln wird. Wobei ich mir im aktuellen Grafikkartenmarkt schwer vorstellen kann, dass selbst aggressiver Preiskampf im Verbund mit ordentlichen Produkten extrem was reißt.

Seit Jahren sind die Menschen völlig gewohnt, dass selbst eine frisch auf dem Markt erschienene Einstiegs-GPU den Preis einer Konsole kostet -- sowohl bei AMD als auch bei Nvidia. Der Rest skaliert entsprechend. Was sind da schon 50-100 Euro extra? Generationen an Nutzern wissen via Gnade der zu späten Geburt schon gar nicht mehr, dass man selbst mit 100-Euro-GPUs (Plural) über Jahre ordentlich spielen konnte. Und ab 150-200 Tacken bereits die gutbürgerliche Mittelklasse anfing, mit der man keine riesigen Abstriche mehr machen musste.

Selbst wenn die Herstellungskosten derart stark gestiegen wären, dass es mittlerweile mehr als das Doppelte investiert werden muss (im Gegensatz zu allen anderen Komponenten übrigens, außer in Ansätzen Mainboards): Es hindert außer stark veränderten Prioritäten (KI, Konsolengeschäft) keinen einzigen GPU-Hersteller Produkte auf den Markt zu bringen, die trotzdem auch brandneu einen ~Hunderter weniger kosten. Aktuell bei AMD fehlt etwa völlig eine 7500XT im Line-Up. Und die RTX 4050 bei Nvidia ja auch. Sobald die Vorgänger-Reihen verschwinden, ist das bereits die erste Marktlücke.
 
Zuletzt bearbeitet:
jonderson schrieb:
Wie gesagt: Der Konsument drückt sich vor seiner Verantwortung den Markt zu regeln und schreit am Ende nach dem Staat...
Du missverstehst grundlegend die Steuerungswirkung der Konsumentenseite.
Ergänzung ()

Debian User schrieb:
AMDs Ansatz ist da wesentlich effizienter, da die Rechenkerne fürs Rastern und für Raytracing verwendet werden können.
Das ist nur effizienter, wenn die Einheiten nicht genutzt werden. Sobald sie zum Tragen kommen, sieht die Softwarelösung kein Land. (Das ist im Übrigen grundsätzlich bei als Funktionseinheiten implementierten Spezialfunktionen so, hat also nichts mit einer dieser Firmen zu tun.)
Ergänzung ()

Debian User schrieb:
Ich denke, wenn es mehrere Compute-Chiplets geben wird und die Anzahl der Rechenkerne stark ansteigt, wird AMDs Ansatz sich durchsetzen.
Das ist praktisch auszuschließen.
Ergänzung ()

Svennc schrieb:
Selbst wenn die Herstellungskosten derart stark gestiegen wären, dass es mittlerweile mehr als das Doppelte investiert werden muss
Wir reden von Kosten zwischen $20,000 und $30,000 für eine einzige belichtete Siliziumscheibe. Das ist nicht das Doppelte, das ist nicht das Vierfache, das ist in der Region vom Zwanzigfachen wie vor 20 Jahren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
incurable schrieb:
Wir reden von Kosten zwischen $20,000 und $30,000 für eine einzige belichtete Siliziumscheibe. Das ist nicht das Doppelte, das ist nicht das Vierfache, das ist in der Region vom Zwanzigfachen wie vor 20 Jahren.


CPU-Preise: Halt mein Bier.
cpu.png
 

Anhänge

  • athlon2.png
    athlon2.png
    23,7 KB · Aufrufe: 52
Ich weiß nicht, was Du mir/uns mit Endkundenpreisen von vor 15 Jahren sagen möchtest.
 
Debian User schrieb:
Also macht der NVIDIA Treiber Probleme. Ich habe nur AMD und da läuft alles.
Kann ich nicht sagen.Ich weis nur das ich zu dem damaligen Zeitpunkt wo ich das spiel gespielt hatte eine gtx Titan von 2013 noch hatte und einen i9 9980xe also das war 2019 gewesen.Das Game ist von 2006-2008,es bekam zwar mehreren updates aber es lief nicht wunderbar auf dem Rechner.Es war Windows 7 gewesen und der Treiber war auch nicht das neueste gewesen.An den FPS lag es nicht,also es ruckelte nicht.Erst war der Weg anderst dagestellt in Sacred GOLD Edition,dann verschanden die ganzen Items und gegenstände.Mein bester Kumpel hat Gold das ist die Einheit dort zum zahlen.Er hat also Gold einfach so verloren gehabt.Mein Reittier als das Pferd steckte immer irgendwo fest und nach Wechsel des Ortes tauchte es mit viel Geduld mal auf.Der Gipfel war dann als ich in den Tunnel ging,dort kämpften wir weil das der zweite Abschnitt war.Allerdings starb ich und als ich dann wieder rein gehen wollte ,konnte ich nicht mehr dazu stoßen.
Später erzählte mir dann eine die das Spiel gezockt hatte,das es unter Windows xp mit älterer Hardware ohne Probleme lief.Also ist das ein Windows xp Game kann man sagen das nur schlampig Programiert worden ist.Ist die Frage ist das die Schuld des Spiels oder weil die GPU zu neu ist oder das das OS schuld ist,weil es zu neu ist.Das kann ich nämlich nicht genau beantworten.



Debian User schrieb:
NVIDIA ist besser im Raytracing, verwendet dafür aber extra Chipfläche, die ansonsten brach liegt.
Ist das echt so,also darum werden GPUS immer Größér,nur deswegen?


Debian User schrieb:
AMDs Ansatz ist da wesentlich effizienter, da die Rechenkerne fürs Rastern und für Raytracing verwendet werden können. Und mit steigender Anzahl der Rechenkerne, steigt dann auch die Raytracingleistung. Ich denke, wenn es mehrere Compute-Chiplets geben wird und die Anzahl der Rechenkerne stark ansteigt, wird AMDs Ansatz sich durchsetzen.
Abwarten,noch ist es nur Therorie,wenn es spruchreif wäre,würde AMD das schon zeigen.Ob es AMD jemals hinbekommen wird,kann man dazu echt nicht genau sagen.Ich denke mal eher wohl weniger.GPUS sind halt eben keine CPUS,alleine vom Aufbau schon nicht kann man so sagen.
 
incurable schrieb:
Ich weiß nicht, was Du mir/uns mit Endkundenpreisen von vor 15 Jahren sagen möchtest.

Dass sich der Preis von CPUs nicht in wenigen Jahren einfach vervielfacht hat. Tatsächlich ist er ziemlich robust. Wenn der (Gaming-)GPU-Markt einigermaßen umkämpft wäre, wäre das auch hier nicht auf diese Art und Weise passiert. Das nennt sich Fortschritt, auch in der Fertigung: Bessere Technologie zu zumindest näherungsweise bis bisweilen gar sinkenden Preisen. Und ist der Grund, warum du überhaupt hier gerade posten kannst, statt via Rauchzeichen mit der Welt in der Ferne zu kommunizieren.
 
Icke-ffm schrieb:
Das bezweifele ich, Intel greift ab ende des Jahres auch zum grossteil auf TSMC Fertigung um die eigenen CPUs zu fertigen, und muss gleichzeitig die eigene Fertigung wieder state of the art bringen, was ein Drahtseilakt wird.
Das meine ich nicht. AMD kann nur dann Marktanteile gewinnen, wenn sie bessere Produkte liefern.

Dabei ist der eigentliche Engpass bei AMD nicht die CPU sondern die Plattformen und das Marketing. Mit Marketing meine ich nicht coole Sprüche auf Twitter, sondern die ganze Arbeit, die aus einer CPU ein verkaufsfähiges Produkt macht. Da reicht ein Video mit 3 1/2 Minuten bei Siena eben nicht.

Icke-ffm schrieb:
Ich sehe das Risiko für Intel weitaus höher wie für AMD
Die Risiken sind unterschiedlich. AMD muss unerbittlich liefern und die ganzen Teilmärkte auch endlich angehen.

Für Intel genügt es einstweilen die Lücke bei den Servern zu schließen.

CPUs werden auf absehbare Zeit keine Produkte mehr sein mit denen sich exorbitante Margen erzielen lassen. Deshalb liegt das große Risiko bei Intel in den Fabs. Die Prozesse müssen auf dem Silizium funktionieren und Intel muss Kunden für die Fertigung gewinnen. Wenn es nicht gelingt das Volumen massiv zu steigern werden die Fabs auf Dauer Intel unter Wasser ziehen.

Icke-ffm schrieb:
ich meinte damit auch die Instruct GPUs kein Gaming, AI muss AMD auf Nvidia aufholen und den vorsprung zu Intel ausbauen, und das sie keine 10% OMarge ausweisen werden ist klar aber wenn die CPUs 100% Marge und 70% Umsatz machen drückt das nur die gesamt marge im Data
Randbemerkung: Du verhaspelst Dich bei den %-Werten der Margen. Eine Marge von 100 % bedeutet, dass dem Umsatz keine Kosten gegenüber stehen.

AMD muss mit den MI300 massiv Marge einfahren. Sie werden keine Brutto Marge wie Nvidia von jenseits der 80 % einfahren, aber eine Bruttomarge von mindestens 50 % muss drin sein. Irgendwie muss AMD die Leute finanzieren die den Softwarestack hochziehen.

Icke-ffm schrieb:
genau die meinte ich ja, RDNA3 war das Erstlingswerk, und noch kein wirkliches Chiplet, lediglich die Speichercontroler sind extern das wird bei den RDNA4 wohl auch so bleiben, aber das 2 oder mehr GCDs zusammen eine Grosse GPU ergeben.
Navi 31 und Navi 32 sind Chiplets. Niemand sagt, dass man 2 GCDs braucht um das Chiplets nennen zu können.

Das Navi 31 GCD hatte 308 mm². Ich sehe keinen Grund warum AMD mit RDNA 4 auf Multi GCD hätte wechseln sollen. Multi-GCD benötigen aktive oder passive Silizium-Brücken oder einen Silizium-Interposer.
Die GPUs würden so teuer werden, dass AMD keine ausreichenden Stückzahlen verkaufen könnte.

IMO ist eine große GPU erst dann für AMD finanzierbar, wenn sie mit Nvidia beim Rendering mithalten können. Auch wenn das Volumen bescheiden bleiben wird würde es den Kostendruck von der Gaming GPU nehmen.

Icke-ffm schrieb:
selbiges gilt auch für AMD, wohl auch der Grund für “Strix Halo” wenn das wirklich stimmt könnte das eine extrem brauchbare Workstation APU werden, dank 256Bit speicherinterface dürfte auch die CPU allein davon Profiteren und wer dann das schnellste Gaming NB haben will muss eben AMD die GPU mitbezahlen und Nvidia on TOP.
Das ist ein guter Punkt als kompakte aber leistungfähige mobile Workstation ergeben 16 CPU Kerne und 40 CU einen Sinn.

Aber hier kommt es darauf an wie gut der pro-Treiberstack mittlerweile ist. Die professionellen Anwender sind deutlich nachtragender als die Gamer. Deshalb habe ich meine Zweifel ...

Icke-ffm schrieb:
zumindest scheint sich nun der Backlock bei den OEMs gelöst zu haben und es geht wieder Richtung normalität, Intel hat die letzten 2Jahre über die Masse und dank eigener Fertigung den Umsatz gehalten, lässte aber ab der nächsten gen auch viel bei TSMC fertigen und muss die eigene Fertigung noch hinbekommen.
Intel profitiert von den Plattformen und den nach wie vor sehr guten Standing bei den Unternehmenskunden, sowohl für Server CPUs als auch Client CPUs.

Es gab und gibt Überkapazitäten in den Fabs, deshalb verstehe ich den Hinweis auf die eigene Fertigung in diesem Zusammenhang nicht.
Icke-ffm schrieb:
AMD musste die bestellten Wafer 22&23 abnehmen, oder wenn nicht Strafe zahlen
Ich denke, dass hatte gut AMD im Griff.
Icke-ffm schrieb:
in den Jahren, verpflichtende Käufe für selbes Jahr, hat Intel wegen eigener Fertigung nicht.
Eine eigene Halbleiterfertigung ist sehr teuer. Nicht genutzte Kapazitäten treiben die Kosten. Mit den Wafer Supply Agreements kann die Kapazität erheblich flexibler genutzt werden, als mit einer eignen Fab.
Icke-ffm schrieb:
richtig Interessant wird das ganze dann im Nächstem Quartal wo 22 der Einbruch gekommen ist,
Jedes kommende Quartal wird interessant, das aktuell Q2 wird das langweiligste.
Icke-ffm schrieb:
AMD hat einen Riesen Inventarbestand den sie abverkaufen müssen, und Intel hat kaum noch zugesagte Verkäufe, also entscheidet der Preis und wer wie schnell liefern kann wird ein spannendes Jahr werden
AMD hat im vergleich zum letzten Jahr weitere 300 Mio USD Inventar draufgepackt. Mir erscheinen die Zahlen auch sehr hoch, aber AMD hat sie mit dem Anziehenden Absatz nicht abgebaut.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Icke-ffm
Zurück
Oben