News Quartalszahlen: AMD macht 93 Prozent mehr Umsatz als vor einem Jahr

Sehr gute Zahlen, allerdings sind C&G etwas ernüchternd und wohl massiv durch Lieferschwierigkeiten eingebremst. Quasi kaum Zuwachs ist bemerkenswert
 
Balikon schrieb:
Das hätten sie auch jetzt schon sein können. Ohne Experte zu sein, vermute ich mal, es hat steuertechnische Vorteile, wenn eine Firma noch Schulden hat.
Nein, steuerliche Vorteile hat das nicht wirklich, da die Raten, mit denen AMD die Kredite tilgt, sich in der Bilanz wiederfindet und vom Umsatz abgezogen wird.

Maßgeblich sind hier eher die Kreditverträge, die AMD mit den Schuldnern hat und wie diese ausgestaltet sind. Wenn AMD zum Beispiel Verträge mit einer Laufzeit von 5, 10 oder 20 Jahren für Kredite hat, kommt es auch darauf an, ob die Kreditgeber Sondertilgungen zulassen und auch mit wie viel Strafe so eine Sondetilgung belegt wird.

Aus den 300 Mio. $ könnten so zum Beispiel bei einer Sondertilgung 350 Mio. $ oder gar 400 Mio $ werden, weil die Kreditgeber dann eine gewisse "Kompensation" verlangen und da sind 10 % - 20 % Strafe nicht mal so ungewöhnlich.

shysdrag schrieb:
Wo kommt die große Differenz zu den 0,55 Mrd Netto Ertrag her?
Steht in der News drin, u.a. auch das steuerliche Sonderbelastungen gab.

Rickmer schrieb:
Einen nicht unerheblicher Anteil davon dürfte die Schuldentilgung sein
Nö, nicht wirklich. AMD krebst seit einiger Zeit bei der Summe um die 300 Mio. $ rum.

Kimble schrieb:
Aber auch AMD bekommt immer mehr Konkurrenz aus der ARM-Sparte.
Und wo ist hier bitte das Problem für AMD oder Intel? Es ist ja nicht so, als hätte AMD und Intel nicht eine ARM-Lizenz. Stichwort wäre hier AMD K12.

AMD hat mit der erste Ankündigung von Zen auch bereits gesagt, dass sich neben bei an einer ARM-CPU arbeiten und einige Bestandteile gemeinsam entwickelt werden, unter anderem der IF.

Es mehren sich sogar aktuell die Gerüchte, dass AMD neben "x86"-CPUs nun durchaus auch interesse hat ARM-CPUs zu entwickeln und auf den Markt zu bringen:
https://www.notebookcheck.com/Gerue...fuer-Apples-M1-ARM-SoC-arbeiten.507661.0.html

https://winfuture.de/news,78156.html

Und so unwahrscheinlich ist es nicht, da AMD niemals wirklich offiziell ihr K12-Projekt beendet hat, sondern damals nur sagte, dass man die Zen-Entwicklung priorisiere um auf den Markt zu kommen. Damals eine durchaus verständliche Entscheidung, da AMD das Geld fehlte um zwei so unterschiedliche CPUs zu entwickeln als auch noch GPUs.

AMD besitzt bereits eine ARM Architektur-Lizenz und sie dürfen sogar EIGENE Kerne entwickeln. Mit dem Kauf von Xilinx - die auch eine ARM-Lizenz haben - kann AMD auch hier noch auf wieteres Knowhow zugreifen.

AMD ist hier sehr flexibel. AMD hat 2016 und 2017 die Zeichen erkannt, dass die Zeit für ARM-Server noch zu früh war, jetzt kann AMD aber ihre K12-Pläne duchaus auch wieder hervor holen und verwirklichen.

Kimble schrieb:
Apple wird mit dem M2 die Konkurrenz wahrscheinlich schocken.
Ach werden sie das? Apples Wunderchip M1 ist am Ende aber eigentlich nur ein ultrabreiter INT-Core mit einer breiten FPU.

Klar, es ist durchaus durchaus beachtlich, was Apple da für einen Chip gezaubert hat, es ist aber nicht so, dass AMD als auch Intel diese Rezepte nicht auch kennen, nur dass hier halt die ISA (x86) durchaus ein limitierender Faktor ist, weil das Decoding doch deutlich komplexer ist.

Ein möglicher K12 von AMD mit den richigen breiten beim Decoder und im Backend ist da kein Problem.

Shoryuken94 schrieb:
Das wirkliche Limit bleibt die Verfügbare TSMC Kapazität. Über steigende Preise und damit die Marge wird AMD auch zukünftig für mehr Umsatz sorgen.
Wobei AMD da recht gut agiert und im Endeffekt nie den modernsten Schritt nimmt sondern quasi einen hinten an und damit recht gut die frei werden Kapazitäte von Apple und Co übernehmen kann.

Shoryuken94 schrieb:
Auch auf der Softwareseite ist Nvidia z.B. mittlerweile auf einem ganz anderen Level, da muss man sich nur mal die GDC von diesem Kahr anschauen.
Auf der Softwareseite hat NVIDIA schon immer auf einem ganz anderen Level agiert als AMD und man muss hier sagen, dass NVIDIA in dem Fall von 3dFX gelernt hat.

Es gab eine Zeit, da hat AMD "versucht" mit zu mischen. FireStream und damit war AMD sogar "NVIDIA" vorraus. Aber statt Softwareentwickler bei der Nutzung zu unterstützen und ebens mangelndem Marketing, konnte NVIDIA knapp ein Jahr später mit CUDA die Führung übernehmen und warum? Weil NVIDIA von Anfang an an Entwickler ran ist, quasi kostenfrei Features in Programme implementiert hat. AMD hat dann auf "OpenCL" gesetzt.

AMD hat bis vor quasi 2 - 3 Jahren sich primär auf Hardware konzentriert und die Software quasi vollkommen außenvor gelassen.

Jetzt erst fängt AMD an zu verstehen, dass es nicht reicht einfach gute Hardware zu liefern, sondern dass man die Entwickler mit an Board holen muss.

Und ehrlich AMD ist aktuell eher darum bemüht den Rückstand im Bereich Software aufzuholen, als dass sie NVIDIA noch weiter davon ziehen lassen und das merkt man an allen Ecken und Enden, sei es ROCm - in dem sie auh einiges ansetzen was KI angeht, oder dass AMD sogar anfängt - hier im Verweis auf Intel - optimierte Algorithmen für Zen in die standard Bibliotheken zu schieben.

Also ja: NVIDIA agiert au einem anderen Software-Level, aber da waren sie schon immer, nicht erst seit diesem Jahr. Es ist eher so, dass AMD bemüht ist da aufzuholen und auch das sieht man, ich sag nur Fidelity FX als Standdard im XBox SDK.
 
  • Gefällt mir
Reaktionen: Be0w0lf, PS828, LukS und 2 andere
Teralios schrieb:
Ach werden sie das? Apples Wunderchip M1 ist am Ende aber eigentlich nur ein ultrabreiter INT-Core mit einer breiten FPU.
Ich bin auch jemand, der bei der Lobhudelei des M1 auch immer die fehlende Vielseitigkeit moniert(Probleme mit Hardware, Anschlüsse, viele Programme laufen nicht rund unter Big Sur und M1 und Limitierung auf OSX) .
Aber Ja, Apple wischt leider bei weniger Verbrauch mit AMD und Intel den Boden.
In meinen Augen total subjektiv die Tester aber die Tests zeigen halt trotzdem ein Teil der Realität.
Das krasseste Problem, vor allem beim Link sieht man, ist die Leistungsaufnahme, die ja mind. doppelt so hoch ist wie beim M1 und der M1 erreicht seine Leistung immer, auch z.B. unplugged, während AMD und Intel schon in Teilen sehr hart die Leistung runter schrauben.

Ob und wie schnell AMD oder Intel da kontern können, bis zur Marktreife von nVidia und AMD ARM Prozessoren für Consumer dauert es noch 2-3 Jahre, bis dahin gibt es ja den M2X, M3 oder M4 und die Grafikkarte an der Apple arbeitet wird ja in 2-3 Jahren auch fertig sein.

Und am Ende ist es egal wie es geschafft wurde, Fakt ist leider, das AMD und Intel nicht mal annähernd an die Effizienz ran kommen werden in den nächsten 1-2 Jahren.

Was du beschreibst a la "AMD müsste einfach" würde ja trotzdem nicht im Juni fertig sein oder? Nicht mal im September.
Pläne einfach wieder raus holen, das bedeutet trotzdem nochmal die Planung und Entwicklung in die Moderne zu bringen und ein paar Jahre bis es Marktreif ist.

Also stand jetzt wird AMD und Intel nichts gegen M2 in der Tasche haben, außer sie machen einen Wurf mit den Niemand gerechnet hat.
Wann ist das letzte mal sowas passiert?
Ich mein 2024 wird man wohl Intel kontern.
Das ist alles nicht mal eben um die Ecke das AMD mit Fingerschnipps kontert oder Intel.

Der größte Vorteil derzeit für AMD und Intel ist, das Microsoft richtig schlecht auf ARM ist und Windows(auch Linux).
Glaubt man gar nicht(also das Windows der Vorteil ist) aber, es nutzen halt immernoch so viele Windows und werden nicht wechseln und da sind AMD und Intel die einzigen Alternativen, egal wie Apple mit dem M1 performt.

In Summe ist Leistung aber auch nur für Nerds und Prosumer interessant, ich bezweifle, das die meisten KäuferInnen Benchmarkverläufe in Betracht ziehen.
Für uns Nerds ist es aber derzeit so, dass man in Sachen Leistungseffizienz schon neidisch auf den M1 schaut, den DeCodern die drin sind und gewisse Programme boosten und das ohne einen Nachteil(außer der beschriebenen fehlenden Vielseitigkeit).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JohnVescoya
duskstalker schrieb:
wundert mich nicht bei den Preisen, die AMD neuerdings aufruft.

So besonders hoch sind diese gar nicht. Die hohen Endkundenpreise kommen von den Händlern, die sich die entsprechenden Gelder auch in die eigene Tasche stecken.
AMD hat die UVP seiner CPUs von 3000er zu 5000er Serie lediglich um 50€ angehoben. Dass die Dinger dann teils wegen Knappheit und der Gier der Händler 200-300€ über dieser UVP verkauft werden/wurden, ist nicht AMD geschuldet und davon hat AMD auch nichts.
 
  • Gefällt mir
Reaktionen: eXe777 und GERmaximus
HanneloreHorst schrieb:
Aber Ja, Apple wischt leider bei weniger Verbrauch mit AMD und Intel den Boden.
Und wenn du, statt dich sofort auf diese Aussage zu stürzen, etwas weiter gelesen hättest, dann wäre dir vielleicht folgende Aussage aufgefallen:
Teralios schrieb:
Klar, es ist durchaus durchaus beachtlich, was Apple da für einen Chip gezaubert hat, es ist aber nicht so, dass AMD als auch Intel diese Rezepte nicht auch kennen, nur dass hier halt die ISA (x86) durchaus ein limitierender Faktor ist, weil das Decoding doch deutlich komplexer ist.
Das heißt, deine weitgehende Erläuterung gewisser Tatsachen ist zwar nett, aber vollkommen unnötig und in weiten Teilen auch an der eigentlichen Aussage meines Beitrages vorbei, weil ich nämlich noch angeführt habe, dass AMD durchaus auch ARM-Prozessoren entwerfen kann.

Und unter dem Gesichtpunkt der ARM-Prozessoren ist Apples M1 wiederum alles andere als etwas besonderes, sondern bedient sich einer recht einfachen Rezeptur, die fast allen CPU-Entwicklern bekannt ist: Breites Frontend, breites Backend geparrt mit entsprechenden Caches.

Sieht man sich den M1 - Leistungsteil - an, dann fällt auf, dass hier ein sehr breiter Decoder für die Pipeline - 8 Befehle - auf ein sehr breites Backend trifft. Dazu kommt der Dispatch-Block, der entsprechend viele Einträge für die OoO-Ausführung umsortieren kann. Das ganze wird gefüttert von 192 KiB L1-Instruktions Cache, sowie 128 KiB L1-Daten-Cache, was bei 4 Kernen dann noch auf 12 MiB L2-Cache trifft.

Sieht man sich dagegen die Kerne von Intel und AMD - x86 - dann fällt bereis auf, dass hier ein ähnlich breites Backend auf einen "Decoder"-Stößt, der gerade mal 4 befehle pro Takt schafft und bei Intel und AMD ist man heute sogar darum bemüht möglichst viele "Befehle" "decodiert" im MikroOPs-Cache zu halten, weil die Befehle von dort wesentlich schneller "geladen" werden können.

Und genau hier liegt das Problem und damit wieder auf meine Aussage: "... nur dass hier halt die ISA durchaus ein limitierneder Faktor ist, weil das Decoding doch deutlich komplexer ist."

Auch wenn CISC heute im Kern als RISC ausgeführt wird und "CISC"-Ähnliche Befehle heute bei ARM durchaus vorhanden sind, sind die RISC-Befehle bei ARM immer noch deutlich einfacher in ihre MikroOPs zu zerlege als die CISC-Befehle bei x86.

Man merkt an allen Ecken und Enden heute der x86-Architektur ihr Alter an und man merkt auch, dass gerade in der Zeit der 70er und 80er im Bereich IT soviel getan hat, es hat ja nicht nur mit RISC und CISC zutun, sondern auch mit der damaligen Welt der Programmierer. CISC in "Assembler" zuprogrammieren ist sehr einfach. eine RISC-CPU in Assembler zu programmieren? Das ist die Hölle. Mit den immer besser werdenen Programmiersprachen der 70er und 80er konnte man aber eben auch RISC einführen.

Und da kommt jetzt der nächste Punkt: AMD kennt sich - so wie Intel - mit breiten Designs bereits gut aus, nur hat x86 bis heute sehr viel Fett, auch wegen der Kompatiblität, der das Decodieren der Anweisungen sehr komplex macht. Es gibt ja nicht umsonst die Gerüchte dass Intel an einem etwas "radikaleren" Schnitt bei x86 arbeitet in den nächsten Generationen um dieses Fett weg zu schneiden.

Dazu kommt aber halt noch ein Problem: quasi erst mit AMD64/x64 hat x86 wirklich allgemeine Register bekommen im "INT"-Kern - 8 an der Zahl + die 8 Register mit feste Aufgaben bisher. Dazu dann noch ma 8 für die MMX/SSE-Einheiten von XMM8 - XMM15. Vor x64 hatte also die IA32 8 Register mit festen Aufgaben und in der FPU 8 allgemein nutzbare, seit x64 kommen 8 allgemeine Register im INT und eben 16 in der FPU, erst mit AVX512 kommen noch mal 16 dazu, so dass man in der FPU auf 32 Register kommt.

Nur war das damals bereits der Punkt: Bei ARM wusste man immer, dass man quasi nie genug Register haben kann, wenn man "Energiesparen" will. ARM hatte schon früh sehr viele Register im ARMv8 sind 31 Register vorgeschrieben. Wenn man hier entsprechend "agiert" kann man sehr viel Rechnen, ohne dass man wirklich auf den Cache oder NOCH SCHLIMMER auf den Arbeitsspeicher zugreifen muss um auf die Daten zu warten.

Apples Erfolg mit dem M1 ist keine hohe Zauberkunst, die Zutaten sind allen bekannt, Apple zeigt mit dem M1 nur auf, dass x86 einfac aus einer Zeit stammt, als man noch primär Assembler programierte und es daher wichtig war, dass man als Mensch die CPU programmieren kann. ARM kommt aus einer Zeit, als man dem Menschen "Asselbmer" wegnahm und den Compiler mehr Macht gab.
 
  • Gefällt mir
Reaktionen: GT200b, Hatch, Be0w0lf und 3 andere
Infect007 schrieb:
Naja, du bezeichnest den 5600X als Mittelklasse-Prozessor.
Dem 5600X fehlen (in Games 1080p) 3% zum 5800X und 5% zum 5950X.
Das ist halt alles andere als Mittelklasse.
Wenn du Mittelklasse möchtest, musst du 3XXX kaufen, nicht umsonst hat sich AMD dazu entschlossen Zen2 weiterlaufen zu lassen.
Sehe ich total anders. Auch ein 5800X ist für mich Mittelklasse. Eigentlich hasse ich diese "Aufteilung" von Produkten, aber 5600X ist klar lowend, 5800X midend, 5900X highend und der 5950X einfach das Flagship und damit automatisch auch highend.

Nur weil es ältere Prozessoren gibt, hat dies doch nicht direkt was mit der Einstufung zu tun. Der 3950X ist nun auch kein highend mehr, da er technologisch veraltet ist.
 
Gufur schrieb:
In Deutschland hat man bereits seit einigen Monaten keine Probleme die neuen Zen 3 zu bekommen

Ich weiss echt nicht woran es liegt. Ich kann mir nur vorstellen, dass viel zu viele Vorbestellungen entgegengenommen wurden, zu Preisen für welche sie nun keine CPUs gewinnbringend beziehen können.
Es betrifft praktisch sämtliche Shops bei uns. In DE wurden ja relativ schnell die CPUs bei vielen Shops von der Seite genommen und nach und nach aufgeschaltet wenn wieder eine Charge verfügbar war, natürlich dann über UVP.
 
Sieht doch ganz ordentlich aus. Dass die Konsolen Chips derzeit das Hauptfeld sind wundert wenig. Sony hat nach eigenen Angaben bereits 7,8 Mio PS5 verkauft, bei der Xbox weiß ich es nicht aber beide laufen immernoch unterhalb ihrer Nachfrage. Auch wurden noch 1 Mio PS4 im letzten Quartal abgesetzt was ebenfalls hinzu käme.

Hier wird's definitiv nicht aufhören. Ich persönlich gebe AMD voraussichtlich das nächste mal Geld wenn ihre RDNA2 Radeon Pro Ableger erscheinen bzw wenn mein Kumpel sein Racingsetup umsetzen möchte.
 
Zuletzt bearbeitet:
Neodar schrieb:
So besonders hoch sind diese gar nicht

von einem r5 3600 auf einen r5 5600x haben sich die Preise verdoppelt (ja der eine ist ein x und der andere nicht, aber es gibt keine Alternative. 6 Kerne zu 6 Kerne kostet jetzt das doppelte) und bei den gpus verhält es sich ähnlich.

Die 6900x kostet das doppelte einer vega 64 und noch 40% mehr als eine radeon 7 mit 16gb hbm2. Wobei man hier sagen muss, dass die 6800xt zum mrsp garnicht so schlecht ist. Was mir sauer aufstößt sind die teuren Karten weiter unten. Man hat nicht das Gefühl, dass die langsameren Karten irgendwie günstiger werden.

polaris 10 auf Navi 10 Xl (beides 36 CU) war ebenfalls eine Preissteigerung von 50%.
 
Palmdale schrieb:
Sehr gute Zahlen, allerdings sind C&G etwas ernüchternd und wohl massiv durch Lieferschwierigkeiten eingebremst. Quasi kaum Zuwachs ist bemerkenswert
Was erwartest du denn für Zuwächse gegenüber einem Vorquartal mit Weihnachtsgeschäft?
Teralios schrieb:
Es mehren sich sogar aktuell die Gerüchte, dass AMD neben "x86"-CPUs nun durchaus auch interesse hat ARM-CPUs zu entwickeln und auf den Markt zu bringen:
Im Conference Call wurde das auch gefragt. Lisa Su hat konkret gesagt, es gibt keine Pläne, eine ARM-CPU neu aufzulegen. Allerdings könne man, auch durch die Chiplets, sehr einfach für spezielle Kundenwünsche Komponenten mit ARM oder FPGA (Xilinx) hinzufügen.
 
t3chn0 schrieb:
Sehe ich total anders. Auch ein 5800X ist für mich Mittelklasse.

Demnach gibt es bei Intel nur noch Mittelklasse CPUs
 
  • Gefällt mir
Reaktionen: eXe777, Yesman9277, Icke-ffm und 5 andere
  • Gefällt mir
Reaktionen: konkretor
duskstalker schrieb:
von einem r5 3600 auf einen r5 5600x haben sich die Preise verdoppelt
UVP 209€ (zu Release) zu UVP 299€ != verdoppelt. Wie kommt man zu der Annahme?
 
  • Gefällt mir
Reaktionen: PERKELE, eXe777 und loser
Colindo schrieb:
Im Conference Call wurde das auch gefragt. Lisa Su hat konkret gesagt, es gibt keine Pläne, eine ARM-CPU neu aufzulegen.
Na ja, wenn man jetzt alle Infos zusammenträgt, die man so zum K12 findet und was AMD da sagte, dann kann man die Aussage von Lisa Su da auch nicht als "Verneinung" deuten, denn AMD hat den K12 weder offiziell noch inoffiziell je abgesagt, sondern nur 2015 und 2016 durchblicken lassen, dass man den K12 zugunsten von Zen verschieben wird. Mit der Verschiebung von Zen 2016 auf 2017 war damals auch klar, dass sich K12 verschiebt.

2018 wiederum ließ man durchblicken, dass man keine "genauen" Produkte in der Pipeline hat, aber sehr wohl das ARM-Projekt noch verfolgt und dass ein K12 kommt, wenn er kommt.

Da AMD bisher auch keine "ARM"-CPU hat, wäre es ohnehin kein "neuauflegen". Und da ist jetzt der entscheidende Punkt: AMD hat nie angedeutet, dass sie ARM aufgegeben haben, sondern da auch noch aktiv sehr wohl dran arbeiten.

Nimmt man jetzt ihre Aussage, dann kann man das eher so deuten, dass AMD selbst nicht unbedingt eine CPU auf ARM-Basis auflegt in nächster Zeit, aber wie du selbst andeutest, dass sie sehr wohl ggf. auch Cores im Portfolio haben und diese nach Kundenwunsch in der Semi-Custom dann anbieten.
 
Kloin schrieb:
Ach ja? Welche erwähnenswerten Sachen haben sie sich denn geleistet?
Naja, da wurde zum einen fröhlich vor dem Release von RDNA2 kommuniziert, dass es im Gegensatz zu nVidia bei ihnen genug Grafikkarten geben würde und selbst am Tag vom Release wurde noch so getan, als wären genug Karten da. Und bis heute spricht auch Lisa Su immer wieder so ekelhaft positiv von der ganzen Situation, dass mir jedes mal die letzte Mahlzeit hoch kommen will. Musst du ja nicht unsympatisch finden... ich halt schon... ist aber auch nicht so, dass die anderen großen Tech-Unternehmen da so viel besser wären.
 
GERmaximus schrieb:
Demnach gibt es bei Intel nur noch Mittelklasse CPUs
So ist es auch,5900x&5950x sind schon feine Teilchen im Consumerbereich wo es momentan nichts Vergleichbares gibt.
 
  • Gefällt mir
Reaktionen: loser
GERmaximus schrieb:
Demnach gibt es bei Intel nur noch Mittelklasse CPUs
Im Vergleich zu AMD ist das derzeit wohl so. Wenn man sich das innerhalb des Lineups ansieht, wäre der 11900K auch hier das Flagship.

Im Verhältnis zu den auf dem Markt verfügbaren Technologien, hat Intel tatsächlich nur Mittelklasse anzubieten.

Es ist immer eine Frage der Betrachtung. Wenn wir von Spielen reden, wäre der 11900K wieder highend, wobei der 10900K auch noch highend wäre, kann er aber fast nicht sein, da er technologisch älter als der 11900K ist.

Highend sollte (für mich) immer die schnellstmögliche und aktuellste Technologie sein.
 
t3chn0 schrieb:
Es ist immer eine Frage der Betrachtung.
In Deiner Betrachtung ist der 5600X low-end, obwohl er nur unweit eines 11900 operiert, der aber wieder high-end ist. Habe ich das so richtig verstanden?

Egal wie was wo einsortiert, aktuell gibts dank AMD von Intel 6 Kerner für unter 200.- die wohl ein paar Jahre als Gaming CPU mithalten können. Dafür sollten wir dankbar sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Yesman9277, Otsy und nciht
Zurück
Oben