News AMD: 20 nm wird übersprungen, Aktie fällt nach Umsatzwarnung

jbauer schrieb:
Außer Beleidigungen, welche Argumente hast du zu bieten? Ach ja, dafür

Wenn man nichts zu sagen hat, sollte man sich vielleicht auch das kommentieren verkneifen, nur mal so als wohlmeinenden Ratschlag.

Okay whatever. Da du offensichtlich nicht richtig lesen kannst oder den Thread nicht komplett durchgegangen bist, erspare ich mir die Fortsetzung der Diskussion. Ich sagte, dass andere User bereits Argumente gebracht haben, die ich nicht wiederholen will aber Hauptsache die Zitate umformen bis sie einem passen. Übrigens: Troll ist bei weitem keine Beleidigung, da bist du wohl nicht ganz auf dem Laufenden. Wenn du nicht so rüberkommen willst, dann präzisiere zukünftig deine Wortwahl.
 
öhm. Hätte ich auch schon zu den letzten Quartalszahlen genau so sagen können. Welch Überraschung. Auch Fury wird daran nichts ändern.
Ergänzung ()

max_1234 schrieb:
Erstmal die Zahlen aus Q3 abwarten, die 3XX Reihe lässt Grüßen ;)
Zumindest in den Geizhals.de Trends ganz oben mit dabei.
http://geizhals.eu/?cat=top100

mfg,
Max

glaubst du ernsthaft das ändert was? Hawaii Rebrand? ... naja vielleicht wenn Nvidia absolut locker lässt und keine 7 / 8 GB Versionen von Maxwell bringt,... aber auch dann nur marginal.

GH sind keine Käufe, nur Anfragen.
 
Zuletzt bearbeitet:
Ich habe bei Geizhals auch alle alten/neuen 3xx aufgerufen, würde sie aber nie kaufen. War nur neugierig auf die Modelle. Dürfte vielen anderen auch so gehen.
 
Kasmopaya schrieb:
http://www.techpowerup.com/reviews/AMD/R9_Fury_X/32.html
17-30% ineffizienter ist auf keinen Fall Augenhöhe, vor allem weil die Fury mit Wakü daher kommt und mit HBM Strom spart. Die Titan 12GB satt GDDR5 drauf hat und mit 85Grad vor sich hin kocht. Immer noch massiv abgeschlagen triff es eher. Mit 16nm HBM 2.0 Pascal macht NV den Strick dann zu, dann sind wir wieder bei den üblichen 50%+ Effizienz Vorteil.

Die Fury X 4GB ist ein lupenreiner Vram Krüppel wie er im Buche steht. In ein paar Jahren wird die Karte zur Lachnummer wie eine HD 4870 512MB, oder 8800GTS 320MB. Oder aktuell 680 2GB.


Behalte meine Karten 4 Jahre im Gaming Rechner und die haben 10 Jahre Garantie. Geht nicht ganz auf deine Rechnung.

Es sind im Schnitt 40 Watt. 40 Watt, bei einer Highendkarte. Wo die meisten Leute schon ihre CPU so weit übertakten, dass diese mal eben 40 Watt mehr verbraucht. Wo viele UHD-Monitor in 26 Zoll und größer haben. Und für die sollen 40 Watt eine Rolle spielen? Selbst ich finde den Unterschied lachhaft und ich hab gerade nur eine USB-Leuchte an, weil meine Deckenleuchte zu viel Strom frisst. Nur schluckt auch mein Rechner bei Spielen im Schnitt nur 250 Watt.


Ähm die 8800 GTS 320 und 640 wurden beide zur Lachnummer. Nicht wegen des Speichers. Weil der Nachfolger billiger zu haben war und weitaus schneller.

Dass die 512 zur Lachnummer wurde, kann ich mich nicht erinnern. Die war ja auch billig zu haben.

Wie es mit der Fiji aussieht weiß noch keiner. Der Speicher ist wirklich recht klein. Zumindest im Vergleich zu den eigenen Produkten. Schielt man zum Konkurrenten, sieht es nicht viel besser aus. Erst die 980 Ti bietet mehr Speicher, alles darunter hat auch nur 4 GB Ram.
 
Zuletzt bearbeitet:
@Kasmopaya

Du weißt ganz genau das du nicht der Mittelpunkt des Marktes bist, sondern die Notebooks & Tablets.
Und diese gehen sehr wohl kaputt und haben keine 10 Jahre Garantie.

Genauso wenig vergleiche ich Highend Netzteile mit 7 Jahren Garantie mit Chinaböller NTs wie sie teilweise in OEMs verbaut werden.

Als Beispiel: 92b in Notebooks die mit 80% Wahrscheinlichkeit nach 2 Jahren sterben. Ja sowas gab es.
Und welcher Otto Normal reinigt sein Notebook damit es nicht überhitzt? Habe ich so oft getan damit die Plastikbomber meiner Eltern nicht im Hochsommer sterben.

b2t:
Und nein, die Fury ist kein bisschen eine Alternative.
Auch wenn ich Nvidia sehr unsympatisch finde aufgrund ihrer bisherigen Tätigkeiten muss ich klar sagen das sie mit der GTX 980 TI die bessere Karte haben. Jedenfalls zum derzeitigen Augenblick, und das ist es was die Kunden daher kaufen.
Hatte ja schon prophezeit das HBM mit 4GB vom Markt abgelehnt werden wird. Die Karte ist auch nur deshalb so effizient weil mit Wasser gekühlt.

Lachnummern wegen VRAM? Klar gerne:
GTX 580 1,5GB, GTX 770 mit 2GB(kenne da genug Leute von). Bei AMD kann ich gerade aus dem kopf keine Beispiele nennen, aber seit der 6xxx haben sie ja mit VRAM nur so um sich geworfen.
Aber auch das Problem hängt davon ab wie lange man seine Karte hält. Dan ist es unter umständen nämlich gar keines. Aber wir können sicher sein das AMD und NVIDIA in ihrer nächsten Gen Mitte/Ende 2016 8GB als Standard verbauen werden. Und in der neuen Fertigung werden sicher nicht direkt Big Chips vom Stapel rollen. Also Erwarte ich 10% mehr Leistung bei 8GB oder mehr VRAM(HBM2? & NVIDIA 16GB Werbung für Pascal etc. pp.).
 
Zuletzt bearbeitet:
ich bin mal gespannt ob AMD bis Zen durchhält. Die 1 Mrd Strafzahlung von Intel + die Araber haben AMD bisher durch den Sumpf gezogen. Auf ewig geht das aber nicht gut und in meinen Augen klafft nun eine echt große Lücke auf quasi jedem Produktsegment bis wieder wirklich neue Produkte kommen... das wird ne lange Durststrecke.
 
DarkTower schrieb:
Was würde eigentlich theoretisch passieren wenn AMD weg wäre? Nvidia dürfte doch dann nicht alleine den Markt bedienen, oder?

Wäre für den Konsumenten das schlimmste Szenario...keinerlei Konkurrenz = Extrem hohe Preise
 
ich denke bevor es dazu kommt würde die Sache zunächst ausgegliedert da noch mit am rentabelsten bei AMD, ggf unter neuem Namen und neuem Eigentümer.
 
nur ein Mensch schrieb:
Jeder kann ein faules Ei legen, AMD, Intel und Nvidia.
Allerdings müssen wir uns auch ehrlicherweise vor Augen halten, dass AMD in den letzten Jahren mehrere Eier leider auch in Folge hatte

Ist es denn nicht vielversprechend genug, dass AMD mit ZEN auf ein bewährtes Grundgerüst setzen will?

Ausserdem macht Bulldozer auf Mehrkernanwendungen das, was es eigentlich generell tun sollte. Passt doch, wenn nicht in dieser Realität. Muss man halt auch mal so sehen können...
 
Zuletzt bearbeitet:
Richthofen schrieb:
Natürlich wurde bei Forschung gespart. Lies einfach AMDs Bilanzen bevor Du so etwas vom Stapel lässt. Dort steht das schwarz auf weiß. Aktuell ca. 100 Mio Dollar weniger Forschungsausgaben pro Quartal weniger bei insgesamt mehr Baustellen.

Wieso soll ich da Geld investieren?.

Mehr Baustellen. Und die wären ?

Im Gegenteil. Viele Aufgaben gehen an Synopsys, wobei zugegeben AMD hier 160 Ingeneure dafür abtreten musste. Es gibt deutlich weniger Masken als früher.
Doch wenn man bedenkt, dass AMD bei der R300 Serie nur zwei neue Chips integriert, wobei Tonga selbst scheinbar eine Vorstufe/Testballon ist, deutet das eher darauf hin, dass AMD seine Arbeit Richtung nächste Generation bereits gemacht hat. Hier stellt sich mehr die Frage, ob AMD GCN weiter verbessern kann und wird.

Was die CPUs angeht. Wir haben hier Masken, die in den letzten Jahren nur mehr in günstiger Fertigung herstellt wird. Ausgenommen 32nm SoI, welche aber AMD auch nicht mehr soviel kosten dürfte. APUs werden jetzt schon im günstigen 28nm Prozess gefertigt und AMD hat mit HDLibs geschafft noch mal die Effizienz zu steigern. AMD hat schon vor einem Jahr mit Brazos 2.0 angekündigt, Prozesse und Chips länger aus zunützten und das haben sie dann auch mit Richland und Godavari gemacht. Klar gibt es dann weniger Nachfrage auf diese Produkte, wenn es da nur Minimale Vorteile gibt, aber die Kosten sind auch deutlich geringer, als wenn AMD komplett in neue Masken ect investieren müsste und alte Bestände im schlimmsten Fall verramschen müsste.

14nm FinFet kann für AMD ein Neuanfang bedeutet. Muss es nicht, aber es scheint wie geschildert, dass AMD auf die Produkte in 14nm FinFet hinstrebt. Man wird es eben dann sehen, hat sich die Durststrecke bzw die Strategie gelohnt hat oder nicht. (Aber welcher Sinn würde Zen in 28nm oder 32nm SoI im Desktop ergeben ?)
Aber wie beschrieben, es gibt weniger Budget, aber es gibt bei AMD auch ein deutlich schlankeres Angebot, wobei zugegeben, die R200 durchaus viel zu viel "Angebot" hatte. Das hat AMD aber offensichtlich "entschlankt". Wobei schade, dass hier Tonga XT fehlt.

Baustellen, die AMD wohl jetzt angehen wird sind offensichtlich Zen, GCN Gen4 (angeblich doppelte Effizienz, wobei hier unklar ob Finfet inbegriffen). Der Rest hat dann ausgedient. Carrizo wird noch mal 2016 aufgewärmt und kommt mit DDR4 Unterstützung, was kein Aufwand bedeutet, Zen deckt den Rest ab und 2017 kommt die ersten Zen basierende APUs.
Bei GPUs reicht theoretisch ein auf Fijii basierender Chip mit Optimierung bezüglich GCN.
Davor gab es einen Chip für FX, APU, low Power APUs, GCN. Wobei bei APUs sämtliche Techniken durch haben von K10.5, VLIW5, Piledriver, steamroller, excavator, VLIW4, GCN1.1, GCN 1.2 ect.

Ab 2017 haben wir dann Zen+ und GCN.

Somit die Baustellen werden weniger und man wird mit Synapsis alle Zen basierenden Produkte anpassen, was zuvor AMD noch "alleine" machen musste. Die Kosten werden somit geringer. Mit den Interposer Technologie, HBM, kann man jetzt auch flexibel MCM Chips fertigen. Auch das vereinfacht die Forschung, weil AMD jetzt wenige Masken für mehr Produkte nützten kann. (auf CPU und APUs bezogen).

BTW, weil es gefragt wurde, der Interposer von UMC ist in 65 nm.

Klar ist, natürlich wäre es besser, wenn AMD mehr Geld hätte. Das Problem aktuell sind aber wie in der News erwähnt, die Fertig OEM PCs. Scheinbar dürfte man weniger Carrizo absetzten als erhofft (FAD hatte man ja große Hoffnung auf Carrizo gesetzt). Von den Notebooks ist ja auch wieder nichts zu finden, obwohl AMD mit Carrizo und Carrizo L auf einem gemeinsamen Sockel schon stark den OEM entgegengekommen ist.

BTW, meine Info stammen auch nur von Hardware-Seiten und vom "Beobachten". Klar ist das nur eine Spekulation. Aber Zahlen sagen nackt wenig aus, man sollte schon versuchen zu vergleichen, besonders wenn man früher mit heute vergleicht.

Was investieren angeht. Das kommt auf die Partei an, die das will. Staaten sind da eher die Kanditen als Firmen. Besonders arabische Staaten aber auch asiatische wie China wären Kandidaten die besonders in der Halbleiter-Industrie wachsen wollen. In Dubai hat einfach in Halbleiter-Industrie investiert, weil man nach den Ölfelder andere Geschäftsfelder benötigt.

Kasmopaya
Mit 16nm HBM 2.0 Pascal macht NV den Strick dann zu, dann sind wir wieder bei den üblichen 50%+ Effizienz Vorteil.
Das weißt du schon ?
Das große Fragezeichen ist doch, ob mixed Precission Architektur von NV gegenüber Maxwell effizienter ist (wenn es ums Gamen geht). Weiteres profitiert NV aktuell durch das kleinere SI gegenüber AMD. Das heißt man wird keinen so großen Sprung machen wie AMD von dessen GDDR5 Si zu HBM.

Außerdem kommt es offensichtlich bei Fijii auf das Game an, wie der Verbrauch ausfällt. Denn hier wurde im Forum auch schon Tests verlinkt, wo die Fury unter Last weniger verbraucht.

Behalte meine Karten 4 Jahre im Gaming Rechner und die haben 10 Jahre Garantie. Geht nicht ganz auf deine Rechnung.
Das ist eine Sache, die du mit dir selbst ausgemacht hast. Keiner weiß wie sich das alles mit DX12 weiterentwickeln wird und welche Features ect noch dazu kommen. Mit der letzten Grafikkarte hattest du Glück, weil wir API-Seitig lange einen Stillstand hatten und sich hier nichts getan hat. Somit ist sowas kaum einzuschätzen. Das trifft natürlich auch auf Fijii und alle anderen Grafikkarten zu.
Teure Hardware zahlt sich schon lange nicht mehr aus. Wenn man aktuell sein will, sind alle 2 Jahre eine Preis/Leistung Karte, mit der man seine bevorzugten Titel/Genre auf gewünschten Einstellung zocken kann immer noch die beste Option. Oder glaubst du dass in paar Jahren, noch eine 28nm Karte "abkaufen" möchte, wenn die Hersteller einen vollen Node übersprungen sind und zusätzlich von Bulk auf Finfet umgestiegen sind. Somit wirst du Abstriche machen und mehr Speicher kann dir am Ende eventuell auch nichts bringen (siehe alte Titan)

Also ich will die Titan X nicht schlecht reden, aber du solltest eventuell von deinem hohen Ross etwas runterkommen. Das sind Prestige Karten und keine Karten die man aus Vernunft kauft. Wenn man viel Geld hat, ist es wurst.

Draco Nobilis schrieb:
Aber wir können sicher sein das AMD und NVIDIA in ihrer nächsten Gen Mitte/Ende 2016 8GB als Standard verbauen werden. Und in der neuen Fertigung werden sicher nicht direkt Big Chips vom Stapel rollen. Also Erwarte ich 10% mehr Leistung bei 8GB oder mehr VRAM(HBM2? & NVIDIA 16GB Werbung für Pascal etc. pp.)

Ich schätzte eher, dass wir 14nm auch länger "behalten" werden, so wie es schon mit 28nm der Fall war. Intel hat jetzt sogar eine 3 CPU Generation in 14nm eingeschoben. Wieso soll das bei den GPUs anders laufen ?

Somit kann es gut sein, dass NV jetzt wieder mehr Richtung DP-Performance optimiert. Die Chips kleiner werden, damit mehrere Generation möglich werden. Die Karten werden so abgestimmt sein, dass die Mittelklasse eher mit der aktuellen High-End Karte "Stand" halten kann. Auch ist der 14nm FinFet sicherlich nicht billiger als der 28nm Bulk Prozess. Dafür wird man mit weniger Verbrauch und andere Features und Standards werben.

Desweiteren, woher weißt du, dass die Mittel klasse dann 8 GB HBM haben wird. Eher rechne ich damit, dass zum Beispiel NV erstens mal den HPC Markt beliefern wird. Dort werden dann 16 GB HBM verbaut und da wird auch der Fokus liegen, da deutlich mehr Margen.
Eher wird es so sein, dass es dann eine TITAN mit 16 GB HBM geben wird und somit die 1080 TI 8 GB HBM, dalls man der Tradition treu bleibt. Somit könnt ihr damit rechnen dass die Mittelklasse plötzlich nur mehr 4 GB HBM haben wird, so wie es die 980 GTX der Fall ist. Wer will sich dann aufregen ? Die Fanboys :D ? Die sowieso alles rechtfertigen werden, egal ob jetzt AMD oder NV ?
Dann kommt überhaupt noch die Frage, wieviel HBM Speicher kann den bis dahin "gefertigt" werden. Wird es bei Hynix bleiben oder kommen andere Hersteller dazu die durch Lizenz fertigen lassen ?
Da kann es durchaus sein, dass NV und AMD bei vielen Karten noch auf GDDR5 setzten müssen.
Für mich gibt es da einfach viel zu viele Fragezeichen. Das HBM Gen2 groß promotet wird ist nachvollziehbar, speziell wenn es um HPC Karten geht. Aber ich habe kein Wort davon gehört, dass jede Karte Pascal mit HBM sein wird. Kann gut sein, dass wir noch Maxwell gen3 in der Mittelklasse sehen. Unrealistisch wäre das nicht. Das steht und fällt eben mit der Verfügbarkeit von HBM. Aber wenn, dann glaube ich eher an 4GB für Mittelklasse und 8 GB für die TI und Titan bzw High-End.


Bezüglich Fertigung wurde in den letzten Jahren vieles versprochen. Da hat sich aber vieles oft nicht bewahrheitet. Deshalb wenn man skeptisch sein will, dann hier. Dass AMD bereits an Zen+ arbeitet, aber Zen selbst erst 3-4 Quartal kommt, deutet wohl eher darauf hin, dass man noch an 14nm FinFet "nagt".
Damals als 20nm Bulk (oder GF 14XM, welcher ein 20nm Finfet ist) noch in "Aussicht" stand, sprach der ehemalige CEO eher von Anfang 2016. (Aussage mit den 18 Monaten)
 
Zuletzt bearbeitet:
Danke für die gute Zusammenfassung pipip. AMD hat wirklich auf absehbare Zukunft (2016/2017) vielversprechende Produkte angekündigt. Die grössten Risiken sehe ich in der Entwicklung der allgemeinen Weltwirtschaft - egal wie gut die Produkte der einzelnen Hersteller dann auch sein mögen.
 
Fried_Knight schrieb:
Den Stromkonzernen Gewinne erwirtschaften?
Scnr!

Nein gute Leistung bringen, wenn die Software wirklich alle Kerne ausnutzt. Dann hält sich auch der Stromverbrauch in Grenzen.
 
Richthofen schrieb:
Natürlich wurde bei Forschung gespart. Lies einfach AMDs Bilanzen bevor Du so etwas vom Stapel lässt. Dort steht das schwarz auf weiß. Aktuell ca. 100 Mio Dollar weniger Forschungsausgaben pro Quartal weniger bei insgesamt mehr Baustellen. Das reicht bereits um zu untermauern, dass es immer schwieriger werden wird. Denen geht jetzt einfach das Geld so langsam aus und Substanz ist keine mehr da. Fabs sind weg, Immobilien sind weg und Umsatz sinkt dramatisch.

Gut erkannt! Endlich einmal ein User, der sich auch einmal die Wirtschaftsdaten von AMD im Detail ansieht und die Wahrheit erkennt. Ich wundere mich immer wie bei solch einer Finanzlage so viele Leute die Wirklichkeit verdrehen können. Als Firma hat AMD komplett versagt. Etwas anderes kann ich aus den Bilanzen und Unternehmenskennzahlen nicht heraus lesen.

Da es noch schlimmer als in den letzen Quartalszahlen werden wird, war schon im Vorfeld klar. Nur jetzt scheint sich die Lage sogar noch verschlechtert zu haben. Das ist schlicht ein absoluter Albtraum. Wie man dabei noch so optistisch sein kann wie mancher Poster hier, ist für mich unbegreiflich. Die Zahlen sprechen eine eindeutige Sprache!


Richthofen schrieb:
Wieso glauben eigentlich immer alle, dass irgendein Investor einspringen wird oder soll? Ganz ehrlich als Investor interessiert mich mal primär meine Rendite. Welche Rendite kann ich denn bei einem chronisch erfolglosen Laden wie AMD in einem extrem wettbewerbsintensiven Umfeld erwarten? Wieso soll ich da Geld investieren? Als "potentieller" Investor würde ich mir den Laden ansehen und schnell feststellen, dass dieser extrem klamm ist und es mit aggressiven Wettbewerbern zu tun hat. Da würde ich eher abwinken und den Laden schwimmen gehen lassen. Das juckt doch außer ein paar Endverbraucher in Internetforen keine Sau.

AMD hat seit Jahren viele Investoren verschreckt. Sämtliche Versprechungen und "Rendite" haben sich in Luft aufgelöst. In der Finanzwelt lässt man die Finger von solchen Unternehmen. Bisher hatte AMD die Investoren noch mit Versprechungen und Hoffnungen bei der Stange gehalten. Meiner Meinung ist da auch oft die Angst vor dem Schreckgespenst Monopol dabei gewesen.

Niemand will und wollte Intel und Nvidia das Feld als Monopolisten überlassen. Allerdings ist auch keiner bereit dafür unzählige Milliarden in die Hand zu nehmen um AMD auf den Beinen zu halten. Im Gegenteil: Die Geier in der IT-Welt kreisen schon über einem potentiellen Kandidaten für eine günstige Restpostenversteigerung.

Wirtschaftlich ist es wesentlich vernünftiger auf den baldigen Bankrott von AMD zu warten und sich die interessanten Teile dann im Sonderangebot einzuverleiben. Etwas anderes macht kaum Sinn. Dafür ist AMD zu speziell in der eigenen unprofitablen Nische festgefahren. Auf weitere "Wunderrettungen" sollte man sich als Marktbeobachter nicht verlassen! Hier ist mehr Wunschdenken als Sinn für Realität involviert.
 
Zuletzt bearbeitet:
Chismon schrieb:
Na, ich hoffe, die neuen Fury und Fury Nano Modelle werden einschlagen

Das müssen sie nicht und auch AMD selbst geht nicht davon aus. Auf dem vor kurzem stattgefundenen Financial Analyst Day hatten sie das selbst gesagt.

cbtestarossa schrieb:
wenn XEN nichts wird bleiben echt nur noch die APUs

Das wäre allerdings auch in Ordnung. Schau Dir an, in welche Richtung AMD und Intel (!) entwickeln: man geht davon aus, dass solche Allzweck-Chips der Trend der Zukunft sind. Reine CPUs und reine GPUs werden uninteressanter und die Performance bei APUs (und dort gerade im Bereich der Shader) steigt enorm. Schlussendlich können sich in einem APU-Entwurf die CPU-Kerne und die Shader den Speicher teilen und es muss kein Datenaustausch über einen langsamen Bus (Stichwort PCIe) erfolgen.
 
OiOlli schrieb:
Eigentlich sind seit Sandy Bridge die Fortschritte wieder geringer geworden. Dafür sind die Preise massiv angezogen, man macht gerade so viel, um nicht wieder kalt überrascht zu werden, wie mit dem Athlon oder dem Athlon 64.

Was aber auch nur stimmt, wenn wir auf das immer mehr an Bedeutung verlierende High-End Desktop Segment schauen. Die Entwicklungsfortschritte bei Ivy, Haswell und Broadwell liegen nunmal im mobilen Bereich wo Intel die Effizienz erheblich (und vor allem prozentual weit mehr als die komplette Konkurrenz) gesteigert und die Leistung der eigenen Grafiklösungen vervielfacht hat.

Also passiert schon noch Weiterentwicklung nur eben nicht in der Nische, in der wir als Zocker hier gerne unterwegs sind^^.

Ansonsten, weil ich es nicht mehr lesen kann, hier nochmal ein bisschen Nachhilfe für alle diejenigen die entweder keinen vernünftigen Wirtschaftsunterricht hatten, weil das deutsche Schulsystem in weiten Teilen Grütze ist oder halt nicht aufgepasst haben ;).

Preisbildung im Monopol:
Auch ein Monopolist kann seine Preise nicht beliebig variieren wie es ihm gefällt. Solange wir von einem Markt mit elastischer Nachfrage sprechen (sprich die nachgefragte Menge variiert mit dem Preis. Das trifft praktisch auf alles zu was nicht absolut lebensnotwendig ist, wie z.b. Grundnahrungsmittel) unterliegt auch der Monopolist dem Prinzip von Angebot und Nachfrage.
Deshalb ist für den Monopolisten derjenige Preis optimal, bei dem das Produkt aus Gewinn pro Einheit und Anzahl abgesetzter Einheiten optimal ist.
Als Beispiel:
Sagen wir Intel stellt CPUs zu einem Selbstkostenpreis von 100€ pro Stück her und setzt zu einem Durchschnittspreis von 200€ pro CPU 20 Mio Cpus pro Quartal ab. Wenn Intel jetzt die Preise auf 1000€ im Durchschnitt hochschraubt setzen sie nur noch 1 Mio Cpus pro Quartal ab, weil die restlichen Kunden sich das einfach nicht mehr leisten können oder wollen.

Wer das jetzt ausrechnet kommt bei 200€ Durchschnitt auf : 20 mio * 100€ Gewinn = 2 Milliarden € Gewinn / Quartal
Und bei 1000€ Durchschnitt auf : 1 mio * 900€ Gewinn = 900 Mio € Gewinn / Quartal

Intel würde mit dem extrem überhöhten Preis also letztendlich weniger Gewinn machen als mit den 200€. Die Zahlen sind jetzt natürlich nur als Beispiel aus der Luft gegriffen, für die reale Preis/Nachfrage Kurve müsste man erst mal Marktforschung betreiben.

Halten wir fest: Werden die Preise steigen wenn Intel Monopolist wird? Wahrscheinlich ja. Werden sie ins unermessliche steigen? Sicherlich nicht.

Ganz ähnlich verhält es sich bei der Entwicklungsgeschwindigkeit von Intel. Es heißt ja immer: ohne AMD hört Intel auf zu entwickeln. Auch das ist betriebswirtschaftlicher Quatsch. CPUs sind Gebrauchs- und keine Verbrauchsgüter. Machen wir uns nichts vor, der Löwenanteil der CPUs wird ersetzt, weil sie irgendwann zu langsam sind und was neues schnelleres her muss. Nur in den seltensten Fällen wird eine CPU ersetzt weil sie den Geist aufgegeben hat.

Nehmen wir das was wir oben gelernt haben. Der maximale Gewinn des Monopolisten ist von der Preis/Nachfrage-kurve abhängig. Das heißt, der Monopolist muss darum bemüht sein, die Nachfrage möglichst hoch zu halten. Würde Intel jetzt 10 Jahre auf Skylake Niveau rumdümpeln, gäbe es für die Kunden überhaupt keinen Anreiz, ihre bestehenden CPUs zu ersetzen. Das heißt die Nachfrage würde einbrechen, was dann den Gewinn von Intel schmälert.

Das kann man doch am aktuellen Markt sehr schön sehen. Die PC-Absatzzahlen sinken seit Jahren. Wer diese Zahlen mal zurückverfolgt,stellt fest dass diese Trend besteht seit die MHZ-Wars vorbei sind und eben nicht mehr Leistungssteigerungen von 100% alle zwei Jahre drin waren. Seither besteht nicht mehr der enorme Druck seinen Rechner permanent durch einen neuen zu ersetzen, wie das zu Windows 95/98 Zeiten selbst für Officekisten noch der Fall war.

Und zu guter Letzt bleibt noch der Effekt, dass Intel sich extreme monopolistische Taktiken sowieso nicht erlauben kann, weil sie eben nicht allein am Markt agieren. Mondpreise und Nullentwicklung könnte Intel sich maximal mittelfristig für 4-5 Jahre erlauben. Allerdings mit katastrophalen Auswirkungen auf das langfristige Geschäft. Was würde passieren, wenn Intel CPUs zu teuer und nicht mehr schneller werden?
Die ARM Konkurrenz mit ihren vielen Anbietern und sowieso schon erheblich niedrigeren Preisen würde noch näher an Intels Leistungsniveau herankommen und innerhalb von eine paar Jahren würde die Softwareindustrie komplett auf den dann lukrativeren ARM Markt übersatteln und x86 würde endgültig in der Bedeutungslosigkeit versinken. Ich erinnere mal daran, dass Intel nach wie vor Millionen von CPUs im Jahr ausliefert, während der ARM Markt Milliarden von ARM SoCs pro Jahr verkauft.
Wären die ARMs leistungsfähiger (was ja nur noch eine Frage der Zeit ist) und die Windows Softwarelandschaft nicht bisher auf x86 festgetackert, hätte Intel längst schon größte Probleme sich am Markt zu behaupten. Von daher kann Intel sich auch ohne AMD Stillstand nicht leisten.

Die Effizienzverbesserungen im Mobile-Sektor sind der beste Beweis dafür, da die eben genau darauf abzielen, zu der erwarteten ARM-Konkurrenz konkurrenzfähig zu bleiben.
 
Zuletzt bearbeitet:
Draco Nobilis schrieb:
Hatte ja schon prophezeit das HBM mit 4GB vom Markt abgelehnt werden wird.

Wird die Fury X denn wirklich "vom Markt abgelehnt"?
Und was soll das bedeuten, von den Händlern oder von den Kunden abgelehnt?

(Nach dem, was ich gelesen habe, hatten die meisten Händler nur sehr wenige Fury-Exemplare, die direkt ausverkauft waren.)

Letztlich spielt es aber auch kaum eine Rolle, denn die Fury X würde auch als absoluter Verkaufsschlager nichts an AMDs Geschäftsergebnissen ändern. Dafür sind solche 650€-Karten einfach ein zu kleines Nischenprodukt.

Wichtiger ist, dass AMD mit Fiji jetzt schon Praxiserfahrungen mit HBM sammeln kann. Zukünftige Versionen von HBM, die ausgereift und günstig herzustellen sind, werden in ganz anderen Marktsegmenten wichtig werden. Vor allem bei APUs, denn bei denen ist, im Gegensatz zu High-End-GPUs, die Speicheranbindung wirklich ein Flaschenhals.
Man stelle sich ein Notebook, Tablet oder auch eine Next-Gen-Konsole mit HBM-APU (eventuell mit Zen-Cores) vor... Da läuft einem doch das Wasser im Mund zusammen, oder? :)

Ich hoffe nur, dass AMD wirtschaftlich so lange durchhält, bis sich die Investitionen in HBM und Co. auszahlen können. Es wäre leider nicht das erste mal, dass ein Unternehmen extrem vielversprechende Technologien im Entwicklungslabor hat, aber nicht mehr die Mittel, sie angemessen zu vermarkten.
 
Luffy schrieb:
Und warum nutzen sie nicht nicht die IBM werke die können doch schon längst "22nm" PD soi liefern.

Weil es nicht ganz so einfach ist mal eben die Chipproduktion in einem anderen Werk hochzufahren. Die Masken müssen neu erstellt werden, das ist teuer.
 
Cohen schrieb:
Sorry, aber dein "Volumenmarkt" sieht etwas anders aus, wenn man mal Steams Hardwarestatistik als Indikator nimmt.

Die GTX 970 war im Juni die GPU mit dem höchsten Zuwachs (0,40%) und hat nun die GTX 760 als populärste Grafikkarte abgelöst. Mit 3,45% DX11-GPU-Anteil ist sie dreimal so populär wie die komplette R9-200-Serie (255+260+270+270X+280+280X+285+290+290X+295X2), welche ein komplettes Jahr mehr Zeit hatte, eine Hardwarebasis aufzubauen.

Die GTX 960 (seit 4 Monaten erhältlich) war im Juni die GPU mit dem zweithöchsten Zuwachs (0,30%) und ist bereits populärer als die wie die komplette R9-200-Serie, die seit 21 Monaten auf dem Markt ist.

Das Verhältnis Maxwell2.0 zur R9-Serie verdoppelte sich von Januar bis Juni fast von 2,68:1 auf 5,21:1. Was soll nun diesen Trend brechen? Der Abverkauf der R9-200-Serie oder die R9-300-Serie mit kaum Änderungen zum Vorgänger? Die R7-200-Serie, die nur halb so populär ist wie die R9-200-Serie? Die (noch) nicht existierende R7-300-Serie? Die für AMD-Verhältnisse recht teure Fury-Serie?

Das bestreite ich auch nicht, dass nVidia den größeren Marktanteil hat und dementsprechend mehr Karten verkauft wurden, aber wie objektiv/präzise diese Steam-Umfrage wirklich die Besitzerverhältnisse widerspiegelt, ist auch fraglich. Zumindest spricht es nicht für die Kompetenz der Käufer, wenn die meisten sich die Krüppelspeicher-Karte (a.k.a. GTX970) von nVidia angeschafft und behalten haben nach der Enthüllung. Offensichtlich ist ein Label/Firmenname mittlerweile vielen wichtiger als Kundentäuschung oder Preis-Leistungs-Verhältnis (ansonsten würden sich Apple und Samsung Produkte ja auch nicht wie geschnitten Brot verkaufen). Natürlich läuft die GTX970 noch wie in den Tests angepriesen, aber falls Spiele dann anspruchsvoller werden und voll angebundene 4 GB fordern oder nVidia den Support herunterfährt (wie momentan bei den Kepler-Generation Karten) wenn Maxwell mit Einführung von Pascal idealerweise durch letztere/neuere Karten ersetzt werden sollen zwecks Gewinnoptimierung, dann kann das ein böses Erwachen werden. Die GTX960 mit 4GB ist auch eine durchaus gute Karte, wenn auch ein wenig teuer, aber ebenso ist die R9 380 keine schlechte Alternative und vielleicht wird es ja noch etwas mit einer 380X. Wenn die Fury und die Fury Nano für Kampfpreise auf den Markt kommen, wer kauft sich denn dann noch eine GTX980 und GTX970 (außer die Fanboys natürlich)? Dann müsste nVidia schon nachlegen (bspw. GTX960Ti und GTX970Ti mit echten 6GB GDDR5?). Wenn ich in den nächsten 3 Monaten unbedingt eine neue Grafikkarte bräuchte, würde bei mir irgendwo zwischen einer R9 390X, einer Fury Nano, und einer Fury entschieden werden, aber vor der kommenden Generation (2016) sehe derzeit ich noch keinen Handlungsbedarf und vielen anderen geht es wohl ähnlich derzeit.

Naja, die Hoffnung stirbt ja bekanntlich zuletzt und vielleicht wachen die Leute ja noch auf und merken doch noch rechtzeitig bevor sie auf ein Quasi-Monopol von nVidia zusteuern und steuern dann z.T. gegen; wie bereits erwähnt, von den Daten, Tests und Verkaufspreisen her braucht sich AMD sicherlich nicht vor nVidia zu verstecken und bietet mehr Auswahl/Leistungsklassen, aber die Öffentlichkeitsarbeit bzw. das Marketing bei AMD ist leider unterirdisch.

Faust2011 schrieb:
Das müssen sie nicht und auch AMD selbst geht nicht davon aus. Auf dem vor kurzem stattgefundenen Financial Analyst Day hatten sie das selbst gesagt.

Das hörte sich aber bei der Veröffentlichung der Fiji Karten anders an und wozu dann überhaupt die Forschung und den Hype bzw. die Fury-Karten über Wochen hinweg so "anzuteasen", wenn man diese nicht in größeren Zahlen verkaufen möchte? Es wurde auch behauptet, dass die Fury X ein "Overclocker's Dream" sein würde, aber leider totale Fehlanzeige. Einige bei AMD erzählen leider viel wenn der Tag lang ist und oftmals leider nicht zugunsten des eigenen Unternehmens, das ist - wie oben erwähnt - bei nVidia zugegebenermaßen weitaus professioneller.
 
@Herdware

APUs mit HBM die es in Zukunft wahrscheinlich geben wird
gegen
Intel CPUs mit iGPU mit bereits jetzt vorhandenem eDRAM
und
Intel CPUs mit und ohne iGPU mit HMC in Zukunft
+
ARM CPUs mit HMC (ARM ist im HMC Konsortium)


Da wird AMD also kein Feld allein beackern sondern muss genauso gegen die Mitbewerber anstinken. Wobei im x86 Markt Intel mit der 5000er Serie mit eDRAM zuletzt bewiesen hat, dass die iGPU genügend Potential hat um gegen AMDs GCN anzustinken.
 
Zurück
Oben