News Kryptowährungen: AMD bekräftigt einstelligen Umsatzanteil durch Mining

@hübie:
https://www.golem.de/news/auftragsf...msatz-und-gewinn-kraeftig-zu-1701-125536.html
Und es ist schon lange kein Geheimnis mehr, dass bei TSMC nicht mehr Nvidia der Innovationstreiber ist, sondern Apple und Qualcomm
Desweiteren verweise ich gerne noch auf Hier: https://www.computerbase.de/2018-01/tsmc-wafer-bitmain-nvidia/

Naja die 20% können insofern stimmen.. Ich suche grade die belegbaren zahlen, waren glaube ich in der Digitimes zu finden.
Interposer für 20$ erachte ich als zu billig, da das Packaging auch noch hinzukommt.

Und ja es war mit Absicht so geschrieben, denn hier werden Meinungen als Fakten verkauft, und das nervt gewaltig.
 
Zuletzt bearbeitet:
Der Link belegt weder die eine, noch die andere Aussage von dir. Du weißt vielleicht auch gar nicht genau wie das Semiconductor-Business funktioniert (das meine ich nicht abwertend oder diskreditierend!). NVIDIA war hier nie Innovationstreiber, sondern alle beteiligten (Zeiss Optics, ASML, TSMC und NVIDIA als Vendor) in Verbindung zueinander. NVIDIA oder generell die typischen ASIC-Designer nutzen den stets optimalen Prozess. Das schließt vor allem den Preis mit ein. Apple hat den zweithöchsten Pro-Mitarbeiter-Gewinn weltweit und schaut nicht (so sehr) auf Kosten pro Transistor sondern wägt eher ab, wie viel Batterielaufzeit und Performance man gewinnt (Umfragen haben ergeben dass Akkulaufzeit, gefolgt von Speicherkapazität, das wichtigste Kriterium bei der Suche nach einem Smartphone ist, Quelle). Die können sich das also durchaus leisten die stets aktuellste Prozesstechnologie zu verwenden.
Apple ist Pionier und dann folgen die early adaptors, dann die early maturities und schließlich die late follower - auch zu sehen an dem Anteil an "alten" Prozessen wie 28, 40-55 und 65 nm.
Apple hat keine 20% der Kapazität bei TSMC, das kann ich dir sagen ohne dass du eine Quelle für dein Statement suchen musst.

Der Interposer von Vega liegt bei unter 20$. Das ist ein "blödes" Substrat ohne Logikschaltungen (okay vielleicht ein state-counter oder so, aber iirc ist das echt nur Verdrahtung). Der assembly-process ist ein Schwung, wie willst du das teilen? Da musst du jetzt wissen wie lange der gesamte Prozess dauert (vermutlich ~20 Sekunden flip-chip+Interposer und anschließend der HBM2 noch mal diese Zeitspanne, aber das ist jetzt nur auf Basis meiner Erfahrung geschätzt und schließt nicht die Heiz- und Abkühlphasen ein) und dann die Anzahl der Schritte prozentual kostentechnisch zuordnen. Das ergibt keinen Sinn in dem Fall, da das Produkt nur mit allem wirklich fertig ist. Das eigentlich teure ist Nacharbeit und Testing, aber ich denke es sprengt den Rahmen des Threads und ich möchte keine Verwarnung riskieren - gerne per PN. :)

Hier mal ein Bild wie es auf dem Monitor aussieht wenn eine Chroma 3260 Teststation einen Chip (z.B. GP102) durchtestet:

gp102-400-a130sqb.jpg
 
Nvidia ist für TSMC der wichtigste Kunde für HP-Prozesse und ist dort Entwicklungspartner.
Aber der wichtigste Prozeß für TSMC ist immer der (SoC-Prozeß), der für (und mit) Apple entwickelt wird. Selbst die Entwicklungskadenz richtet sich inzwischen nach Apples Bedarf. Das liegt natürlich schlicht daran, daß Apple mit ~18% Umsatzanteil der mit Abstand wichtigste Kunde ist.
Mit seinen ~5% Umsatzanteil ist Nvidia aber auch nicht gerade ein Zwerg für TSMC.

Wenn ein neuer SoC-Prozeß sich im Ramp-up befindet, benötigt Apple dessen volle Kapazität. Das hindert TSMC aber in keinster Weise Kunden in anderen Prozessen – wie z.B. Nvidia mit einem speziellen 12FFN – zu bedienen. Leidtragende sind hier eher die anderen SoC-Hersteller, denen in diesem neuen SoC-Prozeß erst Kapazität zur Verfügung steht, wenn der Ramp-up weit genug fortgeschritten oder Apples großer Anfangsbedarf abgeflaut ist. Die Gesamtkapazität bei TSMC ist dabei keine festgefügte Größe, sondern unterliegt einem fortwährenden Ausbau.
 
Ganz genau so sieht es aus und mit dem Umsatzanteil kommen wir der Sache schon näher (Edit: Wobei ich die Zahlen nicht aus dem Kopf kenne - glaube dir das jetzt mal). ;) Wobei 12FFC nicht wirklich besonders ist (es werden 120 tapeouts erwartet). 10 nm lohnt sich für große ASICs einfach nicht. Erst mit dem Wechsel von Wolfram auf Cobalt und quad pattering erreicht man Sprünge wie wir sie lange nicht gesehen haben.

Wobei man Apple als Pionier die credits geben muss. Andere scheuen diese Investitionen für neue Prozesse idR sehr. Da wird anfangs also kaum einer gehindert und es sind schon mehr als 10 7-nm-Produkte durchs tapeout raus.
 
Zuletzt bearbeitet:
Toni_himbeere schrieb:
Das ist doch reine schönrechnerei von AMD und zahlenschieberei.

Wahrscheinlich stimmt es sogar das sie nur 5% mit Mining direkt verdienen und den Rest an die boardpartner abgeben.

Aber die Nachfrage der boardpartner wird ja auch durch Mining gesteigert auch wenn für AMD nur indirekt.

Für mich klingen die 20% weitaus plausibler. Bei 5% hätte das nie solche Auswirkungen wie im letzten Jahr gehabt.

Reines Zahlengeschiebe wie bei allen Konzernen.

Mal ne kleine grobe Rechnung:

5329 Mio Umsatz für Gesamt AMD im letzten Jahr
davon:
  • 2300 Mio. durch "Enterprise, Embedded and Semi-Custom"
  • 3029 Mio. durch "Computing and Graphics"

Geht man von einer 50:50 Teilung des "Computing and Graphics" Umsatzes aus, also 50% CPU und 50% GPU, dann bleiben 1514,5 Mio. für GPUs. Davon geht wohl ein Großteil an OEMs, Miner kaufen wohl kaum Fertig-PCs zum Minen. Also Milchmädchen nochmal 50% weg für die OEMs, bleiben 757,25 Mio. für Grafikkarten die an Miner gehen könnten, ob wirklich alle an Miner gehen? Keine Ahnung, wenn ich aber davon ausgehe, dann bleiben maximal 14,21% Umsatzanteil für Miner.

Zum Schluss noch: Ich gehe davon aus, das der Anteil GPU an der "Computings and Graphics" kleiner als 50% ist und auch der Anteil an OEM-Karten an diesen höher als 50% ist. Dadurch wären wohl noch weniger als 14,21% am gesamten Umsatz Grafikchips die direkt an Endkunden gehen.
 
AMD-Mafiosi schrieb:
@hübie:
https://www.golem.de/news/auftragsf...msatz-und-gewinn-kraeftig-zu-1701-125536.html
Und es ist schon lange kein Geheimnis mehr, dass bei TSMC nicht mehr Nvidia der Innovationstreiber ist, sondern Apple und Qualcomm
Desweiteren verweise ich gerne noch auf Hier: https://www.computerbase.de/2018-01/tsmc-wafer-bitmain-nvidia/

Was hat der Umsatz mit Innovation zu tun?
Von allen fällt mir nur NV ein die von TSMC einen 800mm² Chip fertigen lassen.:rolleyes:
 
Wenn AMD für die Sparte Mining falsche Zahlen veröffentlicht, ist das kein Kavaliersdelikt, man ist den Share Holdern dazu verpflichtet hier korrekt zu reporten. Das ganze riecht noch schwer nach Ärger und wird denen nicht helfen an Akzeptanz zu gewinnen. :rolleyes:
 
Also 1% erscheint mir zu wenig und angesichts der Tatsache dass es hier um Milliarden geht (10 hoch 9) ist es sehr ungenau. Die Wahrheit liegt, wie so oft, irgendwo in der Mitte. 5% halte ich ebenfalls für realistisch, aber wir können nur spekulieren. Klar möchte AMD den Leuten die Angst nehmen, aber das schafft man eher durch Transparenz, als durch Verschleierungstaktiken.
 
ich verstehe es auch nicht, warum kann AMD nicht wenigsten dazu stehen, dass Vega ein Erfolg ist für den Mining Sektor ist?
Das ist doch perse keine Schande, viel schlimmer ist, das die GPUs immernoch für den Gamingbereich angeboeten werden, wo sie absolut nichts zu suchen haben!
 
Und warum haben sie im Gamingbereich nichts zu suchen?
 
Wo verschleiert denn AMD etwas?
Wenn man seinen gesunden Menschenverstand einschaltet und die Zahlen von AMD die letzten Jahre beobachtet hat, kann man sich schon selber klar machen, dass die Behauptung dieses sog. "Analysten" völliger Schwachsinn ist, dass 1/5 des Gesamtumsatzes 2017 durch Mining erzielt wurde. Völlig schwachsinnige Behauptung, alleine schon wenn man die Zahlen von 2016 und 2017 gegenüber stellt, Ryzen einbezieht und sich vor Augen hält, das AMD Apple exklusiv mit Grafikchips versorgt und die Herstellung der Chips durch Bestellung von Wafern bei Globalfoundries erfolgt, die LANGE Zeit vorher geplant wird. FABs und Wafer enstehhen nicht über Nacht und können nicht beliebig schnell erweitert werden.

Dazu kommen noch die Verträge mit den Grafikkarten Herstellern (Mindestabnahmen, Preise etc.),die ausgehandelt werden, BEVOR eine Produktion gestartet wird.
Wenn es 2016 keine nennenswerten Effekte durch Mining gab, ist es alleine schon produkionstechnisch unmöglich, plötzlich 2017 20% seiner Erlöse damit zu erzielen, wenn man noch dazu Ryzen als sehr erfolgreich eingeführte und verkaufte CPU mit einbezieht, wird diese Behauptung zur völligen Lüge!
Ergänzung ()

RoBBe07 schrieb:
ich verstehe es auch nicht, warum kann AMD nicht wenigsten dazu stehen, dass Vega ein Erfolg ist für den Mining Sektor ist?
Das ist doch perse keine Schande, viel schlimmer ist, das die GPUs immernoch für den Gamingbereich angeboeten werden, wo sie absolut nichts zu suchen haben!

Das sehen Millionen von Kunden auf der Welt anders, übrigens auch Apple die nur AMD Grafikchips und Karten verbauen und neu auch Intel, die auch VEGA verbauen.
Dein etwas begeschränktes "Weltbild", hat nur sehr wenig bis gar nichts mit der Realität zu tun
 
Zuletzt bearbeitet:
Ich sehe das nur realistisch, nenn mir einen nur einen Grund, warum man AMD im Gaming Bereich noch ernst nehmen sollte.
Man versucht sich über Wasser zu halten probiert dies und das aus, daraus werden tut nie was.

Damit wir uns nicht falsch verstehen, Konkurrenz ist wichtig für uns Kunden, aber leider gibt es keine. Und als Monopolist verhält sich Nvidia durchaus human, oder nicht?
 
Das ist vielleicht deine Ansicht. Die muss aber deswegen nicht zwingend richtig sein.
 
Was soll man auf so einen dummen Post antworten?
 
Ich schreibe schon viele Jahre erfolgreich im Luxx-Forum, dort ist man der selben Meinung. Warum ist das hier scheinbar nicht so, was sind die Gründe, würde das gerne verstehen?
 
Zuletzt bearbeitet von einem Moderator:
Hmmm. Mal sehen. Weil es nicht richtig ist, was du behauptest? Und wenn du im Luxx-Forum so voll der Zustimmung bist, was treibt dich dann hierher um die Forenteilnehmer zu bekehren?

Außerdem, wie kommst du auf die Idee, man könne mit einer AMD-Grafikkarte nicht ordentlich spielen?
 
Was willst du verstehen?
Das man mit einer Radeon genauso gut gamen kann, wie mit einer Geforce?
Das bestätigen dir Millionen und die einzige Karte mit der AMD nicht mithalten kann ist eine 1080Ti, das am gesamten Gamingmarkt einen unteren einstelligen Prozentsatz ausmacht.
Der Rest ist subjektive Geschmacksache, da eine 1050ti nicht beser als eine RX 570, eine 1060 nicht besser als eine RX 580 und eine 1070 nicht besser als eine RX 56 ist. Einzig und alleine die VEGA 64 hat objektive Nachteile zur Konkurrenz.
 
Ich möchte keinen bekehren, jeder sollte von allein darauf kommen, was andere für richtig halten.

Nein es geht einfach darum, dass ich gerne jetzt schon die neue Geforce-Generation hätte und nicht noch bis Ende des Jahres warten möchte.
Pascal schön über 3 Jahre am Markt, wen haben wir das wohl zu verdanken.

Ich hätte ja nichts dagegen gehabt, wenn AMD mit Vega wenigsten ein bisschen Kokurenz geboten hätte, aber was daraus geworden ist, wissen wir ja alle selber.

Warum man mit Vega nicht spielt: Zu heiß, zu viel Verbrauch, zu wenig Leistung und kein P/L, dazu noch versprochene Features die es nie geben wird ...
 
Wem wir das zu verdanken haben? Dem Kunden, der es kauft und dem Forenteilnehmer, der es in den höchsten Tönen als unvergleichlich lobt.

Und zu deiner Vega-These: Zu heiß? Unsinn. zu viel Verbrauch? Etwas mehr, aber nicht wirklich die Welt. Zu wenig Leistung? Zu wenig wofür? Und fehlende Features? Nachdem ja die Spieleindustrie Nvidia in den Allerwertesten gekrochen ist und sich statthaft weigert von der NV-Paradedisziplin DX11 Abschied zu nehmen, weil NV in DX12 bei weitem nicht so gut dasteht? Schon mal FarCry und dessen Test angesehen?
 
Zurück
Oben