News AMD Instinct MI300: Die erste Zen-4-plus-CDNA-3-APU nutzt auch HBM(3)

Ein HPC Traum diese APU. Mit HBM als schneller Zwischenspeicher und großem DDR5 Pool....
 
Ich verstehe noch nicht ganz, welches Problem dieser Chip im HPC/Exascale-Bereich lösen soll.

Das scheint mir wie eine DPU (Beschleuniger mit eigener, aber bewusst stark geschrumpfter CPU) die durch Evolution wieder einen großen x86-Teil bekommen hat. Also sozusagen eine "nicht-DPU-DPU"? 🤔 Aber durch die engere Kopplung von x86 und Beschleuniger muss der Workload noch genauer und aufwändiger auf die Hardware zugeschnitten werden um alles gut auszulasten, ein Problem das die DPUs eigentlich vereinfachen wollten. Und HBM scheint mir CXL für mehr Watt durch x86 und geteilten Cache/Speicher zu duplizieren - mehr Leistung bzw. weniger Latenz, aber eine architekturelle Insellösung.

Obwohl ich so ein Teil niemals in die Flossen bekommen werde bin ich neugierig was die Industrie damit anstellt, wenn/falls es ein reales Produkt wird.
 
Zuletzt bearbeitet:
Looniversity schrieb:
Ich verstehe noch nicht ganz, welches Problem dieser Chip im HPC/Exascale-Bereich lösen soll.
Meines Erachtens das gleiche Problem, das auch die Telekom und andere Provider mit DSL haben: Mit steigender Leitungslänge sinkt die Bitrate und/oder steigt die Energiemenge die man zur Übertragung braucht.
Ergänzung ()

Nachtrag: ...weshalb unter anderem Intel und IBM ja auch an photonischer Vernetzung forschen.
 
  • Gefällt mir
Reaktionen: Looniversity und ETI1120
Ich sehe 3 Probleme bei APUs:
Die Speicherbandbreite erfordert entweder einen großen System Cache ala Infinity Cache oder ein neues System Design. Das mit dem Systemdesign machen die Konsolen und Apple. Den großen System Cache macht Apple.

Die GPU erfordert viel Fläche. Somit sind SoC mit leistungsstarken GPUs groß und teuer. Das beißt sich mit Einsteiger Lösung. Es funktioniert aber bei den Konsolen und bei Apple.

APUs benötigen Software. Beim PC sind es nur Spiele die Nutzen aus der GPU ziehen. Und das ist der Grund warum die AMD APUs vor Zen nur Nischenprodukte waren. Mit Zen ist die CPU stark genug, so daß die GPU als Bonus funktioniert. Hier hat AMD es nur geschafft die Hardware bereit zu stellen. Um HSA als Schnittstelle ist es sehr ruhig geworden. Und deshalb ist Gaming aktuell der einzige Anwendungsfall für APUs. Wenn die AMD APUs Cuda unterstützen würden, gäbe es genügt Lösungen, die auch in Anwendungen die GPU verwenden.


Es gibt 2 Dinge die in dieser Diskussion zu kurz kommen. Mit Advanced Packaging gibt es neue Optionen wie man SoCs aufbauen kann. Es ist offensichtlich, daß das was AMD bisher gezeigt hat, nur der Einstieg ist. Es wird mehr als CCD und IOD geben. Wahrscheinlich noch nicht für Zen 4, aber ganz gewiss für Zen 5. Hier ist klar, das AMD die IP von Xilinx nutzt um ML im SoC zu nutzen. Das hat Lisa Su angekündigt, das zeigen Patente von AMD. Ich sehe keinen Grund warum AMD ähnliches nicht mit GPUs machen sollte.

Es ist sehr viel die Rede von Speicherbandbreite und Latenz zum Speicher. Wenig wir über die Bandbreite und Latenz zwischen CPU und GPU. Das mag in vielen Anwendungsfällen keine Rolle spielen. Spielt es aber nie eine Rolle? Für solche Anwendungen wäre die im Artikel beschriebene APU geeignet.

Grundsätzlich gilt, dass je weiter die Daten transportiert werden, desto mehr Energie ist erforderlich. Und wenn viele Daten zwischen CPU und GPU übertragen werden kann dies ein entscheidender Faktor sein.

HBM Lösungen benötigen aktuell einen Silizium-Interposer. Die sind teuer und nur in begrenzten Größen herstellbar. Da war kein Platz für CPU + GPU + Speicher. So eine APU wäre keine Lösung für High End von HPC.

Das Gerücht, dass MI300 auch als APU kommt, gibt es übrigens schon länger.

Generell ist es zu den Instinct GPUs immer viel ruhiger als zu den Gaming GPUs. Also gilt überraschen lassen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
Nore Ply schrieb:
Mit steigender Leitungslänge sinkt die Bitrate und/oder steigt die Energiemenge die man zur Übertragung braucht
Das ist mir nach dem Abschicken eingefallen, der versuchte (und zu späte) Edit greift das auf.
Auf jeden Fall interessant wie viele Lösungen sich die Leute einfallen lassen. Startups machen superbreite Vektormaschinen (Tradeoff: Compiler), Cerebras packt alles auf einen Wafer (Tradeoff: Hardware-Kosten), NVidia macht GPUs und DPUs (Tradeoff: Verbrauch und Latenz), Intel versucht mal wieder den Takt hochzuprügeln und nochmal die Grafikkarte neu zu erfinden (Tradeoff: Energie und zu spät), AMD nutzt Xilinx und Pensando für eigene DPUs bzw. Instinct-Hardware (Tradeoff: Neue Plattform/Optimierung), und ich vergesse bestimmt noch ein paar.

Gleichzeitig geben die größten Kunden viel Geld für ihre eigenen neuen Designs auf ARM/GPU-Basis aus und versuchen die gleichen Probleme auf ihre Art zu lösen, ohne (dank OpenCompute) auf eine bestimmte Architektur setzen zu müssen die eventuell nicht am Markt bleibt (Tradeoff: Limitiert durch Ethernet und/oder CXL).

Und Arista freut sich nen Keks weil alle Lösungen immer dickere Ethernet-Switches brauchen. Naja, alle bis auf Google mit Aqulia, NVidia mit Mellanox, und die ganzen anderen die ihre DPUs/TPUs/etc mit Interconnects enger integrieren als das DPU-Konzept es propagiert...

So, genug Buzzword-Bingo für heute 😂
 
Nore Ply schrieb:
Gerade eben ging es noch um die Herstellungskosten, nun um "Erfolg". Rückzugsgefecht?
Ist jetzt nicht so schwer zu verstehen. Zu hohe kosten verhindern einen Erfolg. Was glaubst du warum Intel das Konzept eingestellt hat?
 
Sternengucker80 schrieb:
nicht nur AMD und Via x86 Lizenzen. Da gibt es auch noch einige andere. Siemens z.B.
Na, ob Siemens und co. da noch irgendwelche Lizenzen habe, bezweifel ich mal. Wenn, dann wäre es sicherlich mit Infineon verschwunden.
Umd ob TI oder IBM da noch eine haben?
 
DevPandi schrieb:
Nicht Marktfairness. IBM hat Intel dazu gezwungen, die Lizenzen damals an ein paar Firmen zu vergeben.
Bis in die 70iger war es üblich Systeme aus Standardbausteinen aufzubauen. Es war üblich, daß nur Bausteine verwendet wurden, für die es mehrere Bezugsquellen gab. Also Seconds Source.

Das hat IBM beim IBM PC ebenso gehalten. Aber in den 80igern ist Seconds Source mehr und mehr verschwunden. Die Zeit der die Logik aus Standardbausteinen aufzubauen war zu Ende. Und Überall wurden höher integrierte Lösungen verwendet. Wie Microprozessoren.

Der 8086 war ein schlechtes Design. Der Erfolg des IBM PC lag an der Vorarbeit von IBM. Der Erfolg der IBM-kompatiblen PC die zur dominierenden PC-Plattform würde lag daran dass IBM die Clones nicht unterbunden hat.
Der erste wirklich gute X86-Prozessor war der 386. Und hier ging auch der Steit zwischen AMD und Intel los. IBM war nur noch einer von vielen Anbietern und konnte kein Second Source mehr einfordern.

AMD bekam das Recht eigene X86 zu entwickeln und zu fertigen. Beim 486 ging der Streit um die Ziffernfolge "486", die AMD im Namen verwenden wollte und durfte. Da Intel die Zahlenfolge "586" nicht schützen könnte, kam der als Pentium auf den Markt.

Viel entscheidender war, dass Intel mit 386, 486 und Pentium Motorola überholt hat. Die 68000er-Familie hatte den Workstation-Markt dominiert. Die hohen Preise und der Erfolg haben Motorola blind und träge gemacht.

Innerhalb von wenigen Jahren waren die 68000er aus den Workstations verschwunden. Im High End waren es die verschiedenen RISC Architekturen im Grenzbereich zu den PCs war es X86.

Einige Zeit konnte AMD noch die Mainboards von Intel verwenden. Aber auch hier hat Intel AMD ausgeschlossen. Für den Athlon musste AMD eine eigene Mainboards schaffen. Natürlich hat sich AMD an die offenen Standards der PC-Plattform gehalten. Diese wurden alle maßgeblich von Intel geprägt. Mainboard-Formate, Stromversorgung, Bus, Netzteil, ...
Versuche von AMD eigene Standards zu etablieren sind im Sande verlaufen.
 
  • Gefällt mir
Reaktionen: dhew und konkretor
Ich würde mir ein richtig breites Design für eine Notebook APU wünschen.
Muss ja nicht direkt so extrem sein wie Apple, aber eben weg von der Idee kleine Chips (weil spart Kosten) mit hohem Takt zu betreiben.
16-Kerne mit stacked L3, große RDNA2/3 einheit mit HBM. Speicheranbindung muss dann gar nicht so fett sein, wenn HBM und ein großer L3 da ist.
Eventuell kann man so was ja auch mit einem shared Infinity cache bauen?
Alternativ halt ein sehr schnelles Speicherinterface (bitte 32-64GB Ram).

Das ganze dann by default mit geringem Takt, am besten so dass kein Lüfter ackern muss. Reicht ja wenn 1-2 Cores bei Bedarf kurz Richtung 5Ghz gehen.
Leistung dann nur durch Energieversorgung und Kühllösung begrenzt.
Also in großen mobile Workstations mit 150W Netzteil darf der Chip sich dann austoben und in kleinen Notebooks gelten dann die 28-45w TDP.

Apple hat ja schon vorgemacht wie man durch große Chips mit eher geringen Takt viel Leistung ins Notebook bringen kann.
Gegen so einen M1 Max sind die aktuellen AMD APUs ja winzig.
 
ETI1120 schrieb:
HBM müsste massiv billiger werden.
Der Schlüssel dazu liegt in höherer und vorhersagbar steigender Nachfrage. Die Hersteller müssen sich darauf verlassen können, jedes Jahr etwa ähnlich steigende HBM-Kapazitäten absetzen zu können.

Dieses Produkt hier wird dazu nicht beitragen können, auch die Vorgängerprodukte liefen ja bereits mit HBM.
ETI1120 schrieb:
Apple bietet so was schon längst an. aber mit LPDDR5.

Wenn man eine schnelle APU will muss man sich vom herkömmlichen PC-Design verabschieden. CPU + GPU + IP + RAM ins SoC-Package.
Es muss kein HBM, sein wie es Apple zeigt. USB4 als IO, ein paar PCIe-Lanes für die SSD zusätzlich Displayport oder HDMI und ein Lautsprecher-Anschluss. Keine DIMM-Slots keine Steckplätze für PCIe Karten.

Aber wer soll so etwas anbieten außer Apple?
Eine Möglichkeit wäre tatsächlich ein Wechsel von Apple zu HBM. Persönlich gehe ich dabei von einem Start im HighEnd aus; also nur für M2 Max/ M2 Pro bzw. M3 Max/ M3 Pro, während dann M2 Normal bzw. M3 Normal und ein hypothetischer M2 Air/ M3 Air noch eine Generation bei normalem Speicher bleiben würden.
 
ETI1120 schrieb:
Aber wer soll so etwas anbieten außer Apple?

KurzGedacht schrieb:
Apple hat ja schon vorgemacht wie man durch große Chips mit eher geringen Takt viel Leistung ins Notebook bringen kann.
Gegen so einen M1 Max sind die aktuellen AMD APUs ja winzig.

Die Frage ist eher, wer will 2000$ APUs als normaler Nutzer kaufen?
Den quersubentioniert über den Appleshop und closed/walled garden ist es genau das was Apple tut.
Als ob AMD/NVIDIA/Intel nicht genau das selbe können.
Nur leider hat keiner von denen einen 30% Gewinnbeteiligungs-Appshop mit closed Hardware / Software etc. pp..

Damit will ich keinen Kreuzzug gegen Apple lostreten, aber es sollte bewusst sein das Apple anders funktioniert als Intel und Co.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bensen
KurzGedacht schrieb:
Ich würde mir ein richtig breites Design für eine Notebook APU wünschen.
Muss ja nicht direkt so extrem sein wie Apple, aber eben weg von der Idee kleine Chips (weil spart Kosten) mit hohem Takt zu betreiben.
Fett sind bei Apple vor allem die Firestorm Kerne. Die sind sehr breit und Apple kann die auch auslasten.

Aber die GPU ist nicht das einzige Goodie das Apple zu den CPU Kernen packt. Apple baut Systeme und stimmt alles auf einander ab.

Das wird bei den PCs nicht so einfach.

Erstens müsste Microsoft alles in Windows einbinden. Microsoft hat bis heute keine API für die GPGPU Programmierung

Zweitens bleibt bei so einem Design nichts für die OEM übrig, wenn PCIe und DIMMs rausfliegen. Ein Design mit L4 Cache ist für PCs zu teuer.

Was bei PCs früher oder später kommt, wird eine Lösung mit Systemcache sein. Und die GPU wird so groß, dass sie mit der verfügbaren Bandbreite nicht verhungert.

Intel traue ich für ihre Compact PCs zu, dass sie eine Lösung ohne DIMMs anbieten. Ob AMD sich das traut? Ich glaube eher nicht. Bei AMD werden es die Konsolen sein. Aber vielleicht konzipiert Microsoft die nächste XBOX als vollwertigen Compact PC
Ergänzung ()

CDLABSRadonP... schrieb:
Der Schlüssel dazu liegt in höherer und vorhersagbar steigender Nachfrage.
Die Kosten sind nicht nur das RAM sondern auch der Interposer und das Systemdesign.
CDLABSRadonP... schrieb:
Eine Möglichkeit wäre tatsächlich ein Wechsel von Apple zu HBM.
Wieso sollte Apple sich das antun?
Sie haben eine Lösung die funktioniert und erheblich billiger ist.

HBM wird für Lösungen verwendet die einen hohen Datendurchsatz benötigen. Also große Datenmengen, die nicht durch Cache gepuffert werden können.

Und das ist bei Games offensichtlich nicht der Fall. Und wie gesagt außer Cuda gibt es wenig, das eine GPU für Anwendungssoftware nutzbar macht.

Apple hat Metal, als API direkt im Betriebssystem.
Ergänzung ()

Draco Nobilis schrieb:
Die Frage ist eher, wer will 2000$ APUs als normaler Nutzer kaufen?
Du siehst das falsch. Sie wollen eine APU für 200 bis 300 €
Draco Nobilis schrieb:
Den quersubentioniert über den Appleshop und closed/walled garden ist es genau das was Apple tut.
Apple hat enorme Margen. Da wird nichts quersubventioniert. Das ist die Spezialität von Amazon, Microsoft und Sony.

Apple bietet ihre Hardware zu hohen Preise an. Das heißt aber nicht daß sie auch so teuer in der Herstellung ist.
Draco Nobilis schrieb:
Als ob AMD/NVIDIA/Intel nicht genau das selbe können.
Der entscheidende Unterschied ist, daß Apple ein Computerhersteller ist der sich selbst SoCs maßgeschneidert.
AMD, Nvidia und Intel sind Anbieter von Komponenten. Und die müssen anbieten was ihre Kunden wollen.

Sich mit den OEMs anlegen können Intel und Nvidia. AMD kann es nicht. Aktuell bekommt Intel die Rechnung für ihr Verhalten Gegenüber den OEMs und Datacenter Kunden präsentiert. Also hat auch Intel wieder Grenzen.

Man wird sehen ob es sich auf Dauer auszahlt dass Nvidia den Serverherstellern Konkurrenz macht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KurzGedacht
ETI1120 schrieb:
Apple hat enorme Margen. Da wird nichts quersubventioniert. Das ist die Spezialität von Amazon, Microsoft und Sony.
Wie kommst du auf die Idee das Apple einen 800mm² DIE aus TSMC N5 günstiger kaufen kann als NVIDIA/AMD?
Hast du mal geschaut was NVIDIA für die neuste Kreation 800mm² in N5 verlangt? Jahre nach Apple?
Da geht es bei 5 stelligen Preisen los.
Und ja die Bruttomarge von NVIDIA ist etwas höher als die von Apple.

Glauben alle das Apple mittels Magie alles günstig von TSMC kaufen kann? Obwohl diese komplett auf Jahre ausgebucht sind und mal eben Huaweis Anteil (war #2 bei TSMC!) aufteilen konnten, bei gleichzeitig steigenden Preisen?

ETI1120 schrieb:
Der entscheidende Unterschied ist, daß Apple ein Computerhersteller ist der sich selbst SoCs maßgeschneidert.
AMD, Nvidia und Intel sind Anbieter von Komponenten. Und die müssen anbieten was ihre Kunden wollen.
Mit anderen Worten: was ich sagte:
Closed Garden und 30% Gewinnbeteiligung vom Appstore!
#
Und jeder muss anbieten was der Kunde will, oder den Kunden entsprechend erziehen.
Sonst kommt die Konkurrenz.

ETI1120 schrieb:
Du siehst das falsch. Sie wollen eine APU für 200 bis 300 €
Genau das kann Apple eben nicht.
Wie ist es sonst zu erklären das eine AMD APU mit unter 200mm² N7 bereits entsprechend kostet aber Apple DIEs "magisch" und aus unbekannten Gründen bestimmter Forenteilnehmer plötzlich genausoviel Kosten sollen? in N5 mit größeren DIE bei ähnlicher Marge wie bei AMD?^^

Nochmal, Apple ist keine Konkurrenz zu niemanden, weil Appstore. Andernfalls gäbe es derem M1 in Supercomputern, aber irgendwie scheint es den dort nicht zu geben, weil unökonomisch und die Infrastrunktur nicht existiert.
 
Verstehe ich das richtig, dass bei dieser Zentralen Verarbeitungseinheit auf den "externen" Arbeitsspeicher, sowie der Grafikkarte verzichtet werden kann?
Wenn ja, wäre das eine sehr interessante Lösung.
Lg
 
Draco Nobilis schrieb:
Wie kommst du auf die Idee das Apple einen 800mm² DIE aus TSMC N5 günstiger kaufen kann als NVIDIA/AMD?
Die Preise die Apple tatsächlich zählt kennen wir beide nicht.

Ich habe Zahlen von mehr als 16 000 USD je Wafer im Kopf. Apple ist der Kunde mit dem TSMC die letzten Nodes eingefahren hat. Ob Apple deshz mehr oder weniger bezahlt hat kann ich nicht beurteilen.
Draco Nobilis schrieb:
Hast du mal geschaut was NVIDIA für die neuste Kreation 800mm² in N5 verlangt? Jahre nach Apple?
Da geht es bei 5 stelligen Preisen los.
Und ja die Bruttomarge von NVIDIA ist etwas höher als die von Apple.
An den Karten ist mehr dran als an einem SoC und weniger als an einem Mac.
Draco Nobilis schrieb:
Glauben alle das Apple mittels Magie alles günstig von TSMC kaufen kann? Obwohl diese komplett auf Jahre ausgebucht sind und mal eben Huaweis Anteil (war #2 bei TSMC!) aufteilen konnten, bei gleichzeitig steigenden Preisen?
Hast Du Dir Mal die Quartalsabschlüsse verglichen? Das Geheule über die hohen Kosten für die Wafer kann ich langsam nicht mehr hören. Selbst AMD fährt momentan mit einer Bruttomarge von über 50 %. Neben den Kosten für die belichteten Wafern, kommen noch aufteilen, testen, Packaging und weitere Ausgaben weil sowohl AMD als auch Nvidia nicht nur CPU oder GPU liefern.

Die riesigen Silizium-Interposer und der HBM kostet auch noch etwas. Nvidia ist Hauptkunde von CoWoS bei TSMC. Apple verwendet das weit billiger InFO, beim Ultra ist es InFO-L. Apple verwendet das billigere LPDDR5 und verzichtet auf HBM.

Wir sind uns einig, dass Apple für die SoC viel Geld ausgibt. Aber das holen sie wieder rein weil sie das System mit viel weniger Komponente bauen können. Dass das System erheblich kompakter ist, trägt auch noch ein bisschen zur Effizienz bei.

Die Anzahl der Komponenten zu reduzieren war der Treiber, der in den letzten Jahrzehnten die Elektronik immer preiswerter gemacht hat. Das Tempo hält sich reduziert, aber die Richtung hat sich nicht umgekehrt.
Hast Du Dir einmal angesehen was di
Draco Nobilis schrieb:
Nochmal, Apple ist keine Konkurrenz zu niemanden, weil Appstore.
Apple verkauft ihre Macs. Es sieht so aus, daß die Marktanteile leicht zunehmen.
Die Macs werden teurer als vergleichbare PC abgesetzt. Irgendwie weiß ich nicht was Du mit dem AppStore willst. Im übrigen werden auch die Highend PC-Notebooks zu ordentlichen Preisen verkauft. Irgendwo habe ich gehört, daß die teuren Notebooks höhere Margen abwerfen als die Billigteile.

Apple liegt preislich immer über den PCs. Wenn es Apple auf höheren Umsatz ankäme würde sie die iPhone s und Macs billiger anbieten. Es geht Apple um hohe Renditen. Bei allen Produkten.

Der gewaltige Umsatz und die Gewinne aus dem Store erleichtern es Apple Risiken einzugehen. Aber sie finanzieren nicht die Macs. Ich will jetzt nicht behaupten, das die Macs dieselbe Rendite einfahren, aber Apple verdient an den Macs.
Draco Nobilis schrieb:
Andernfalls gäbe es derem M1 in Supercomputern, aber irgendwie scheint es den dort nicht zu geben, weil unökonomisch und die Infrastrunktur nicht existiert.
Der M1 ist als Prozessor für Arbeitsplatz Rechner entworfen worden. Da Apple auf RAM-Slots und Steckplätze verzichtet hat ist der M1 weder als Workstation- noch als Serverprozessor geeignet.

Die spannende Frage ist, lässt Apple den Mac Pro auslaufen oder machen sie dafür einen eigenen Prozessor, der dann auch für Server eingesetzt werden kann. Die Apple Cloud mit Apple Silicon hat was.
 
Zuletzt bearbeitet:
ndi_sco, post: 26906049, member: 765882"]
Na, ob Siemens und co. da noch irgendwelche Lizenzen habe, bezweifel ich mal. Wenn, dann wäre es sicherlich mit Infineon verschwunden.
Umd ob TI oder IBM da noch eine haben?
[/QUOTE]
Lizenzen, gibt es bestimmt noch einige, aber mit den heutigen x86, werden sie wenig zu tun haben, noch mit Erweiterungen von AMD ( AMD64).
Viele hatten ihre Chance, nur AMD hat sie genutzt. Bei ARM doch auch nicht anders. Intel/ Siemens/ AMD und noch viele mehr, hatten ARM CPU's. Man hat lieber alles verkauft, oder eingestampft, anstatt in die Zukunft zu schauen. 🤷🤦
Man sägt lieber am eigenen Ast, als in Innovationen zu investieren. Infenioen gehörte zu Siemens. Sie wurden abgestoßen, nicht weil sie miese machen, sondern nur weil der Gewinn zu mager war. Z.B. und so geht es gerade weiter.....
Siemens hatte genug Geld, Intel auch, bei AMD kann ich den Verkauf noch gut verstehen, mit der GPU an Qualcomm. ATI, war teuer und mit allem, die Kassen leer. Aber Profit, hat nur AMD mit dem Verkauf gemacht. Sie haben sich gesund gestoßen und neue Kraft getankt. Siemens, ist für Konsumer uninteressant und Intel ist mit ihren Atom in eine Sackgasse gerannt.
 
@Draco Nobilis
Kurze Anmerkung.
Auf MacOS gibt es anders als bei IOS keinen AppStore Zwang und die Gewinnbeteiligung im AppStore sind 12%
 
ETI1120 schrieb:
Bis in die 70iger war es üblich Systeme aus Standardbausteinen aufzubauen.
Du hast andere 70ger erlebt als ich. In meinen 70ern war jeder Baustein sein eigener Standard und wurde jeder mittels Anwälten bis in die Steinzeit zurück gebombt der es wagte den eigenen Standard nachzubauen.
 
Sternengucker80 schrieb:
Lizenzen, gibt es bestimmt noch einige, aber mit den heutigen x86, werden sie wenig zu tun haben, noch mit Erweiterungen von AMD ( AMD64).
Meines Wissens Haben nur noch Intel und AMD die volle Lizenz. Via hattz eine über Centaur. Aber die hat Intel von Via gekauft
Sternengucker80 schrieb:
Bei ARM doch auch nicht anders. Intel/ Siemens/ AMD und noch viele mehr, hatten ARM CPU's.
Dir ist schon klar dass die meisten Arm CPUs in SoCs und ASICs integriert sind und dass oft nach außen die Arm CPU gar nicht in Erscheinung tritt?

Arm CPUs in SoCs zu verkaufen ist ein hartes Geschäft. Auch in Wachstumsmärkten. AMD hat als Nebelkerze so um 2011 verkündet auch Mobil Phone SoCs anzubieten. Aber das war nur als Beruhigungspille angesichts des Bulldozer Desasters.
Sternengucker80 schrieb:
Man hat lieber alles verkauft, oder eingestampft, anstatt in die Zukunft zu schauen. 🤷🤦
Siemens kam sehr spät zu den Halbleitern und hat rückblickend betrachtet völlig unnötig im Halbleiterspeicher Geschäft mitmischen wollen. Anstatt sich auf Logik zu konzentrieren. Nachdem sie eine Fabrik in Manchester nach einem halben Jahr schließen müssten, ist die Begeisterung für Halbleiter merklich abgekühlt. Die Fabrik wurde im falschen Moment in Betrieb genommen. Bald fiel die Entscheidung die Halbleiter Aktivitäten als Infineon auzugruenden. Das große Risiko waren die RAMs. Der Schweinezyklus brachte abwechselnd tolle Gewinne und horrende Verluste.
Siemens hatte in den 90igern den gewaltigen Fehler gemacht das konkursreife Nixdorf zu kaufen. Richtig wäre gewesen Nixdorf Konkurs gehen zu lassen und die funktionierenden Teile aus der Konkursmasse zu kaufen. Somit war über Nacht aus der gewinnbringenden Computersparte ein notorischer Verlustbringer geworden.
Sternengucker80 schrieb:
Man sägt lieber am eigenen Ast, als in Innovationen zu investieren. Infenioen gehörte zu Siemens. Sie wurden abgestoßen, nicht weil sie miese machen, sondern nur weil der Gewinn zu mager war.
Das Risiko wurde Siemens zu hoch.
Infineon hat übrigens die Halbleiterspeicher als Qimonda ausgegruendet aber leider zum falschen Zeitpunkt. Als der nächste Tiefpunkt im Schweinezyklus kam ging Qimonda als erstem das Geld aus.
Sternengucker80 schrieb:
Z.B. und so geht es gerade weiter.....Siemens hatte genug Geld, Intel auch, bei AMD kann ich den Verkauf noch gut verstehen, mit der GPU an Qualcomm.
ATI war ein Gemischtwarenladen. Die waren noch dabei ihre eigenen Zukäufe zu verdauen als sie von AMD gekauft wurden.
Als sowohl die CPU und die GPU im Hintertreffen waren und gleichzeitig Höhe Zinszahlungen anstanden, ging AMD das Geld aus. also würde alles Verkauft was nicht zu Kerngeschäft gehört.
Sternengucker80 schrieb:
ATI, war teuer und mit allem, die Kassen leer. Aber Profit, hat nur AMD mit dem Verkauf gemacht. Sie haben sich gesund gestoßen und neue Kraft getankt.
AMD hat sich über die Runden gerettet weil Lisa Du und Mark Papermaster mit dem Versprechen auf Zen Geld bei Investoren eingesammelt haben. Es war eine ganz enge Kiste.
Gäbe es tatsächlich so viele X86-Lizenzen hätte es nicht funktioniert.
Sternengucker80 schrieb:
Siemens, ist für Konsumer uninteressant
Das war Siemens schon immer. Die Haushaltsgerätesparte würde von Bosch geführt.
Sternengucker80 schrieb:
und Intel ist mit ihren Atom in eine Sackgasse gerannt.
Intel hat nach 2010 sehr viele Leute verloren. Als 2015 die Probleme mit der Fertigung akut wurden hat die Firmenleitung zugeschaut.

Auf der Architekturseite glaubte sich Intel wohl uneinholbar in Front. Wahrscheinlich haben sie sich eingeredet wenn wir es nicht hinkriegen schafft es niemand. Es fing auch das Gerede von Moore's Law is Dead an. Wahrscheinlich war es die Ausrede die von der Firmenleitung akzeptiert wurde. Ein Ingenieur an der Spitze hätte dies nicht akzeptiert. Aber einem Kaufmann könnte man es weismachen.

Erst mit Golden Cove hat Intel wieder einen deutlichen Schritt nach vorne gemacht.

War um die Atom Schuld sein sollen ist mir unklar.

Und Siemens mischt übrigens ganz Dicke im Halbleitergeschäft mit. Sie haben Mentor Graphics gekauft einen der großen EDA Anbieter.

Es kommt übrigens nicht von ungefähr, daß heute fast alle Halbleiter Hersteller fabless sind.
Ergänzung ()

Nore Ply schrieb:
Du hast andere 70ger erlebt als ich. In meinen 70ern war jeder Baustein sein eigener Standard und wurde jeder mittels Anwälten bis in die Steinzeit zurück gebombt der es wagte den eigenen Standard nachzubauen.
OK Standard ist nicht das richtige Wort. Es waren Schaltkreise die die Logik Funktionen implementiert haben. Aber deshalb war Second Source auch so wichtig. Wenn es den Hersteller zerlegt hat, und niemand einspringen konnte, müsste das Design eingestampft werden.
 
Zuletzt bearbeitet:
Siemens, hätte als großer deutscher Hersteller mitmischen können, aber sie haben einfach alles vergeigt! Da braucht heute keiner rumheulen, das alles nur aus dem Ausland kommt.
Wir hatten alle Möglichkeiten, aber wie immer alles versammelt. Jetzt sollen Zich Steuergelder verschwendet werden, die. Dummheit unserer Industrie wieder gerade zu biegen. Wir Erfinden (z.B. mp3) andere stoßen sich damit gesund ( Apple) 🤦
 
Zuletzt bearbeitet:
Zurück
Oben