foo_1337 schrieb:
Zum einen hat es Apple tatsächlich nicht nötig irgendwas quersubventionieren.
Nicht im klassischen Sinne, aber man käme sonst nie auf 60%+ Marge. Der wesentliche Baustein ist der Appstore mit 30% Mitnahme.
foo_1337 schrieb:
Und wieder mal wird vergessen, dass der Apple SoC mehr als nur eine CPU ist. Von der Effizienz reden wir erst gar nicht. Wieviel mm2 braucht denn ein Threadripper 5950x + Navi GPU + von AMD nicht vorhandene neural Engine so bei ähnlicher Leistung?
8x81mm² N7 (64c) + ein IO DIE von Globalfoundries 12nm, alles spotbillig.
Ein NVIDIA Samsung 8nm Die für Grafik ist ebenfalls billiger selbst mit AMD zusammen.
Dagegen ein Monolith in 5NM mit schlecht skalierenden IO und vom Yield wollen wir lieber nicht anfangen, sonst wird es wirklich sehr sehr traurig.
Es ist ökonomisch
absolut unmöglich das Apple mit Marge ein wettbewerbsfähiges Angebot zu AMD + Marge stellen kann.
Apple existiert bei Fertigung nicht im luftleeren Raum. Sondern ist von Mining über TSMCs Preise auch betroffen. Rechne die 5nm 400mm² DIEs einfach mal in Grafikkarten für a 2000€ Ende 2022 um. Dann kann man abschätzen was da Apple hinlegt.
foo_1337 schrieb:
Eine Adobe Software die offensichtlich nur einen Bruchteil der x86 Hardware nutzen kann vs. ein Perfekt genutztes Apple System. Klar. Sagt keiner das jemand der diese eine Software benutzt nicht Apple nehmen kann (wegen der anderen Vorzüge).
Real ist es aber Unsinn, da die Leistung des x86 mit der NVIDIA Karte unbeschreiblich viel höher liegt, denke das dürfte dir klar sein. Andernfalls ist es doch sehr merkwürdig das in der Top 500 keine Apple Server existieren...
foo_1337 schrieb:
ohnehin worauf du hinauswillst. Gaming. Ich habe dir im letzten Apple Thread schon gesagt, dass Apple User sowas nicht interessiert.
Raytracing ist im Rendering inzwischen in Echtzeit ganz normal mit NVIDIA beherrschbar.
Das Apple User das nicht nutzen, kennen oder interessiert ist sicher korrekt. Jedenfalls bis Apple es anbietet, dann wird es auf einmal relevant, während der Rest der Industrie es seit Jahren bereits nutzt. Also so wie immer.
Und ja, zum festhalten, der Apple ist nutzlos für Gaming. Ist auch ein Fakt. Immerhin wurden Grafikkarten über Jahrzehnte in Hauptsache durch Gaming-Geld weiterentwickelt (siehe NVIDIAs Quartalsberichte der Dekaden) und sind daher jetzt in der Lage auch viele andere Aufgaben zu übernehmen.
Will die Vorteile in Verarbeitung etc. von Apple nicht in Abrede stellen, vieles machen Sie ja richtig.
Aber eine technische Überlegenheit Apples sehe ich vgl. x86 nicht. Ich sehe das hier gigantisch viel Geld in die Hand genommen wird + einige gute Ideen (Race-to-Sleep + Memory an CPU), mehr nicht.
Im freien Markt ist dieses Silizium meiner Meinung aber nicht wettbewerbsfähig.
M@tze schrieb:
Btw, Nvidida braucht bei seinem GA100 mit 54 Mrd. Transistoren in 7 nm 826 mm²...
Danke das du mein Argument stützt. Der GA100 kostet eher 5 stellig denn 4 stellig.
Er ist mit 826mm² in N7 also mit 54MRd Transistoren bei ähnlicher Transistorzahl, was verdeutlich wie absurd der Sprung von N7 zu N5 ist.
Das N5 viel teurer ist als N7 ist klar.
Damit kann ich von ausgehen das der M1 Ultra mehrere (viele) Tausend $ in Fertigung von TSMC kostet.
M@tze schrieb:
AMD Rembrandt mit 8 Cores und 12 CUs vs. M1 Ultra mit 20 CPU Cores, 64 GPU Cores, 32 Neural Engine Cores + Die-to-Die-Interconnect?
Womit soll man es den Vergleichen dürfen?
Mit selben Preis an Hardware? Dann stellen wir einen 64c Ryzen dagegen.
Aber der Vergleich wäre wohl auch nicht ok.
Dann nehmen wir lieber einen gammeligen alten Intel Xeon 16c wie Apple?
EDIT:
Besser wäre vgl. mit einem PS5 SOC aber der ist auch in Uralt N7 und kostet quasi gar nichts.
Da kann man vom Geld >10 von bauen bevor man einen Apple M1 Ultra baut.