News Mac Pro: Apple plant M2 mit 48 CPU- und 152 GPU-Kernen

Für dem Preis den Apple aufruft kann ich vermutlich ein ganzes Rack ausstatten.
 
kiffmet schrieb:
In nicht-produktiv-Szenarien war die Grafikleistung von Apples Grafikeinheiten bis jetzt eher mau...
Es ist ein Mac Pro. Für was anderes als produktiv-Szenarien sollte der benutzt werden?
 
  • Gefällt mir
Reaktionen: hurcos, Shoryuken94 und nciht
Stellt sich so ein bisschen wie Frage wieviel von der GPU dann am Ende eben auch ankommt, ich meine, M1 Ultra hat sehr viele GPU cores aber wird halt z.B. in Blender von ner 3060 aber mal um das doppelte an Leistung übertroffen.
Und wir kennen ja die Einstiegs und Update-Preise von Apple, ich meine, wenn wir dann bei 6-8k liegen und nicht mal annähern die Performance einer 3060 erreicht wird, dann kann am Ende nur die CPU Power überzeugen.
Die ist aber für Renderings halt meistens eher zu vernachlässigen, auch alle Dinge welche über die Decoder gerendert werden können wahrscheinlich nicht von mehr CPU-Power profitieren.
Gefühlt ist es daher schon fast irrelevant ob man sich nen Pro oder nen Ultra holt, in Sachen CPU/Power/Effizienz sind die Pros ja schon für 90% aller Tasks overpowered und es wird eben nicht so gut skaliert bisher mit steigendem Core-Count.
Klar kann man dann immernoch auf mehr CPU Kerne setzen um einen signifikanten Boost zu kriegen, nur eben selten so viel wie der Core Count steigt.

Ich war kurz davor mir das Mac Studio zu holen, mit Upgrades(Apple hätte also sogar noch gut verdient), die 3D Rendering performance hat mich dann aber sehr stark von abgehalten, ich möchte schon eine Maschine für alles, Musik, Fotos, Rendering, Video, Gaming(wenn es überhaupt für moderne Tripple A Titel möglich wäre) usw.
M-Macs checken viele Boxen aber eben nicht alle und 3090 oder 4090 Niveau kostet als Workstationgesamtpaket eben auch noch mal 4-8k je nach Konfiguration.
Da macht es schon fast eher Sinn jeweils 4k zu investieren bzw. Es macht eben nen Mac Pro und nen M-Ultra SOC schon fast obsolet, da eben du keine Leistung für 6-8K kriegst.
Das ist halt fast wie bei den Intel Macs, nur dass dort der Bottleneck die CPU war, jetzt ist es die GPU und jeweils finde ich es dann overpriced.

Von daher können sie ja die Core-Counts sowohl bei GPU und CPU erhöhen, es muss halt auch ankommen.
Apple hat ein bisschen Glück das mich Zen4(ich also lieber auf AMDs BigLittle warte) nicht so überzeugt und ich schon wenn dann ne AMD/nVidia Workstation möchte, daher bin ich schon gespannt ob Apple diese Gap im kommenden Jahr schließen kann, es muss ja nicht 4090 Niveau sein, für 6-8k erwarte ich aber schon wenigstens 3090 Niveau in Sachen 3D Rendering Performance, weil bei CPU Power/Effizienz kann ihnen eben derzeit kaum einer so richtig das Wasser reichen.
 
  • Gefällt mir
Reaktionen: 9t3ndo, Orim_70 und meisterkatzen
ridgero schrieb:
So eine Zufriedenheit hatte ich mit keinem Computer zuvor.
Hier ebenfalls volle Zustimmung. 14“ MacBook Pro M1 Max. Dient nicht nur als Laptop, sondern am Monitor auch als Desktop.
 
  • Gefällt mir
Reaktionen: Melchior und Kazuja
HanneloreHorst schrieb:
Stellt sich so ein bisschen wie Frage wieviel von der GPU dann am Ende eben auch ankommt,

Die Frage stellt sich eher, ob die Modularität und Erweiterbarkeit über PCI Express beibehalten wird. Denn wenn es weiter PCI Express gibt, dann ist die Apple GPU eben nur die Wahl in der Basiskonfiguration und kann bei bedarf durch weitere Alternativen ergänzt werden.

SSD960 schrieb:
Für dem Preis den Apple aufruft kann ich vermutlich ein ganzes Rack ausstatten.

Kommt drauf an, was du ins Rack packen möchtest und ob deine Arbeit davon wirklich profitiert. Die meisten Mac Anwender, die wirklich viel Leistung brauchen, nutzen auch die auf MacOS angepasste Software. Denn da liegt eher der Vorteil, nicht in der Hardware.
 
Tommy Hewitt schrieb:
War glaub ich noch nie so happy wie mit dem 16" M1
Ich wusste ja dass der SoC riesig ist, aber 16" hätte ich nicht gedacht.....

🤪
 
  • Gefällt mir
Reaktionen: VandeKamp
Shoryuken94 schrieb:
Die Frage stellt sich eher, ob die Modularität und Erweiterbarkeit über PCI Express beibehalten wird. Denn wenn es weiter PCI Express gibt, dann ist die Apple GPU eben nur die Wahl in der Basiskonfiguration und kann bei bedarf durch weitere Alternativen ergänzt werden.
Wobei Apple ja nicht bekannt dafür ist seine Systeme zu öffnen.
Das heißt die Wahrscheinlichkeit dann ist ja eher eine AMD RDNA3 Grafikkarte einzusetzen (welche in Rendering ebenfalls noch deutlich hinter den nVidias hinter hinkt und erste DEV Tests haben wohl ergeben, das bisherige RDNA2 Karten nicht funktionieren, es gibt wohl schon DEV Units mit dem PCI Express Slot) oder eine eigene Grafikkarte genau dafür zu entwickeln, die dann aber 2-4k kostet.
Das würde aber z.B. für mich nur Sinn machen wenn die Basis Konfiguration 5-6k nicht übersteigt, weil sonst bin ich ja am Ende wieder bei 10k.
Dann kann man wie schon gesagt auch nen Mac Studio mit M1 Max holen oder nen MBP und holt sich dazu noch ne Workstation für 6k (und ordentlicher Kühlung) welche in Sachen 3D Performance eh Kreise um die Apple GPU drehen wird Und selbst wenn keine Kreise, wäre das fast in Summe alles noch ein Stück günstiger.

Ich bin ja bereit mich zu strecken für das Teil, bei mir steht es dann eben auch einige Jahre aber es muss halt schon trotzdem Sinn ergeben und verhältnismäßig sein.
Alles über 8k macht hier gar keinen Sinn in meinen Augen.
 
Ich finde es witzig, Apple hat den Schritt zu M1 ja unter Anderem auch damit begründet, dass Intel denen für ihre Produktreleasezyklen zu langsam ist…

… und nun bekommen sie für ihren MacPro keine CPU rechtzeitig fertig. 😅

Nachdem etwas Ernüchterung und Fortschritt im x86-Bereich eingetreten ist ist vom anfänglichen M1-Hype ja auch nicht mehr viel übergeblieben. Einerseits kam halt ein erheblicher Teil der beeindruckenden Effizienz von der Fertigung, andererseits schlägt sich der M1/M2 abseits hardwarebeschleunigter Anwendungsszenarien halt auch nur durchschnittlich.

Aber mal abwarten, Apple wird sich beim MacPro-M2 nicht lumpen lassen…
 
Photographil schrieb:
@sikarr
Schon klar. Ich gehe aber davon aus, dass auch diese Leute sich die Frage stellen werden, was sie brauchen. Der Mac Studio kostet 4000 Dollar mit dem Ultra Prozessor. Die Filmstudios werden sich sehr wohl die Frage stellen, ob es jetzt wirklich Sinn mach das 10 oder 20-fache auszugeben, wenn es auch quasi fast genauso gut mit dem Studio funktionieren sollte.

Und wenn da nur Hollywood Produktionen dahinter hängen, die sowas brauchen. Was für lächerliche Stückzahlen sind das dann? Sowas lohnt sich nicht zu entwickeln...

Es ist nicht nur Hollywood. Du unterschätzt den Aufwand fürs Postprocessing enorm.

Ein Mac Studio ist dafür nur sehr eingeschränkt sinnvoll und selbst der kolportierte M2 Extreme wird es erstmal zeigen müssen. Die bisherigen bis zu 1,5 TB RAM sind / werden nicht umsonst erwähnt. Das wird durchaus auch ausgebaut und dann entsprechend genutzt. Ein gleicher Rechner mit z.B. nur 128GB RAM würde dramatisch langsamer sein und wir reden hier nicht über ein paar %, sondern das x-fache an benötigter Zeit gegenüber 1+TB RAM.

Die reine Stückzahl wird nicht riesig sein (gerade im Vergleich zu z.B. Macbooks), aber Apple wird absurde Margen haben. Diese Rechner haben eine sehr kleine, sehr spezielle Zielgruppe, die aber selbst für sehr günstige 100.000 Euro / US Dollar die Dinger sofort kauft. Zeit ist Geld und wenn man in der gleichen Zeit z.B. doppelt so viel Content bearbeiten kann, sind z.B. 100.000 Euro lächerlich wenig.

Für den "Normalo" wie wir es in der Regel sind, sind die Geräte mehr oder weniger "sinnfrei". Wäre es nicht Apple, sondern HP, Lenovo oder sonstwer, es würde keiner merken und keiner würde großartig kommentieren ;)
 
  • Gefällt mir
Reaktionen: 9t3ndo, butchooka, Exfiltratior und eine weitere Person
Chesterfield schrieb:
aber mir gefallen die M1/2 sehr gut, vor allem die Effizienz
Endlich können Softwareentwickler bedenkenlos auf Electron setzen
 
  • Gefällt mir
Reaktionen: stevefrogs, flappes, meisterkatzen und eine weitere Person
Also nehmt es mir nicht übel, aber Apple hat sich wahrscheinlich mit den ganzen Bezeichnungen für die CPUs Pro, Max, Ultra, Ultra Fusion oder nunmehr Extreme keinen Gefallen getan. Ich erkenne da rein von den Bezeichnungen keine Steigerungen der Qualitäten (Superlative). Man erkennt hier sehr anschaulich, wie ein ursprünglich einfach erscheinendes Namensschema mit zunehmender Diversifikation aus dem Ruder läuft und aktuell wenig sinnvoll erscheint.
 
  • Gefällt mir
Reaktionen: HageBen, Kommando, liz02mo und 3 andere
sloven schrieb:
Scherz beiseite: Ich habe mich Mal bei einer Geburtstagsfeier mit einem Fotografen unterhalten. Der meinte, dass wenn er die Bilder nachbearbeitet, teilweise 1-2 h auf das Ergebnis warten muss.

Wenn er mit so einem Monster in 8 h die Arbeit einer gesamten Woche erledigen kann, heißt das: Mehr Aufträge, mehr Einnahmen und nach einem halben Jahr auch mehr Gewinn...
Milchmädchenrechnung. Er hat ja sicherlich nicht 2 Stunden Däumchen gedreht.

Und ja, natürich ist es gut, wenn die Wartezeiten verringert werden, aber das heißt nicht automatisch eine höhere Produktivität oder mehr Kunden.
 
  • Gefällt mir
Reaktionen: His.Instance
franeklevy schrieb:
Also nehmt es mir nicht übel, aber Apple hat sich wahrscheinlich mit den ganzen Bezeichnungen für die CPUs Pro, Max, Ultra, Ultra Fusion oder nunmehr Extreme keinen Gefallen getan. Ich erkenne da rein von den Bezeichnungen keine Steigerungen der Qualitäten (Superlative). Man erkennt hier sehr anschaulich, wie ein ursprünglich einfach erscheinendes Namensschema mit zunehmender Diversifikation aus dem Ruder läuft und aktuell wenig sinnvoll erscheint.

Schon "witzig", dass der Max ja dann in der Mitte des Produktportfolios ist :)
 
  • Gefällt mir
Reaktionen: Kommando und franeklevy
@franeklevy
Schon vergessen, dass alles was Apple herstellt, superlativ ist. SCNR ;)
Mal im Ernst, welcher Hersteller hat schon durchschaubare Artikelbezeichnung. Intel und AMD könnten in ihre Bezeichnungen auch irgendwie nachvollziehbar die Anzahl Kerne und/oder Taktfrequenzen einbauen. Das will aber kein Hersteller, dass man das ohne weitere Recherche durchschaut.
 
sikarr schrieb:
Filmstudios benutzten solche Machinen sehr gerne für ihre Postproduction usw. die können nie genug Leistung haben und sich das auch Leisten. Diese Maschinen sind nix für den Fotografen an der Ecke, das sind Geräte für Filmemacher ala Hollywood z.B..
Und genau da liegt das Problem, die wirklichen "Pros" benutzen da in der Regel eher wieder Adobe (Premiere, After Effects etc.), Autodesk und ähnliche Produkte, und da ist man wieder deutlich schneller mit einem Windows PC, entsprechenden dedizierten Grafikkarten und Workstation CPUs sowie skalierbaren RAM und SSD-Größen unterwegs.

Der einzige Verwendungszweck, den ich - Kompatibilitätsprobleme kommen hinzu - für die Apple Silicons zur Zeit sehe, sind Youtuber, die mit Final Cut rumhantieren, dafür reicht aber selbst der M1 aus 🤷‍♂️

Lass mich aber gern eines Besseren belehren.
 
k0ntr schrieb:
die ganzen designmemes nerven wirklich, das könnt ihr gerne auf tiktok oder facebook posten. was dieses teil anbietet ist im vergleich zur konkurrenz immens.
Echt, was bietet es was man wo anders nicht auch bekommt? Ist ja nicht so dass das hier Raketenwissenschaft wäre.
 
„Dies entspräche beim M2 Ultra einer Erweiterung um 4 Kerne gegenüber dem M1 Ultra, während der M2 Extreme wohl ein doppelter M2 Ultra werden wird. Für den M1 Ultra kombiniert Apple bereits zwei M1 Max mittels „UltraFusion“.“

Zu Geil die zitierte stelle😂 Jeder normale Mensch denkt, was stimmt mit denen nicht.

Also 2x M Max mittels Ultrafusion ergeben 1x M Ultra und 2x M Ultra ergeben 1x M Extreme wobei der M2 ultra davon um 4 Kerne erweitert ist gegenüber dem M1und dann der Extreme um? 8?

Platz nach hoben wäre ja noch mit „Hyper“, „Mega“ und „lächerliche Geschwindigkeit“
 
  • Gefällt mir
Reaktionen: His.Instance, Hydrogenium, Col. Jessep und 2 andere
Zurück
Oben