Test MacBook Pro 14" mit M1 Pro im Test: Apples High-End-Notebook führt die Windows-Welt vor

Wiesi21 schrieb:
Also S3 erfüllt diese Ansprüche in keinster Weise, weil man bestimmte Daten schon aufgrund von Auflagen/Zertifizierungsvorgaben nicht in der Public Cloud speichern kann und sollte.
Ich dachte mir irgendwie schon, dass du nicht gelesen hast, was ich geschrieben habe. Das MinIO Cluster läuft onprem und stellt den S3 Storage zur Verfügung. Ich habe nie von AWS S3 oder GCS gesprochen.
Wieso sollte ich MinIO nutzen wollen, wenn ich eh z.B. bei AWS bin? Gut, früher hat man das bei GCS als Gateway gebrauchen können, wenn die App nur S3 gesprochen hat. Aber dann definitiv nicht in GKE, außer die Workload läuft da eh schon.

Wiesi21 schrieb:
Wenn es um IT Security geht haben deine modernen Unternehmen übrigens viel mit den von dir genannten traditionellen Produktionsunternehmen gemein. Sie wird oft sträflich vernachlässigt.
Wir können uns gerne darüber weiter unterhalten, aber dann besser in einem separaten Thread, denn hier ist es massiv off topic. Wieso habe ich wohl die dämliche printer spooler Lücke, die sinnlos unzählige Arbeitsstunden gekostet hat, hier erwähnt in Bezug auf die operativen Kosten von Windows? Klar, die meisten Unternehmen werden das ignoriert haben, weil ist ja wichtiger, dass die Mitarbeiter drucken können und es schon nicht soo schlimm sein wird ;) So wie vor einigen Monaten mit der miesen Exchange Lücke. Oldschool Software halt... Klar, bei den hipster Sachen gibt es auch immer wieder Lücken. Aber die werden wenigstens schnell und nachhaltig gefixt. Meistens jedenfalls.
 
Zuletzt bearbeitet von einem Moderator:
Ich finde das Gerät ist einfach zu teuer dafür dass es nicht modular aufgebaut ist.

Man kann nicht einfach Tausende von Euros jetzt schon ins Blaue heinein für einen möglicherweise in der Zukunft erforderlichen Speicherbedarf investieren, nur weil das Gerät alles fest verlötet hat.

Zudem wird Speicherkapazität auch weiterhin immer preiswerter werden, so dass man sich jetzt am besten nur am wirklichen Bedarf orientiert.

Aber genau das kann man mit dem Schrott Design von Apple, bei dem alles fest verlötet ist, nicht.
Wenn die Kiste nicht mehr reicht, neu kaufen. Ja "schönen Dank". Und so etwas wird von der "F(l)achpresse" hochgejubelt. Super nachhaltig, auch hierfür "vielen Dank".
 
Ich kann das Gejammere teilweise nicht nachvollziehen. Mir ist das Ding zu teuer, Apple unsympathisch, und trotzdem freue ich mich, daß Apple hier so ein Erfolg gelungen ist (wenn man die übermäßige Lobhudelei im Artikel man übersieht). Warum? Sie haben prima gezeigt, was möglich ist, und das ist schon ein großes Lob wert, und stößt den bisherigen Platzhirschen wie Intel, AMD und auch Nvidia hoffentlich gescheit vor den Kopf.

Mal ehrlich, die x86 Architektur ist bis heute ein Moloch und ein träger Monolit (Little Endian, ich hasse es bis heute). Früher gabs mehr viel Vielfalt. Die 68000er Architektur war damals schon besser als das, was Intel damals mit 80186 (ja, den gabs wirklich) bis 80386 geliefert hatte. Es gab SPARC, es gab PA-Risc, Mips, DEC Alpha... alles verschwunden, und bis auf PowerPC kaum mehr am Markt präsent. Und da kommt Acorn mit dem Archimedes, macht daraus einen guten RISC-Prozessor, der heute als ARM den mobilen Markt beherrscht.

Eine PC Firma wie Apple konstruiert innerhalb weniger Jahren einen einen Chip, der vieles besser macht, und das ist schon was wert. Noch mehr GPU-Power, etwas mehr Tensorqualitäten, und das Ding wird die nächsten Jahren einfach rocken.

Endlich wieder mal Bewegung im Markt, und ich hoffe, daß sich dann die anderen davon auch mal eine Scheibe abschneiden, und endlich mal wieder versuchen Performance pro Watt zu erhöhen, und nicht umgekehrt wie bisher, mehr Watt mehr Performance.

Daher, danke Apple, daß Ihr gezeigt habt, daß auch stromsparender mehr Leistung möglich ist.
 
  • Gefällt mir
Reaktionen: tomasvittek, iSight2TheBlind, M@tze und 4 andere
Erste Geekbench Leaks deuten an, dass der kommende Alder Lake i9-12900HK den Apple M1 Max sowohl in Single-, als auch Multithreadingleistung übertreffen wird. Wenn auch bei anzunehmender Weise etwas höherer TDP. Wobei sich letzteres dadurch erklärt, dass Intel 7 bzw. 10 nm++ eine geringere Packdichte besitzt, als TSMCs 5 nm Prozess.

Apple hat primär den Frühstarter-Vorteil bei der modernsten Fertigungstechnik. Aber dabei handelt es sich wie es aussieht nur um wenige Monate vor der Konkurrenz.
 
Wiesi21 schrieb:
Im Gegensatz dazu hat Windows mit WSL2 die meisten Hürden für mich beseitigt
Ernstgemeinte Frage: Wie hast du das IO-Performance-Problem gelöst? Wir haben hier noch einige Entwickler die sich sträuben was anderes als Windows zu benutzen, aber riesige Probleme mit Datenzugriffen zwischen Host und Guest haben*. Die Performance im vergleich zu einer reinen VM (also IDE und LAMP in einem System) oder gar bare metal ist um den Faktor 100 niedriger (keine Übertreibung). Da könnte wir auch wieder Vagrant nehmen.

Ich weiß das sieht auf den ersten Blick wie Offtopic aus, aber dieser Punkt ist genau der Aspekt unter dem ich mich jetzt für MacOS entschieden habe.

*Folgende Szenarien tauchen hier auf:
Webserver auf WSL, IDE und Browser auf Win10 => Serverrequests können wir teilweise in Sekunden und nicht in ms messen. Webpack-Performance um den Faktor 10-50 schlechter als bare metal oder Insel-VM.

MacOS ist hier halt wirklich best of both worlds. Und die Tatsache, dass der M1 so extrem Effizient ist, ermöglichen den Einsatz von nur einem Gerät für mobile und stationäre Einsätze. Diese Performance bei gleichzeitiger Mobilität kenne ich von keinem Windowsgerät.
 
  • Gefällt mir
Reaktionen: foo_1337
TigerNationDE schrieb:
Kommt wohl auf den nutzen an. Also wenn du biel Videoschnitt oder Rendering machst, ujd bisher kein M1 hast lohnt es sich wahrscheinlich auf jedenfall. Für mal gelegentlich wohl eher nicht. Aber darum heissen die Dinger ja auch PRO :D Aus genau dem Grund denk ich über ein Air M1 nach ^^ Da ich es höchstens gelegentlich nutze, mich die Leistung in Kombination mit der Akkulaufzeit aber gerne von meinem aktuellen Win10 Intel Lappy wechseln lässt
Ich selber habe das MacBook Pro 16 M1 Max in der maximalen Ausstattung außer SSD nur ein Terabyte. Das Gerät ist gerade für produktives Arbeiten und Videoschnitt perfekt. Für Rendering ist es ungeeignet dafür nutzt man heutzutage Grafikkarten. Da muss dann also wieder ein Gerät mit Rtx Power her (Optix)

@Exorbitantist
Das glaube ich erst wenn ich es sehe, kann ich mir nicht vorstellen. Zumal das größte beim M1 Max die GPU mit 32 kernen ausmacht.
 
Apple mit deren NB und Desktops sind für alternde, glaubensmüde ITler und insbesondere für die “Normalos“ einfach das beste Paket.

Das nun auch beim Chip Design neue Maßstäbe aufgestellt werden, wundert mich nicht.
 
  • Gefällt mir
Reaktionen: jotecklen
"Der Konzern hat so etwas wie ein Perpetuum mobile geschaffen, ein Gerät, das es nach den Gesetzen der Physik eigentlich nicht geben dürfte."
Der vergleich ist schon ziemlich hart. Also hart ins Klo gegriffen. Ich bin nicht sicher wo das problem lag aber unter Berücksichtigung von Architektur (also dem Gesamtkonstrukt vom Kern bis zum RAM) und des Fertigungsprozesses... ist das überhyptes Geschwafel.
 
  • Gefällt mir
Reaktionen: Fliz und Boimler
foo_1337 schrieb:
Ich dachte mir irgendwie schon, dass du nicht gelesen hast, was ich geschrieben habe. Das MinIO Cluster läuft onprem und stellt den S3 Storage zur Verfügung. Ich habe nie von AWS S3 oder GCS gesprochen.
Wieso sollte ich MinIO nutzen wollen, wenn ich eh z.B. bei AWS bin? Gut, früher hat man das bei GCS als Gateway gebrauchen können, wenn die App nur S3 gesprochen hat. Aber dann definitiv nicht in GKE, außer die Workload läuft da eh schon.


Wir können uns gerne darüber weiter unterhalten, aber dann besser in einem separaten Thread, denn hier ist es massiv off topic. Wieso habe ich wohl die dämliche printer spooler Lücke, die sinnlos unzählige Arbeitsstunden gekostet hat, hier erwähnt in Bezug auf die operativen Kosten von Windows? Klar, die meisten Unternehmen werden das ignoriert haben, weil ist ja wichtiger, dass die Mitarbeiter drucken können und es schon nicht soo schlimm sein wird ;) So wie vor einigen Monaten mit der miesen Exchange Lücke. Oldschool Software halt... Klar, bei den hipster Sachen gibt es auch immer wieder Lücken. Aber die werden wenigstens schnell und nachhaltig gefixt. Meistens jedenfalls.
Ich bin neugierig was für eine Software das ist, kann aber zustimmen das es Software gibt die eben nur S3 akzeptiert. Ist Minio eigentlich voll „AWS“ S3 kompatibel? Läuft das Ganze stabil? Die Fragen sind ernst gemeint da ich Minio gesehen hatte und es ganz ok fand, es gibt nämlich auch proprietäre S3 Implementierungen 😂
Es gibt tatsächlich Unternehmen die „den neuen Scheiß“ einsetzen und damit sogar ihre Richtlinien erfüllen (on-prem zumindest) und dabei eine deutlich zackigere Schlagzahl an Deployments hinbekommen.
Gerade z.B. k8s mit standardisierten(!) APIs, CRDs, Operatoren etc. ist meilenweit besser als der alte Kram. Ich bin jetzt kein Verfechter von S3 und nicht dagegen, aber ich kenne noch Veritas, Unity, TSM und das ganze halbgare undokumentierte Kackzeug. CSI ist ein Segen gegen das Zeug.
Und wenn ein Dev in k8s sein Volume erweitert indem er ein yaml anpasst oder in der GUI klickt und sich selbstständig Snapshots anlegen kann ist das mitunter ein deutlicher Mehrwert zu früher (oder halt heute 😝) gleiches Spiel auf Linux mit z.B. LVM: Ist toll, aber der Endanwender der wirklich mit einem System arbeiten möchte weiß nicht mal eben aus dem FF wie man ein Volume und das FS erweitert. Beim „neuen Zeug“ geht das einfach so😊
Man kann tolle Technologie auch schlecht und falsch benutzen, aber Regelwerke als Argument gegen neue Technik herzunehmen machen sehr viele 😜
 
Zuletzt bearbeitet:
KurzGedacht schrieb:
Nimm den AMD PS5 Chip, auf Zen3 und 4-8 Kerne dazu, bau den in 5nm, achtfacher Cache, vierfaches Speicherinterface und verdopple die GPU Größe (was alles einfach nur teurer ist, nicht wirklich schwerer) und du bist ungefähr da wo der M1 Max ist.
Der M1 Max hat jetzt schon etwa die selbe TFLOPS Leistung wie eine PS5, wobei das wohl eher auf die GPU gehen soll? CPU ist auch nicht langsamer.
Ein M1 Max verbraucht aber <100w unter voller Last (oder knapp über 100w beim 16" waren es glaub), während eine PS5 heute schon bei Spiderman z.B. um die 200w verbraucht. Wenn man die GPU Größe verdoppelt, werden sicherlich 300-350w daraus, und die restlichen Dinge kosten auch strom.

Rein von der technischen/theoretischen Gaming Leistung ist man aktuell schon da, wo der M1 max ist, braucht dafür aber mehr als doppelt so viel Strom.

mscn schrieb:
Spaß beiseite: 70% einer 3070 bei 115W TDP sind immernoch mehr als das, was aus einem MBP kommt (sofern die GPU Leistung relevant für die Arbeit ist).
Da war es anders rum gemeint ;)
Nicht 70% sind noch da. 70% von der ganzen Leistung sind im Akkubetrieb dann weg.
Wobei ich hier zugegeben, schon unterschiedliche Werte gesehen habe, je nach Notebook. Mal waren noch 40% der Leistung übrig, mal weniger als 10%.

Aber mal hier. Verglichen mit einem Thinkpad X1 Extreme G4 und einer 105~w (oder knapp unter 100w, sagt er irgendwo im Video) RTX 3080. Hier testet er nicht im Akku, aber das Macbook gewinnt ziemlich deutlich.

Interessanter wird es hier. Eine RTX 3080 mit 165w TDP ist doch ein guter Kandidat.
Die 32 Core GPU vom M1 Max, die 65w verbraucht, kann es beim Zocken dann doch nicht mit einer 165w RTX 3080 aufnehmen, das überrascht sicher keinen ;)
Der M1 Max bleibt weiterhin auf seinen etwa 92 fps.
Die RTX 3080 fällt von 137 fps auf 29 fps, und wird im Game vom Macbook vernichtet.
Während diesem Benchmark hat das Gaming Notebook 8% Akku verloren, obwohl die RTX so stark gedrosselt war. Das Macbook hat nur 2% Akku verloren.

Und das mit einem Arm auf dem Rücken: Das Game läuft nämlich aktuell nur über Rosetta2, wodurch das ein oder andere dutzend % Leistung schon mal pauschal verloren geht.
Mit meinem M1 und Cinebench R23 hab ich 33% Leistungsverlust durrch Rosetta gemessen (7714 nativ, 5147 rosetta). Umgekehrter Dreisatz: +49% Leistung, wenn man von Rosetta auf nativ geht.
Aus 92 fps würden also 138 fps ergeben. Etwa der Wert, wie bei einer 165w RTX 3080.
Eine Spannbreite kann man sich ja selbst dazu denken, selbst wenn der M1 Max 20% langsamer wäre hier, ist das schon sehr gut.


Leider kein richtiges Game, sondern nur GFX Bench hier. Aber im Akkubetrieb fällt die Leistung um mehr als 90%. Ein M1 Max hat hier 10 mal so viele fps.


Das ganze dürfte beim Rendern mit der GPU auch nicht anders sein.


Dieser Leistungsverlust im Akkubetrieb ist leider weder eine Ausnahme, noch ein kleiner Verlust.

M@tze schrieb:
Das bisher Einzige, was mir wirklich fehlt, ist die Geste unter Windows dass ich ein Fenster oben anfasse und nach links oder rechts an den Rand ziehe und sich das Fenster dann automatisch auf 50% des Bildschirms aufteilt. Geht unter macOS nur mit Einschränkungen über ein Menü, was wesentlich umständlicher ist. Oder hat da jemand einen Tipp (App oder so)?
Einen Tipp hast du ja schon bekommen, ich würde aber mal Tiles in den Raum werfen.
Kostenlos, und kann genau das (eben ausprobiert). Wahlweise übers dropdown menü oder Shortcuts kann man die Anwendungen auch direkt in die jeweilige Form bringen. Da gibt's auch deutlich mehr Auswahl als nur 50% links/rechts.
Ist auch schon nativ für M1 zu haben.
 
  • Gefällt mir
Reaktionen: tomasvittek, iSight2TheBlind und M@tze
DavidMay schrieb:
Auch wenn die Software natürlich immer auf die neuen Prozessoren angepasst werden muss und damit nicht alle Nischensoftware diesen riesen Performancesprung macht, frage ich mich:

Was wollen Intel und AMD dem bitte entgegensetzen?

So eine Deklassierung der Platzhirsche ist für diese mehr als peinlich mit dem ganzen Know-how was diese besitzen sollten.
Finde ich eigentlich garnicht, daß die Platzhirsche deklassiert werden.
Die Platzhirsche haben Rohleistung, Apple hat auf die Software abgestimmte Hardware, muss sich nicht mit diversen Chipsätzen rumschlagen..
Ich glaube kaum, daß bei den Preisen sich die Platzhirsche Sorgen machen müssen, demnächst von Apple auf die Liste der bedrohten Hersteller gedrückt zu werden.
Sicherlich, ein schönes Stück Technik hat Apple da gezaubert, aber auch für mich schweineteuer und ich bräuchte es auch nicht.
Für Profis, die es benötigen, ok, für Normalso wie mich, die ein bißchen noch am Laptop surfen und Mailen, da reicht auch viel, viel weniger.
 
halbtuer2 schrieb:
Für Profis, die es benötigen, ok, für Normalso wie mich, die ein bißchen noch am Laptop surfen und Mailen, da reicht auch viel, viel weniger.

Deshalb gibt es ja auch im Apple-Universum das MacBook Air im mobilen und den MacMini im Desktop-Segment. Du kaufst dir eben das was du brauchst/willst und/oder dein Geldbeutel hergibt, egal ob "Windows/Linux", oder "Mac"-Welt.
 
  • Gefällt mir
Reaktionen: M@tze und Cool Master
crispychips schrieb:
Aber genau das kann man mit dem Schrott Design von Apple, bei dem alles fest verlötet ist, nicht.

Das hat in diesem Fall ja damit zu tun, dass die jeweiligen M1-Chips (je nach Ausbaustufe) offenbar gar nicht mehr Speicher ansprechen können. Man könnte also gar nicht mehr nachrüsten, selbst wenn die Speicherchips als gesockelte Module (mit entsprechend schlechteren Signallaufzeiten usw.) umgesetzt wären.

Jetzt kann man natürlich argumentieren, dass das eine schlechte Designentscheidung in den M1-Chips ist. Allerdings finde ich es etwas vermessen, wenn Laien wie wir den Chipdesigner von Apple solche Vorwürfe machen, die gerade die ersten ARM-CPUs abgeliefert haben, die aktuelle High-End-x86er der selben Kategorie in der Pfeife rauchen.

Natürlich bringt so hohe Integration und in diesem Fall wahrscheinlich extreme Optimierung der Speicherperformance Nachteile mit sich. Man verliert unter anderem Flexibilität.
Für manche mag der Kompromiss deswegen schlecht ausfallen und die müssen dann halt zu etwas anderem greifen. Aber für andere werden diese neuen Macbook Pro so ziemlich genau das sein, was sie sich wünschen, bzw. überwiegen die Vorteile klar die Nachteile.

Ich bin wirklich kein Apple-Fan und würde aus verschiedenen Gründen keinen Mac nutzen wollen, aber diese technisch beeindruckenden Notebooks/CPUs als Schrott zu bezeichnen, kann ich nicht nachvollziehen.
 
  • Gefällt mir
Reaktionen: Haggis, iSight2TheBlind, Col.Maybourne und 5 andere
Bin ja gespannt was nächstes Jahr um die Zeit hier los ist wenn Apple die Desktops also iMac pro und Mac Pro mit den neuen Chips ausgestattet hat.
Dann werden viele einsehen müssen, dass X86 beerdigt gehört und hochintegrierte System oder SOC die Zukunft sind wenn man die Ultimative Performance mit geringem Verbrauch haben will.
Außerdem hoffe ich sehr, dass Triple A Game Entwickler ein natives Apple MXX Spiel entwickeln - damit mal gezeigt wird was geht.
 
Darkseth88 schrieb:
Rein von der technischen/theoretischen Gaming Leistung ist man aktuell schon da, wo der M1 max ist, braucht dafür aber mehr als doppelt so viel Strom.
Was, wie schon erwähnt, im wesentlichen an zwei Dingen liegt.
1) Neuere Fertigung.
2) Deutlich breitere Architektur (=größerer Chip) bei viel viel geringerer Taktung.

Schau dir an was passiert wenn man Ryzen Mobil Chips auf 45w hart begrenzt. Die Dinger werden bisher einfach weit überm sweet Spot betrieben um mehr Leistung rauszuholen. Apple tut das nicht, deswegen der Effizienzvorteil.
 
Haben die M1 Prozessoren eine Art TurboBoost ? Das habe ich garnicht mitbekommen, oder nirgends explizit dranstehen sehen. Also zumindest gibt es ja für das 16Zoll MacBook Pro mit M1 Max so eine Art Perfomance Modus, aber ka was er genau im Detail macht.
 
Boa-P schrieb:
ich kann dir da nur Raycast wärmstens empfehlen.

Falc410 schrieb:
Bettersnaptool - kostet aber ein Euro oder so.

Darkseth88 schrieb:
Einen Tipp hast du ja schon bekommen, ich würde aber mal Tiles in den Raum werfen.

Danke Euch erstmal, @JammyL hatte mir ja Rectangleapp empfohlen und die App hatte ich auch gleich installiert und bin erstmal zufrieden, werde mir aber bei Gelegenheit noch Eure Vorschläge anschauen. :)

Soviel auch nochmal an die "Meckerer", dass man bei macOS ja immer auf den Apple Playstore angewiesen wäre...

janknet schrieb:
Außerdem hoffe ich sehr, dass Triple A Game Entwickler ein natives Apple MXX Spiel entwickeln - damit mal gezeigt wird was geht.

Ja, das wäre wirklich mal cool. Wenn Apple daran Interesse hätte, könnten die das selber mal in Auftrag geben um die Leistungsfähigkeit der Plattform zu zeigen, wenn die Software entsprechend darauf angepasst ist.
 
  • Gefällt mir
Reaktionen: Boa-P und Kalsarikännit
SV3N schrieb:
Man kann ja gerne sowohl Apple und macOS als auch ARM allesamt gleichzeitig ablehnen, aber es gibt doch auch unter Windows kein einziges Profi-Notebook mit vergleichbarer Leistung zu einem günstigeren Preis.

Sollte man als Redakteur nicht bei der Wahrheit bleiben?

Notebooks mit Ryzen 5900hx liefern vergleichbare Leistung, werden aber schon für etwas über 1000 € angeboten.

Ist die Frage, wie du "Profi-Notebook" definierst ;)
 
OK zeig mal das Notebook welches für 1000.- eine Vergleichbare Austattung hat wie ein MBP!
Damit meine ich ähnliches Display, SSD, Tasta, Trackpad....
 
  • Gefällt mir
Reaktionen: SVΞN
spinthemaster schrieb:
Notebooks mit Ryzen 5900hx liefern vergleichbare Leistung, werden aber schon für etwas über 1000 € angeboten.
Was ein professionelles Werkzeug (also ein "Profi-Notebook") leistet, definiert sich nicht nur an der reinen CPU-Leistung. Vielmehr geht es hier auch um die Leistung der GPU, wo die iGPU des 5900 HX gegenüber dem M1 Pro und erst recht des M1 Max kein Land sieht, der Akkulaufzeit (da wir ja von einer mobilen Workstation sprechen), dem Display, der Auflösung, dem Farbraum, der SSD- und Arbeitsgeschwindigkeit ...

Es gibt aktuell weder ein 1.000-, 2.000- noch 3.000-Euro-Notebook mit Windows, das als professionelles Werkzeug in der Liga des kleinsten MacBook Pro mit 14" und M1 Pro spielt. Nicht einmal ansatzweise, leider.

Selbstverständlich müssen dazu die Rahmenbedingungen stimmen und man muss mit macOS und der dafür verfügbaren Software zurecht kommen.

Was aber die Leistung betrifft, da ist ein 1.000-Euro-Notebook mit 5900 HX überhaupt kein Vergleich, selbst wenn man Display, SSD, Eingabegeräte usw. außen vor lässt.

Ein vollausgestattetes Lenovo ThinkPad P15 G2 für 5.000 Euro+ ist in etwa das, was man gegen ein MacBook Pro 16" mit M1 Max und 32 GB stellen würde und damit relativiert sich der Preis direkt wieder.

Professionelle mobile Workstation haben schon immer zwischen 2.500 und 5.000 Euro gekostet und zu DM-Zeiten mit bis zu 10.000 DM zu Buche geschlagen. Das MacBook Pro ist für das was es leistet sogar noch recht human eingepreist.
 
  • Gefällt mir
Reaktionen: srz54, Plumpsklo, tomasvittek und 10 andere
Zurück
Oben