Test MacBook Pro 14" mit M1 Pro im Test: Apples High-End-Notebook führt die Windows-Welt vor

Matthias80 schrieb:
In den Spezialfällen ohne Frage MEGA und Effizient!
aber für die meisten ein überteuertes Spielzeug.
Ohne die Worte mega und effizient trifft das hier auf 99% der PCs in den Signaturen zu.

Da werden hunderte Watt verschleudert um ein paar bunte Bilder zu erzeugen. Überteuertes Spielzeug.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
Apple liefert hier tolle hard und software die aber nicht für jedermann ist.
Gutes Beispiel.. Wir arbeiten in der Schule mit MySQL Datenbanken und nutzen dafür die MySQL Workbench.
Diese gibt es nicht für MacOS und lässt sich auf Windows 10/11 unter Parallels aufgrund Prozessorinkompatiblität nicht installieren.
Deswegen muss ich hier auf ein Windows Gerät ausweichen oder enorme Leistungseinbußen in Kauf nehmen indem ich Windows unter QEMU installiere und das System von Grund auf per X86 emulation virtualisieren.
Dann hab ich am ende ein Pentium 3 Gerät dass Windows 10 im Schneckentempo emuliert...

Habe nach Alternativen für MacOS gesucht aber nichts brauchbares gefunden.
 
Zuletzt bearbeitet:
foo_1337 schrieb:
Nö. RAM und "HDD" können ausgetauscht werden wenn man unbedingt möchte. Schwierig wird eher die Beschaffung von Neuteilen ;) Praktisch wird das aber niemand machen weil das außer ein paar Nörglern in Foren, die sich sowieso nie einen Mac kaufen würden, niemanden interessiert.


Wenn man den Kram durch Billigkomponenten ersetzt, vielleicht. Oder auch dann nicht. Die Dell XPS, die bei uns die Windows User nutzen sind kaum günstiger in der Beschaffung. Der Support Aufwand ist dafür deutlich höher. Alleine durch das, was aufgrund den M$ Printer Spooler Fail an Arbeitszeit verloren ging, hätte man bei uns schon unzählige Macbooks kaufen können ;)

Es geht ja nicht nur um den finanziellen Aspekt. Solche "Verschleissteil" Komponenten zu verlöten (also Teile die statistisch häufig und nach vergleichsweise kurzer Zeit defekt sind) ist einfach eine beispiellose Umweltsünde und heutzutage nicht mehr zu vertreten, vor allem wenn man bedenkt, dass die restlichen Bauteile wohl Jahrzehnte durchhalten (und auch dann die meisten Anwender nicht mehr Leistung brauchen werden als ein M1 heutzutage bietet). Von dem Aspekt der Profesionalität mal ganz abgesehen (wo es wichtig ist, dass man in bestimmten Situationen schnell weiterarbeiten kann und auch der Aspekt des Datenverlustes bei einer verlöteten SSD). Und bitte nicht mit dem Totschlagargument "Backups" kommen. Klar ist das korrekt und wichtig, aber ich kenne viele ITler die das nichtmal in ihrem privaten Szenario hinbekommen, der Durchschnittsuser wird das also in der Regel nicht machen. Für diesen User bedeutet der Ausfall des Computers eben sehr häufig Datenverlust.

psyabit schrieb:
Danke für den Test, elegantes Stück CPU bzw MacBook. Mimimimi ich hasse Apple und deswegen können Ihre Produkte nicht gut sein. Die Kommentare sind zum Teil goldig.

Ja, zum Teil sind sie das. Aber einige davon können Apples M1 mit Fakten entzaubern und zeigen, dass Apple auch nur mit Wasser kocht und das alles auch problemlos mit x86 möglich ist. Intel hat sich einfach zu lange auf seinen Lorbeeren ausgeruht und das hat sich Apple nicht bieten lassen.

LOLO_85 schrieb:
Bei der Effizienz der CPU kann der Unterschied ARM zu X86 geklärt sein. Aber wieso ist auch die GPU AMD und Nvidia so dermassen überlegen was die Effizienz angeht? Man schaue den Verbrauch beim Spielen im Vergleich. Appel hat ja nicht auch eine komplett andere Architektur. Alle Drei arbeiten mit Unified Shaders.

Eben nicht. Einfach nochmal diverse Beiträge im Thread durchlesen oder am besten den gestern erschienenen Artikel zum M1 Max auf Golem lesen. Dort wird mit fundiertem Fachwissen Apples M1 bis aufs Detail analyisert und entzaubert.



@Tommy Hewitt
Das ist doch nicht wirklich dein Ernst mit dem verlöteten RAM? Ist doch wohl klar, dass die RAM Bausteine auf einem SO-Dimm und der NAND-Flash auf einer M.2 SSD auch verlöteten sind. Nur sind das halt modulare Trägerplatinen die man einfach schnell tauschen kann! Ich verstehe also überhaupt nicht was du damit aussagen willst. Ist wie bei einem Auto wo man die Räder tauschen kann, ohne das komplette Auto wegschmeissen zu müssen.
 
Zuletzt bearbeitet:
@Tommy Hewitt hast vollkommen recht. Es war schon spät.. shame on me :)

Fleischmann schrieb:
Es geht ja nicht nur um den finanziellen Aspekt. Solche "Verschleissteil" Komponenten zu verlöten (also Teile die statistisch häufig und nach vergleichsweise kurzer Zeit defekt sind) ist einfach eine beispiellose Umweltsünde und heutzutage nicht mehr zu vertreten, vor allem wenn man bedenkt, dass die restlichen Bauteile wohl Jahrzehnte durchhalten (und auch dann die meisten Anwender nicht mehr Leistung brauchen werden als ein M1 heutzutage bietet).
Ich hab 3 ausgemusterte iMacs hier stehen. Alle wurden nie upgegraded, sind 10 Jahre alt. Jetzt lohnt sich die Nummer auch nicht mehr. Und das ist die Regel und nicht die Ausnahme. Somit lächel ich halt eher immer über dieses "Argument". Und wie gesagt: Bei Apple läuft das so: Reicht dir die Leistung nicht mehr, verkaufst du zu einem guten Preis und kaufst dir was neues. Wer das nicht will/akzeptiert, muss wo anders kaufen. Früher oder später wird das aber im Laptop Markt überall so sein. Mit dem Unterschied, dass die Gebrauchtpreise der Konkurrenz nie hoch bleiben werden ;)
 
  • Gefällt mir
Reaktionen: Protogonos und Tommy Hewitt
Irgendwie finde ich es schade, dass diese beeindruckende Produktvorstellung direkt zu einem 'Kleinkrieg' pro/contra Apple führt.

Es ist ein sehr tolles Stück Technik, welches da in den Markt kommt.
Punkt !
 
  • Gefällt mir
Reaktionen: JasonLee, tomasvittek, Delirus und 2 andere
Fleischmann schrieb:
Das ist doch nicht wirklich dein Ernst mit dem verlöteten RAM? Ist doch wohl klar, dass die RAM Bausteine auf einem SO-Dimm und der NAND-Flash auf einer M.2 SSD auch verlöteten sind.
Doch, das ist mein Ernst. Dann zeig mir doch mal die SO-DIMMs mit LPDDR4X 😶
Fleischmann schrieb:
Ich verstehe also überhaupt nicht was du damit aussagen willst.
Merkt man kaum 👀

Stichwort heißt Signalintegrität.
 
  • Gefällt mir
Reaktionen: Protogonos und foo_1337
hamju63 schrieb:
Irgendwie finde ich es schade, dass diese beeindruckende Produktvorstellung direkt zu einem 'Kleinkrieg' pro/contra Apple führt.

Es ist ein sehr tolles Stück Technik, welches da in den Markt kommt.
Punkt !

Ist kein Kleinkrieg, sondern eine angeregte fachliche Diskussion, die so auch geführt werden muss. Denn Apples M1 hat das Potenzial den technisch interessierten Leser mit seiner scheinbaren Überlegenheit zu blenden (merkt man selbst häufig in "Testberichten") obwohl bei genauerer Betrachtung der M1 eigentlich gar nichts anders macht als sich, ohne Rücksicht auf die Kostenb, bei den besten bestehenden Technologien auf dem Markt zu bedienen.
 
Fleischmann schrieb:
obwohl bei genauerer Betrachtung der M1 eigentlich gar nichts anders macht als sich, ohne Rücksicht auf die Kostenb, bei den besten bestehenden Technologien auf dem Markt zu bedienen.
Find diese Relativierungen aber auch immer köstlich.

"Jaaaaa, also wenn wir viel mehr Geld reinstecken würden und andere Technologien benutzen würden und allgemein alles anders machen würden, dann wären wir auch konkurrenzfähig"

So hat halt noch nie jemand etwas verkauft 😅 Fakt ist halt, Apple nutzt diesen technologischen Vorsprung jetzt, nicht irgendwann mal.
 
  • Gefällt mir
Reaktionen: Sirhaubinger, tomasvittek, FrAGgi und 7 andere
downforze schrieb:
Und interessant, dass du wissen willst, wer hier eh kein Applegerät kaufen würde - was du de facto nicht weißt. Hängt nur am Preis.
Sag ich doch: Du nörgelst an diversen Dingen rum, würdest aber aus einem ganz anderen Grund ohnehin nicht kaufen.
 
MR2007 schrieb:
Auch in dem Bereich ist das Hauptarbeitsgerät immer noch ein Desktop PC/Mac, die wenigsten davon werden diese Leistung zusätzlich noch unterwegs brauchen.
Die Frage ist weniger das unterwegs brauchen (obwohl auch das durchaus vorkommt), als den Komfort von nur einem Gerät zu haben. Selbst mit aller Synchronisation & co. ist es umständlicher, zwischen zwei Geräten zu wechseln, als einfach den Laptop vom Dock zu nehmen und los zu gehen.

Und in Zeiten von Home-Office und co. hat man halt auch den Desktop nicht immer dabei. Remote-Desktop ist für vieles gut, keine Frage, aber bei sowas wie Videobearbeitung hörts dann doch irgendwann auf - Latenz, Kompressionsartefakte, ungenaue Farben usw. sind da hinderlich. Einfach die ganze Leistung mitnehmen zu können ist auf jeden Fall ein Vorteil.

Maeximus schrieb:
Anscheinend nutzen Entwickler recht häufig Macbooks.
Nutzen sie dabei das native MacOs oder arbeiten sie doch eher mit Emulatoren?
Solange man jetzt nicht gerade für den Windows-Desktop oder Industrieroboter entwickelt, ist man mit dem Unixoiden MacOS deutlich näher an der Produktions-Umgebung (für gewöhnlich Linux Server) als mit einem Windows PC.

Dazu geht der Trend eh dahin, immer weniger lokal zu kompilieren und mehr in die CI / Development-Container wie GitPod zu schieben. Am Ende des Tages braucht man dann nur ein System, das lautlos im Hintergrund läuft.

iSight2TheBlind schrieb:
Deshalb muss man bei der Nutzung von FaceID auf dem iPhone auch zweimal die Seitentaste betätigen, denn nur so ist sichergestellt, dass eine App nicht ohne Benutzerwillen die Authentifizierung anstößt, den Benutzer damit überrumpelt und so Rechte erhält die ihr der Benutzer nicht gegeben hätte oder ein Zahlungsvorgang erlaubt wird.
Ich muss nur bei Zahlungen die Seitentaste drücken. Alles andere, was mit FaceID geschützt ist (Banking App z.B.) scannt einfach sofort das Gesicht und fertig.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind, Protogonos und foo_1337
-Daniel- schrieb:
Das Apple-Produkt hat einen 70 Wh Akku und wiegt 1,6kg, hat aber SIEBEN STUNDEN weniger Laufzeit beim Streamen als das 1kg schwere, mit 66Wh Akku versehene Asus Expert Book (zugegebenermaßen mit geringerer Auflösung des Displays).
Ernsthaft? Wieso kommen denn immer so Äpfel-Birnen Vergleiche? Nimm doch einfach das passende Äquivalent - in diesem Fall das Macbook Air oder M1 Pro. Da hast du dann dennoch mehr CPU Power und eine höhere Auflösung.
 
  • Gefällt mir
Reaktionen: Darkseth88 und Protogonos
Tommy Hewitt schrieb:
Doch, das ist mein Ernst. Dann zeig mir doch mal die SO-DIMMs mit LPDDR4X 😶

Merkt man kaum 👀

Stichwort heißt Signalintegrität.

Ist schon klar, dass die Signalintegrität besser ist, je kürzer die Signalwege und je geringer der Widerstand durch weniger/keine Kontaktbrücken (Steckverbindungen). Hast du aber in deinem vorigen Kommentar auf das ich Stellung bezogen habe nichts davon geschrieben und darum ging es auch gar nicht in meiner Stellungnahme. Und die Signalintegrität wird bei modularem RAM einfach durch höhere Spannung erkauft (ist also bei LPDDR4X der mit niedriger Spannung gefahren wird nicht besser).

LPDDR4X gibt es nicht auf modularen Trägerplatinen. Aber m.E. überwiegen die Vorteile eines modularen RAM gegenüber der geringeren Spannung eines fest verlöteten.

Find diese Relativierungen aber auch immer köstlich.

"Jaaaaa, also wenn wir viel mehr Geld reinstecken würden und andere Technologien benutzen würden und allgemein alles anders machen würden, dann wären wir auch konkurrenzfähig"

So hat halt noch nie jemand etwas verkauft 😅 Fakt ist halt, Apple nutzt diesen technologischen Vorsprung jetzt, nicht irgendwann mal.

Dann hast du wohl einfach nicht verstanden worum es in der Diskussion eigentlich geht. Es geht nur oberflächlich darum zu zeigen, wer aktuell die bessere CPU abliefern kann. Aber eigentlich geht es darum festzustellen ob ARM fundamental besser ist als x86 bzw. Intel und AMD überholt sind. Und weitergehend ob ein Architektur-Wechsel auch in der Windows Welt Sinn macht oder nicht (und die Vorteile so groß wären, dass alle damit verbundenen Nachteile (Verlust der Kompatibilität und Kontinuität von x86) zu verschmerzen sind).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Autokiller677
foo_1337 schrieb:
Ernsthaft? Wieso kommen denn immer so Äpfel-Birnen Vergleiche? Nimm doch einfach das passende Äquivalent - in diesem Fall das Macbook Air oder M1 Pro. Da hast du dann dennoch mehr CPU Power und eine höhere Auflösung.
Wenn du mir sagst wie ich diese Geräte in den Chart bekomme, werde ich gerne einen Blick auf diese Daten werfen. (ernsthaft!)
 
Ich warte noch auf meinen 16" :( Laut Apple Store App ist es der 26.11 bis 03.12. Da noch kein Versand rausging gehe ich eher von nächster Woche aus als die Woche. Na ja der 13" tut es noch auch wenn er wirklich Teilweise am schreien ist für die leichtesten Aufgaben.

Ich finde auch der HDMI und SD Port ok. Warum 2.1 verbauen wenn das Teil zu 99% nur an Beamer oder TVs mit 720p oder 1080p dran kommt? Dazu kommt für ne Präsi geht auch 4k30/24. Bei der SD-Karte das gleiche ich bin nach wie vor auf SD unterwegs mit meiner 6D.
 
-Daniel- schrieb:
Wenn du mir sagst wie ich diese Geräte in den Chart bekomme, werde ich gerne einen Blick auf diese Daten werfen. (ernsthaft!)
Da die beiden genannten bei CB nicht getestet wurden, musst du auf z.B. notebookcheck ausweichen
 
Edit: ach, was will man da noch erklären... Daher mal auskommentiert bzw. kann gelöscht werden. Ich sollte manche Kommentare echt absichtlich überlesen.
 
LOLO_85 schrieb:
Bei der Effizienz der CPU kann der Unterschied ARM zu X86 geklärt sein. Aber wieso ist auch die GPU AMD und Nvidia so dermassen überlegen was die Effizienz angeht?
Bei der GPU Effizienz ließe sich auch bei AMD und NVidia auf recht einfachem Weg noch viel rausholen. Das geht dann aber auf Kosten der Leistung und damit dem Preis/Leistungs Verhältnis. AMD zeigte das ja mal mit der Fury Nano. Aber auch selber kann man die Effizienz deutlich steigern wenn man den Karten ein engeres Powerlimit gibt oder direkt runtertaktet und undervoltet. Aber man verliert halt Leistung. Apple wird das wohl egal gewesen sein, deren Geräte sind eh schon teuer genug, da stört es nicht wenn der Chip für die gebotene Leistung teurer wird weil er größer ausfällt.
 
flaphoschi schrieb:
Apple bietet Laptops die eintausend oder zweitausend Euro über den Laptops von Lenovo oder Dell liegen an.
Komisch nur, dass bei solchen haarsträubenden Behauptungen nie eine gleichwertige Ausstattungsvariante dieses mysteriösen 2k€ billigeren Gerätes verlinkt wird.

Oder auch: gibt's eben nicht. Die High-End Geräte von Lenovo, Dell und HP mit guten Displays und co. sind in ähnlichen Preisklassen unterwegs.

flaphoschi schrieb:
Das ist keine Machtdemonstration. Eine Machtdemonstration wäre, wenn mit gleichen Aufwand deutlich bessere Ergebnisse erzielt werden. Wurden sie nicht. Keine gute Tastatur, keinen TrackPoint, keine Linuxzertifizierung, kein Dockingstation und der finanzielle Aufwand ist exorbitant.
Lügen und Cherry-Picking at it's best.
Tastatur wird (seit man den Butterfly-Schrott wieder verbannt hat) in fast allen Reviews als gut bis sehr gut bezeichnet.
Ja, kein TrackPoint (den aber - und das sage ich als Thinkpad Nutzer und TrackPoint Fan - die meisten Leute eh nicht wollen / nutzen, kenne viele Kollegen, die zwar einen haben, den aber noch nie angefasst haben), dafür seit Jahren das beste Trackpad in irgendeinem Laptop.
Linuxzertifizierung? Jo, wie der Trackpoint, nur für eine winzige Nische relevant.
Dockingstation? Jedes beliebige USB-C oder Thunderbolt-Dock. Im ggs. zu irgendwelchem proprietären Kram von anderen Herstellern ist das also sogar ein Vorteil - man hat eine gute Auswahl.

Der Test hier - und auch die meisten anderen - ist halt nicht "was ist der beste Laptop für eingefleischte TrackPoint Fans, die Linux nutzen wollen".

flaphoschi schrieb:
Hier ein hinkender Vergleich, eine überteuerte Luxusversion gegen ein verlässliches Arbeitsgerät:
Die Conorde war viel schneller als die 747! Das Beste vom Besten, First Class mit exklusives Essen.
Die 747 fliegt heute noch. Die andere nicht.
Das die Nachfrage nicht reichte, deshalb hat sich das Angebot dann nicht tragen können. Bei Apple reicht die Nachfrage aber offenbar, um diese Laptops zu produzieren.
Also was soll uns der Vergleich jetzt sagen? Wenn es zu wenig Kunden gibt, verschwindet ein Produkt? Würde mit MacBooks genauso passieren, wenn das der Fall ist.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind, Helge01, Protogonos und 3 andere
Das letzte Mal als ich sowas schrieb landete mein Post im Mülleimer... aber hier muss ich es nochmal loswerden:
  1. "thermonukleare Zerstörung"
  2. "Machtdemonstration sondergleichen"
  3. die Konkurrenz "nicht ansatzweise Paroli bieten können"
Willkommen bei ComputerAppleBase! Dass all diese Lobhudeleien nonsense sind, sollte hoffentlich jedem klar sein.
 
  • Gefällt mir
Reaktionen: PHuV, flaphoschi, Mark3Dfx und eine weitere Person
Fleischmann schrieb:
Dann hast du wohl einfach nicht verstanden worum es in der Diskussion eigentlich geht. Es geht nur oberflächlich darum zu zeigen, wer aktuell die bessere CPU abliefern kann. Aber eigentlich geht es darum festzustellen ob ARM fundamental besser ist als x86 bzw. Intel und AMD überholt sind. Und weitergehend ob ein Architektur-Wechsel auch in der Windows Welt Sinn macht oder nicht (und die Vorteile so groß wären, dass alle damit verbundenen Nachteile (Verlust der Kompatibilität und Kontinuität von x86) zu verschmerzen sind).
Das ist aber dann eine völlig andere Diskussion als dieser Test hier führt. Hier geht es um die Bewertung heute verfügbarer Produkte für den Leser und potentiellen Kunden.

Nicht um tiefgreifende technische Analysen, was grundsätzlich technologisch möglich ist.
 
Zurück
Oben