News Für MacBook, iPad & Vision Pro: Apples M5 soll erstmals gestapelt sein wie AMDs X3D-CPUs

9t3ndo schrieb:
Aber so lange Apple keine CPUs und Boards einzeln anbietet um mir damit einen eigenen Rechner bauen zu können, mit dem Betriebssystem meiner Wahl, bleibt das so uninteressant wie alle CPUs vorher von Apple.
Für dich vielleicht. Die M-CPUs sind (leider...?) so gut mobil, dass ich mir dafür sogar MacOS antue. Immerhin kein Windows, das wäre mir schwerer gefallen.

9t3ndo schrieb:
Glaube mein letztes mal Probleme mit Windows war mit XP. In 99% der Fälle ist sowieso der Anwender das Problem. Da ist es egal ob Windows, Linux oder MacOS auf der Kiste läuft.
Sobald es komplexer wird, finde ich Windows einfach nur sperrig. Als Gelegenheitsnutzer finde ich diesen Misch-Masch in der Systemsteuerung, der auch nichts mit meinen "Windows-Gewohnheiten" zu tun hat, richtig gruselig.

Headyus schrieb:
die CPUs für X86 sind wesentlich leistungsstärker und ich finde Windows nach wie vor wesentlich überlegen
Also mein neuerer Ryzen 6850U kompiliert nicht schneller als mein älterer M1. Dafür ist der Akku beim Ryzen deutlich schneller leer.

Headyus schrieb:
Arbeit, Windows und MS Office in 90% der Fälle in Unternehmen anzutreffen
Hängt von deiner Nische ab. Für Entwickler sieht's anders aus.

Headyus schrieb:
nein? natürlich nicht im Hipster Cafe in Berlin auf Akku, ja in Diesem Spezialfall sind die M CPUs besser
Gibt Leute, die generell viel unterwegs arbeiten, nicht bloß in Cafes. Gerade Selbstständige.
Oder Leute, die beruflich viel auf Achse sind (z. B. Manager für mehrere Standorte).

Firefly2023 schrieb:
Nö, die sind immer besser.
Natürlich wirst du irgendwo ein schnelleres x86-System ausgegraben bekommen oder einen Anwendungsfall finden, für den M-CPUs einfach nichts sind (Kompatibilität, GPUs usw).
Also nein, pauschal ist das Blödsinn. Dabei, dass die M-CPUs momentan bei Kosten-Nutzen-Rechnungen oft sehr gut dastehen, stimme ich dir zu.
 
  • Gefällt mir
Reaktionen: patison und dualcore_nooby
stefan92x schrieb:
Ich denke so simpel ist es nicht. AMD hat den Schritt zu Chiplets erfolgreich absolviert (Zen 2 war deutlich schnellerals Zen 1) und hat dann erfolgreich die Komplexität erhöht (Zen 3 X3D war für die Zielgruppe Gamer schneller als Zen 3).

Meteor Lake und auch Arrow Lake hingegen haben keinen Geschwindigkeitsgewinn gebracht, da kann man schon davon sprechen, dass Intel den Schritt verkackt hat. Ganz unabhängig vom Thema V-Cache
Wenn Intel Raptor Lake nicht gebracht hätte, sondern von Alder Lake auf Arrow Lake gewechselt wäre, so wäre der Arrow Lake auch schneller als Alder Lake und damit hätte es Intel dann nicht mehr verkakt?

Das Problem ist nicht, dass Arrow Lake im Chiplet-Design zu langsam ist, den der ist ähnlich schnell in Spielen, wie Zen5 non-X3D.
Das Problem ist tatsächlich nur, dass es keinen X3D/Adamanite von Arrow Lake gibt und ein Image-Prolem ist das Intel einen schnelleren monolitischen Vorgänger, der an der Kotzgrenze läuft noch hatte, was AMD einfach nicht hatte, weil AMD einfach direkt auf das chipletdesign gewechselt ist und nicht vorher das monolitische Design bis an die Grenze und knapp darüber hinaus (siehe unstabile Raptor Lakes) ausgereizt hat...


Ein weiteres Problem von Arrow Lake sind die Preise bzw. die Modellpolitik. Ein 265K kostet halt so viel wie ein Ryzen 9 9900X. Der 9900X ist ähnlich teuer und ähnlich schnell und damit scheint alles zu passen, aber der 9900X ist halt für Games ebenfalls uninteressant denn es gibt halt auch den günstigeren Ryzen 7 9700X mit gleicher Spieleperformance während Intel das nicht hat. (Der 245K ist weitere 5 Prozent langsamer in Spielen) Intel braucht einen 255K mit weniger E-Kernen, aber weiterhin mit 8P-Kernen (also eine Variante mit 8P+8E) zum Preis eines Ryzen 7 9700X oder wenn Intel so ein Modell nicht machen will, dann muss Intel den 265K günstiger verkaufen, also vom Preis her irgendwo zwischen 9700X und 9900X also unter 400 Euro
 
Zuletzt bearbeitet:
Convert schrieb:
Wenn Intel Raptor Lake nicht gebracht hätte, sondern von Alder Lake auf Arrow Lake gewechselt wäre, so wäre der Arrow Lake auch schneller als Alder Lake und damit hätte es Intel dann nicht mehr verkakt?
Stimmt. Denn das hätte bedeutet, dass Arrow Lake zwei Jahre früher gestartet wäre und für Ende 2022 wäre die Leistung ein guter Schritt voran gewesen.
 
Jack3ss schrieb:
ich habe vom M1 auf M4Pro gewechselt
es ist schon ein ordentlicher Sprung, aber man kann da ruhige 2-3 Generationen auslassen... so viel geht da (leider) nicht mehr weiter
Ich wage den Sprung auch bald... oder ich warte einfach bis mein M1 Mini den Geist aufgibt... :daumen:
 
pseudopseudonym schrieb:
Für dich vielleicht. Die M-CPUs sind (leider...?) so gut mobil, dass ich mir dafür sogar MacOS antue. Immerhin kein Windows, das wäre mir schwerer gefallen.
Naja MacOS und Windows nehmen sich in der Bedienung nicht mehr viel. Das Fenstermanagement ist bei MacOS etwas umständlicher aber ansonsten bedienen sich die beiden BS identisch.
Virtuelle Desktops setzen beide gleich gut/schlecht um. Genauso multiwindow mit Tabunterstützung rennen sie beide Linux hinterher.
MacOS ist eigentlich nur die Frage: Wie viele Kompromisse und Einschränkungen willst du eingehen um die M-Prozessoren zu nutzen? Und schränken sie dich in deiner täglichen Nutzung ein?
 
@Beteigeuze. Wenn ich mir angucke, wie weit meine Eltern jeweils mit einem i5-3320M (Q2 2012) kommen, obwohl diese schon damals nicht so aufregende CPUs waren, würde ich da nicht unbedingt gegen wetten.
 
  • Gefällt mir
Reaktionen: DrTimeWaste und Headyus
Immer wenn eine neue M-Generation rauskommt denke ich, die kannste getrost überspringen und bei der nächsten nochmal überlegen. Aber mein M1 Pro ist einfach noch zu gut und schnell. Mal schauen wie lange dieses Spiel noch geht. :)
 
pseudopseudonym schrieb:
@Beteigeuze. Wenn ich mir angucke, wie weit meine Eltern jeweils mit einem i5-3320M (Q2 2012) kommen, obwohl diese schon damals nicht so aufregende CPUs waren, würde ich da nicht unbedingt gegen wetten.
kann ich bestätigen, hab hier ein altes T430 mit nem i5 3xxx gerade zum "richten" liegen. als Mail und Surfmaschine einer Bekannten locker ausreichend.

Zum Thema: Schön wenn was weitergeht, die Sprünge werden halt auch in Abhängigkeit des Technolgienodes wie immer variieren.

zur obigen Diskussion bzgl MacOS vs Linux vs Windows: Das richtige Werkzeug für die richtige Anwendung. Das in dem Fall auch die Software mitdranhängt ist halt ein anderes Kapitel.
Aber man sollte (theoretisch) sowieso immer unvoreingenommen sowas angehen. Ich hab auch alle 3 Zuhause im Einsatz ;)
 
  • Gefällt mir
Reaktionen: Headyus
HanneloreHorst schrieb:
Wäre ganz spannend wenn man dadurch vielleicht auch den Spitzenwattverbrauch im MacBookPro bei nem M-Max Chip wieder von 85 Watt auf unter 55 Watt kriegt, gerne auch bei gleichbleibener Leistung.
Aber so wie sich die Gerüchte anhören versucht Apple wieder den Schlankheitswahn zu folgen und damit die Kühlung unmöglich zu machen und dann wird eh wieder die ganze Zeit am Tinitus(in Sachen Lüfterumdrehung)/Hitzetod genagt was APU angeht.
Generell bräuchten die M-Chips auch mal wieder nen gleichen Technologiebump, also im Grunde ist was sie liefern schon Peak bei der TDP zu Leistungsratio aber die Konkurrenz holt auf und dort kriegt man eben 5090 mit AI upscaling, mir wäre zwar für so Sachen wie Blender die Rohleistung wichtiger aber wie gesagt, nicht um jeden Watt Preis.
Fand natürlich den Bump vor allem in GPU performance von 20-30% in Spielen sogar teilweise 50% auch spannend mit der M4 Max GPU zu meinem M3 Max aber naja, der frisst nur max. 65 Watt auf alles, der M4 Max eben 85 Watt.
Da gerne mit allen möglichen Verfahren wieder ansetzen.
Wie spannend es wäre wenn die Rohleistung auch einfach endlich vollumfänglich ankommen würde.
So Sachen wie Blender Benchmark zeigen in 3D schon ganz gut was realistisch möglich wäre und wie die GPU trotz weniger Wattverbrauch stehen kann.
schafft der M4 Max überhaupt 60 FPS in 4K in Cyberpunk nach den ganzen 85% Upgrades?
Ergänzung ()

Firefly2023 schrieb:
Nö, die sind immer besser.
aha, wieder was gelernt? Wo denn? der M4 Max ist 30% langsamer als eine 4090. Wo ist er denn schneller? Im Youtube Videos erstellen? :D
 
pseudopseudonym schrieb:
Natürlich wirst du irgendwo ein schnelleres x86-System ausgegraben bekommen oder einen Anwendungsfall finden, für den M-CPUs einfach nichts sind (Kompatibilität, GPUs usw).
Also nein, pauschal ist das Blödsinn. Dabei, dass die M-CPUs momentan bei Kosten-Nutzen-Rechnungen oft sehr gut dastehen, stimme ich dir zu.
pseudopseudonym schrieb:
Hängt von deiner Nische ab. Für Entwickler sieht's anders aus
Windows hat soweit ich weiß immer noch über 75% Marktanteil, ich würde das jetzt nicht als Nische betrachten.
MacOS, das ist ne Nische.
Ergänzung ()

Firefly2023 schrieb:
Wer redet vom zocken? Ich nicht!
ja ich weiß, du redest natürlich vom gesellschaftlich relevanten Youtuber LiFe und Instram Van Life. Schon klar, da ist natürlich 10h Akkulaufzeit wirklich super wichtig. Die arbeitende Bevölkerung hat jedoch meistens eine Steckdose zur Hand. Ne 4090 rendert auch schneller in Blender etc.
Ergänzung ()

Firefly2023 schrieb:
Wer redet vom zocken? Ich nicht!
Künstler?
 
Zuletzt bearbeitet:
Headyus schrieb:
Windows hat soweit ich weiß immer noch über 75% Marktanteil, ich würde das jetzt nicht als Nische betrachten.
Ich meine deine Nische, nicht die des Betriebssystems.
Wenn ich in meine Nische gucke (Tech bzw Softwareentwicklung), sind das keine 75% mehr.
 
DocAimless schrieb:
sind das dann mal gut 300€ und mehr, die man für den längeren Balken bezahlt.
Hast du doch vs einen Mac schon beim Ram- oder SSD-Upgrade wieder drin. Nimmst du beides, hast du sogar noch Luft für noch mehr Stromverbrauch :P
Ergänzung ()

mercury schrieb:
als Mail und Surfmaschine einer Bekannten locker ausreichend.
Ich habe auch einen Bekannten, der mit einem 3350P noch Videoschnitt macht. Auf mein Anraten hat er letztes Jahr sich eine RTX Karte und eine SSD (Sata) eingebaut. Leute gibts..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Headyus und mercury
Geduld ist eine Tugend. Ich bin nicht immer tugendhaft ;)
 
Beteigeuze. schrieb:
habe bis vor kurzem (2023) noch einen Intel Mac 4 core genutzt für alles. Webbrowsing, Excel, Word und light video esiting braucht definitiv keinen Nasa Computer ;-)
 
Headyus schrieb:
schafft der M4 Max überhaupt 60 FPS in 4K in Cyberpunk nach den ganzen 85% Upgrades?
Ergänzung ()
Die Frage ist, muss er das?
Schon mal Cyberpunk auf 4k auf ner 4090 laufen lassen und die auf 65 Watt limitiert?(geht sowas drastisches?) Die 85 Watt sind ja für die ganze APU unter Volllast.
Oder schon mal den Stecker gezogen bei ner Mobile 4090 und geguckt wie viel noch rum kommt?
In Blender und das ja nicht nur nen Benchmark sondern ein 3D Renderer( also es wirkt sich aktiv in der Produktivität aus), wenn man da z.B. bei Notebooks mit 125-175 Watt 4070-4090 den Stecker zieht, dann landen sie immer hinter den M3 Max und M4 Max GPUs.

Sprich Apple zeigt schon, das sie auf dem Watt Verbrauch Level sehr viel raus holen können.
Ich meine Cyberpunk soll ja demnächst "relativ" nativ für Mac erscheinen, ich bin mir nicht sicher ob Cyberpunk in 4k mit allen Settings auf Ultra auf 60FPS kommt, ich kann mir aber vorstellen, das man auf der MBP Auflösung von 3,4k auf High definitiv auf 60 FPS kommen kann.

Tendenziell ist hier aber auch und das ist auch ein Teil der Wahrheit, das Potenzial noch mehr zu leisten.
Der Sprung von M3 auf M4 kam quasi fast nur über mehr Watt und Ghz, der Sprung von M4 auf M5 oder M6 sollte vor allem auch wieder durch neue Featuresets und verbesserte GPU Cores kommen.
Daran muss Apple in meinen Augen arbeiten.
Wieder unter 65 Watt für die ganze APU kommen und trotzdem eben mehr Leistung bieten.
 
HanneloreHorst schrieb:
Schon mal Cyberpunk auf 4k auf ner 4090 laufen lassen und die auf 65 Watt limitiert?(geht sowas drastisches?) Die 85 Watt sind ja für die ganze APU unter Volllast.
Oder schon mal den Stecker gezogen bei ner Mobile 4090 und geguckt wie viel noch rum kommt?
warum sollte ich? Warum sollte ich mich am Stromverbrauch so krass hoch ziehen und dafür alles andere wesentliche außer Acht lassen? Ich habe hier ein Messgerät und das zeigt mir folgendes im Idle an:
75W Desktop
29W Razer Notebook (5900HX)
9W Macbook Pro (m1 pro)

Und jedes mal stelle ich fest, es ist wirklich ganz toll, dass das Macbook so wenig zieht aber es kann halt auch wenig! Die paar Euro die das an Strom mehr kostet machts einfach nicht lohnenswert auf ein kastriertes OS zu wechseln mit Käfig. 29W sind ebenfalls wenig.
 
Headyus schrieb:
ich weiß, du redest natürlich vom gesellschaftlich relevanten Youtuber LiFe und Instram Van Life
Boah….echt ey! Ich ARBEITE damit und da kann jedes Notebook mit Intel oder AMD CPU einpacken! Wenn du keine Ahnung hast, besser nix schreiben, als hier andere doof anzumachen!

Du magst Apple nicht? Ok.
 
Zuletzt bearbeitet:
Firefly2023 schrieb:
Wer redet vom zocken? Ich nicht!
Deine Aussage "die sind immer besser" ist eine Pauachalaussage. Also sprichst du auch vom Zocken.
 
  • Gefällt mir
Reaktionen: Headyus
Zurück
Oben