News Für MacBook, iPad & Vision Pro: Apples M5 soll erstmals gestapelt sein wie AMDs X3D-CPUs

jo89 schrieb:
Du bist offenbar nicht die Zielgruppe.
Ich bin inzwischen einfach nur froh, dass ich mir bei Apple so leistungsstarke Hardware kaufen kann, einstecke, und alles funktioniert wie ich es erwarte.
Und zwar ohne basteln und tüfteln. Dafür bin ich auch bereit mehr zu bezahlen.

Gaming hin oder her. An MacOS habe ich mich gewöhnt.
die CPUs für X86 sind wesentlich leistungsstärker und ich finde Windows nach wie vor wesentlich überlegen
Ergänzung ()

DocAimless schrieb:
Kann ich nur bestätigen, hab selbst vor knapp 3 Monaten mal den Sprung ins kalte Wasser zu einem Mac Mini M4 gewagt und muss gestehen die M Prozessoren sind schon geile Dinger. Da ich für spielen eh eine PS5 habe, fiel mir der "wechsel" weg von Windows hin zu MacOS doch leicht. Wenn man unvoreingenommen an so ein Gerät herangeht, so als würde man sich auch mit Linux beschäftigen ist das OS Mac gar nicht so schlecht. Für mich gibt es dann nur noch Mac & Linux als OS und Windows wird auf der Strecke bleiben.
bye, immer diese Missionare.., ja die M Chips sind nice, habe es auch probiert

aber:

#Software, habe ich Lust Jahre zu warten bis alles auf ARM läuft? Nein.
#Gaming, habe ich Lust auf alle Games verzichten zu müssen? Nein. Reicht ne PS5? nicht ganz
-> Gaming Rechner müsste also so oder so angeschafft werden -> Windows
#Arbeit, Windows und MS Office in 90% der Fälle in Unternehmen anzutreffen, ist es da von Vorteil mich Privat mit einem weiteren OS rumzuärgern? Nein
#Ultimate Leistung, nach wie vor wenn man den Stromverbrauch nicht so Ernst nimmt: X86
#Bang for the buch, konfigurier Dir mal einen Mac mit 4TB 64GB RAM, dass ist das was ich meine
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daivdon und Dr-Rossi-46
Headyus schrieb:
CPUs für X86 sind wesentlich leistungsstärker und ich finde Windows nach wie vor wesentlich überlegen
Das ist natürlich schon auch Quatsch, was du schreibst. Ein MacMini für 649 Euro zieht jeden Laptop ab.
 
  • Gefällt mir
Reaktionen: Protogonos, revocelot, Bhaal3010 und 2 andere
Headyus schrieb:
die CPUs für X86 sind wesentlich leistungsstärker und ich finde Windows nach wie vor wesentlich überlegen
Würde sagen, kommt immer darauf an, wofür man die CPU nutzt und was sie bewerkstelligen soll. Dazu kommt halt auch immer die Leistungsaufnahme. Wenn z.B. eine x86 CPU 20% schneller ist bei 100% mehr Leistungsaufnahme würde ich sagen wurde dieses schneller durch zu viel verbrauch erkauft siehe Intel.
Headyus schrieb:
Tschö mit ö.
 
@9t3ndo Könntest du die Switch Thematik kurz erklären ? Hab gegoogelt aber nix konkretes gefunden bezüglich Apple TV oder AndroidTV. Oder ein Link dazu ^^
 
DocAimless schrieb:
Würde sagen, kommt immer darauf an, wofür man die CPU nutzt und was sie bewerkstelligen soll. Dazu kommt halt auch immer die Leistungsaufnahme. Wenn z.B. eine x86 CPU 20% schneller ist bei 100% mehr Leistungsaufnahme würde ich sagen wurde dieses schneller durch zu viel verbrauch erkauft siehe Intel.

Tschö mit ö.
ist dann aber halt immernoch 20% schneller (wenns denn nur 20% sind), wenn ich mal eine Stromkostenüberschlagsrechnung mache, ist der Stromverbrauch nun wirklich nicht das entscheidende bei der Wahl der CPU, spielt mit rein aber mehr auch nicht, solang die keine 400Watt im Idle saufen ist der Unterschied ca. im Sub 10€ Bereich pro Monat
 
Headyus schrieb:
ca. im Sub 10€ Bereich pro Monat
Da eine CPU meist mehr als nur 1-2 Jahre in einem System verweilt, sind das dann mal gut 300€ und mehr, die man für den längeren Balken bezahlt. Kann jeder machen wie er will, aber deshalb die M Prozessoren als "schlecht" oder "Hipster Cafe" abzustempeln ist einfach keine Grundlage, auf der du aufbaust. Aber es gibt halt immer, welche dir ihr gekauftes/gebautes System als überlegen ansehen und anderes als schlecht.
 
  • Gefällt mir
Reaktionen: patison und Protogonos
9t3ndo schrieb:
Nett.
Aber so lange Apple keine CPUs und Boards einzeln anbietet um mir damit einen eigenen Rechner bauen zu können, mit dem Betriebssystem meiner Wahl, bleibt das so uninteressant wie alle CPUs vorher von Apple.

Die neue M CPU wird wie immer mit einem Schulterzucken zur Kenntnis genommen mit dem wissen: Ist wieder etwas schneller aber egal.
Apple hätte ja auch nen Nagel im Kopf, würden sie ihre eigene Hardware obsolet machen.
Für die Apple Geräte mit M Chips läuft es wirtschaftlich hervorragend.
Insofern juckt es die nicht das du das uninteressant findest.
 
9t3ndo schrieb:
Glaube mein letztes mal Probleme mit Windows war mit XP. In 99% der Fälle ist sowieso der Anwender das Problem. Da ist es egal ob Windows, Linux oder MacOS auf der Kiste läuft.
Mein letztes Problem mit Windows war gestern, vorgestern und die Tage davor. M$ lässt sich immer zum Glück immer genug einfallen, damit uns nicht die Arbeit ausgeht :)
 
  • Gefällt mir
Reaktionen: 9t3ndo
@Eternal und welche Probleme hatte man denn? Ich schließe mich 9t3ndo an, nämlich kaum bis keine Probleme mit Windows, die Zeiten sind sehr lange vorbei
 
  • Gefällt mir
Reaktionen: Renatius
stefan92x schrieb:
Ich denke so simpel ist es nicht. AMD hat den Schritt zu Chiplets erfolgreich absolviert (Zen 2 war deutlich schneller als Zen 1) und hat dann erfolgreich die Komplexität erhöht (Zen 3 X3D war für die Zielgruppe Gamer schneller als Zen 3).
AMD hat die Zen Linie auf stetigen Leistungszuwachs ausgelegt.
Die erste Generation 3D Cache war ja noch leicht gedrosselt, weil der Cache oben drauf war = Kühlungslimits.
Jetzt liegt er unten.

4nm wird seit Januar'25 auch bei TSMC Arizona mit ähnlicher Qualität zu Taiwan produziert,
Apple lässt dort drei 4nm Produkte fertigen.
AMD wartet da schon, dass Apple mehr Stückzahl zu N3E migriert.
Lt. Gerüchten soll ein 'AMD Ryzen 9000-series CPU' dort bald in 4nm gefertigt werden.
Zumindest die klassischen Zen 5 Chiplets in 4nm wird AMD ja noch lange fertigen, die Fab hat also Aufträge.
Auch das I/= Chiplet Zen 6 soll ja in 4nm / N4c kommen.

https://www.tomshardware.com/tech-i...nd-quality-reportedly-on-par-with-taiwan-fabs

stefan92x schrieb:
Im Gegensatz zu AMD wäre Adamantine schließlich ein L4 (würde also tendenziell weniger Gewinn bringen), während gleichzeitig die Cores von Intel weniger durch einen schlechten IOD ausgebremst werden dürften, was den Zugewinn auch nochmal beschränken dürfte.
L4 hätte das Design komplexer gemacht, der aufgebohrte L3 via 3D Cache bei AMD macht da schon mehr Sinn.
 
Ist doch jetzt schon unbezahlbar, also was soll da noch kommen? :D
 
Wäre ganz spannend wenn man dadurch vielleicht auch den Spitzenwattverbrauch im MacBookPro bei nem M-Max Chip wieder von 85 Watt auf unter 55 Watt kriegt, gerne auch bei gleichbleibener Leistung.
Aber so wie sich die Gerüchte anhören versucht Apple wieder den Schlankheitswahn zu folgen und damit die Kühlung unmöglich zu machen und dann wird eh wieder die ganze Zeit am Tinitus(in Sachen Lüfterumdrehung)/Hitzetod genagt was APU angeht.
Generell bräuchten die M-Chips auch mal wieder nen gleichen Technologiebump, also im Grunde ist was sie liefern schon Peak bei der TDP zu Leistungsratio aber die Konkurrenz holt auf und dort kriegt man eben 5090 mit AI upscaling, mir wäre zwar für so Sachen wie Blender die Rohleistung wichtiger aber wie gesagt, nicht um jeden Watt Preis.
Fand natürlich den Bump vor allem in GPU performance von 20-30% in Spielen sogar teilweise 50% auch spannend mit der M4 Max GPU zu meinem M3 Max aber naja, der frisst nur max. 65 Watt auf alles, der M4 Max eben 85 Watt.
Da gerne mit allen möglichen Verfahren wieder ansetzen.
Wie spannend es wäre wenn die Rohleistung auch einfach endlich vollumfänglich ankommen würde.
So Sachen wie Blender Benchmark zeigen in 3D schon ganz gut was realistisch möglich wäre und wie die GPU trotz weniger Wattverbrauch stehen kann.
 
Mika46 schrieb:
@9t3ndo Könntest du die Switch Thematik kurz erklären ? Hab gegoogelt aber nix konkretes gefunden bezüglich Apple TV oder AndroidTV. Oder ein Link dazu ^^
Die Shield TV Pro nutzt den Tegra aus der Switch. Man vermutet, das es bis jetzt kein Update der Shield TV Pro gab, weil nVidia nicht extra nur für einen Nachfolger einen Tegra auflegen wollte.
Gab hier und da auch Hinweise darauf, das der Switch 2 SoC in abgewandelter Form für eine Shield TV Pro 2 kommt.
 
stefan92x schrieb:
Ich denke so simpel ist es nicht. AMD hat den Schritt zu Chiplets erfolgreich absolviert (Zen 2 war deutlich schnellerals Zen 1) und hat dann erfolgreich die Komplexität erhöht (Zen 3 X3D war für die Zielgruppe Gamer schneller als Zen 3).
Soweit bin ich bei dir, wobei dabei allerdings noch anzumerken ist, dass Zen 2 auch noch den deutlich größeren Nodesprung hingelegt hat. (auch wenn Intel 7 hin zu N3B auch nach viel klingt ist es doch nicht so extrem wie GloFo14/12nm zu TSMC N7)
stefan92x schrieb:
Meteor Lake und auch Arrow Lake hingegen haben keinen Geschwindigkeitsgewinn gebracht, da kann man schon davon sprechen, dass Intel den Schritt verkackt hat. Ganz unabhängig vom Thema V-Cache
Sie haben halt einen krassen Effizienzfortschritt gebracht. Dadurch wurden sie überhaupt erst wieder zu konkurrenzfähigen Produkten. RaptorLake(Refresh) wurde von vielen ausschließlich durch die Desktopbrille gesehen und dadurch für manche noch zu einem tragbaren Produkt. Im mobilen Sektor war er das nicht.
stefan92x schrieb:
Ich wäre mir nicht so sicher, wie groß der Gewinn durch Adamantine überhaupt wäre. Im Gegensatz zu AMD wäre Adamantine schließlich ein L4 (würde also tendenziell weniger Gewinn bringen), während gleichzeitig die Cores von Intel weniger durch einen schlechten IOD ausgebremst werden dürften, was den Zugewinn auch nochmal beschränken dürfte.
Naja, man kann durchaus auch einen latenzarmen L4-Cache haben. Prinzipiell hat sich Intel ja ohnehin im Konzept ja nur darauf festgelegt, dass ihre Variante eben nicht die Ergänzung des internen Caches sein wird. Vielleicht kleistern sie im Gegenzug das ganze Basetile voll. Effektiv bringt das dann auch viel ein, denn schließlich geht es ja immer um eine Kombination von Latenz und Kapazität: Welche Kapazität kann man mit einer bestimmten Latenz bedienen?
stefan92x schrieb:
Was wiederum zeigt, dass es auch bei Apple sehr darauf ankommen wird, wie das ganze Design des Chips aussieht und wie die Chiplets geschnitten werden. Da kann man gute und schlechte Konzepte für haben.
Natürlich.
 
CDLABSRadonP... schrieb:
Soweit bin ich bei dir, wobei dabei allerdings noch anzumerken ist, dass Zen 2 auch noch den deutlich größeren Nodesprung hingelegt hat.
Das stimmt, aber andererseits nutzt AMD ein deutlich primitiveres Packaging und der dadurch nötige SerDes für den Infinity Fabric ist und bleibt ein übler Stromfresser. Das dürfte den größeren Node-Sprung durchaus noch etwas ausgleichen.
CDLABSRadonP... schrieb:
RaptorLake(Refresh) wurde von vielen ausschließlich durch die Desktopbrille gesehen und dadurch für manche noch zu einem tragbaren Produkt. Im mobilen Sektor war er das nicht.
Auch das ist richtig. Darum sprach ich auch explizit von "schneller". Außerdem haben wir ja Chiplet mit Chiplet verglichen, und da hat AMD halt nach wie vor mobil nichts relevantes mit Chiplet-Design (erst jetzt kommt Strix Halo).
 
  • Gefällt mir
Reaktionen: CDLABSRadonP...
Headyus schrieb:
die CPUs für X86 sind wesentlich leistungsstärker (...)
Nein. Aber auch umgekehrt wird kein Schuh draus, dass irgendwie ARM-CPUs magisch effizienter wären:

CDLABSRadonP... schrieb:
In dem Kontext kann auch nur immer wieder an AMDs Projekt K12 erinnert werden:
https://www.golem.de/news/jim-kelle...derweise-eingestellt-von-amd-2206-166280.html
Oder auf englisch:
During his time at AMD, Jim and his team noticed that the cache design for ARM and x86 CPU was mostly the same among other things such as the execution unit and the only difference between the two processor architectures was the decode unit so they decided to work on a new chip, known to us as K12 that was later canceled by AMD.

https://wccftech.com/legendary-chip...12-arm-cpu-project-after-he-left-the-company/

Effektiv heißt es, dass wir ARM-Ryzens hätten haben können. Ungewöhnlicherweise (es ist immerhin Jim Keller) stimme ihm dabei übrigens nicht zu, dass das ganze Dummheit war, sondern bloß auf einer Erkenntnis fußte: Während der Beschäftigung ist AMD halt zu der Erkenntnis gekommen, dass die beiden Varianten sich dann eben unterm Strich auch ziemlich ähnlich verhalten. Und wieso sollten sie dann noch eine ARM-Variante anbieten? Software (auch im Serverbereich) liegt ja auch für x86 problemlos vor.

Das ganze sieht anders aus, wenn sich die Softwarelandschaft von x86 wegbewegen würde. Vielleicht würde dann ein AMD hingehen und sagen: Ja, Zen7 kommt auch in einer ARM-Variante heraus.
Ich würde mittlerweile noch folgendes hinzufügen: Dass viele ihre eigenen ARM-Prozessoren herstellen liegt in erster Linie daran, dass sie das dann InHouse halten wollen und sich den Gewinn nicht mit Prozessordesignherstellern teilen wollen. Ab und an läuft das aber nicht so gut, wie sich in letzter Zeit immer wieder zeigt. Das wäre dann tatsächlich ein Moment, in dem AMD auf Tuchfühlung gehen könnte, ob jemand der großen Fische, die ihre Software nun eben für ihre InHouseProzessoren auf ARM optimiert hatten, nicht Interesse daran hätten, zu einem EPYC ARM zu wechseln (und damit sozusagen zurückzuwechseln). Sobald das der Fall ist, werden wir diese Produkte auch sehen und als Abfallprodukte kann es sein, dass dann auch Ryzen ARMs runterfallen.
 
9t3ndo schrieb:
Zur Switch 2 Thematik. Schau einfach bei mydealz vorbei. Da dreht sich fast alles nur noch um die Switch 2 wenn's um AppleTV oder AndroidTV Sticks Angebote geht.
Du bist scheinbar auf einer anderen Mydealz Plattform unterwegs als ich.
Aber von einer Switch 2 lese ich nichts in den Kommentaren zu einem AppleTV.
Habe jetzt die letzten drei Deals zum AppleTV geprüft, aber nichts darüber gefunden.
 
Headyus schrieb:
@Eternal und welche Probleme hatte man denn? Ich schließe mich 9t3ndo an, nämlich kaum bis keine Probleme mit Windows, die Zeiten sind sehr lange vorbei
Menüs (z. B. über rechtsklicks) öffnen sich am anderen Monitor, Fenster schließen sich, Mails im Outlook werden unterm schreiben plötzlich versendet, Programme öffnen sich beim Start im Hintergrund.
Das sind mal die neuesten Beispiele - gängige zähl ich jetzt nicht auf.

Wichtig, dass es sich hier um ein sehr großes Firmennetz handelt. Kein Workgroup o. ä.
 
Zurück
Oben