Zukunft der x86 Architektur

heyjan schrieb:
Dann kommt so ein ARM Chip mit 10 Watt daher und gleitet durch 8k Video Files wie Butter.
Die ARM Cores sind allerdings am Videodecoding kaum beteiligt. Die neuen iGPUs von AMD und Intel werden auch 8k Video bieten. Apple ist nun halt als erster mit einer CPU in 5nm draußen und dann sehen natürlich die anderen für den Laien aus wie Deppen. Die 5 Jahre Stillstand bei Intel werden halt immer stärker sichtbar. In den nächsten 3-4 Jahren wird x86 aber nicht sterben und bis dahin ist Intel hoffentlich auch wieder bei der Musik.
 
  • Gefällt mir
Reaktionen: Asghan
Fujiyama schrieb:
Wär es den so schlimm wenn der x86 Markt stagniert? Man kann ja auch an der Software optimieren.
Ich vermute mit meiner Laienhaften Meinung: So viel kann man garnicht optimieren, als dass x86 da mithalten könnte. Das verbietet schon alleine diese umfangreiche Architektur, die "alles können muss", und dementsprechend von Grund auf nicht effizient läuft.

Apple hat mit dem M1 vorlgegt, und das war nur ein Vorgeschmack zu dem, was möglich ist. nicht vergessen, das teil weist so manche Desktop Chips in die schranken, in bestimmten Workloads, und das als popliger 10-15w Chip.

Der M1x, der dann mit 8 starken kernen kommt, wird was Multicore Leistung angeht grob doppelt so schnell. Also in cinebench kann man grob 15 000 Punkte erwarten~, in geekbench 5 ebenso.


Ich bin mir relativ Sicher, x86 hat keine Zukunft. Das wird noch eine Weile weitergehen, aber dann wird man erkennen, dass ARM vorbei zieht. Bzw, anders formuliert: Dass man Apple's Chips nicht mehr einholen kann mit x86.

Die Zukunft ist keine Architektur, die alles iwie schafft, aber nichts gut, sondern Architekturen / Chip designs, die für jede bestimmte Aufgabe, spezielle Elemente haben. Sieht man hier z.B. bei dedizierten Videoencodern, was für eine leistung pro Watt die erreichen.

Denn aktuell sind selbst die einfachsten, simpelsten Dinge DEUTLICH ineffizienter mit jeglicher x86 Plattform, als mit einem ARM Gerät (egal ob ein Android Gerät, iPhone/iPad, oder M1).

.. Und der M1 zeigt, dass x86 so "speziell" nicht sein kann, wenn der Chip x86 Anwendungen mittels Übersetzung schneller ausführt, als x86 Chips nativ. Sprich: Es scheint aktuell keinen besonderen Workflow zu geben, der unbedingt x86 braucht, weil das mit Apple's M1 nicht machbar wäre.
 
  • Gefällt mir
Reaktionen: tidus1979 und heyjan
Tenferenzu schrieb:
Ich persönlich glaube es kommt vor allem darauf an was Apple mit den neuen Chips macht. Im besten Fall stehen alle Mitbewerber unter Zugzwang.
Glaube ich nicht. Apple ist einfach zu speziell und zu teuer, um der PC-Plattform ernsthaft gefährlich zu werden.
Ergänzung ()

heyjan schrieb:
Und eine GPU gehört nun mal zur x86 Architektur dazu, also muss diese auch im Kontext berücksichtigt werden.
Nein, gehört sie nicht. Es werden sogar ARM-Systeme mit klassischen GPUs für Anwendungen gebaut, die nur auf GPUs laufen.
Ergänzung ()

heyjan schrieb:
Ich hab in meinem Rechner ein 550 Watt Netzteil, vor 2 Jahren gekauft. Möchte ich mein System jetzt Upgraden reicht das wohl kaum aus.
Jetzt solltest du mal erwähnen, was für Hardware du hast und wohin du upgraden möchtest.
Klingt ein wenig nach "Ich habe einen 2016er VW Up und möchte auf einen 2020er BMW M5 upgraden. Der Mehrverbrauch zeigt, dass der Verbrenner am Ende ist".
 
Zuletzt bearbeitet:
@Darkseth88 hats glaub ich als einziger kapiert. Hier gehts nicht um irgendwelche Grundsatzdiskussionen und auch nicht um meinen PC.

Ich glaube viele hier Unterschätzen was Apple mit dem M1 gebracht hat. Ich würde es fast ne kleine Revolution nennen und ich möchte mich hier definitiv von irgendwelchen Fanboy Anschuldigen distanzieren.
Ich hab ein Android Phone und 2 PCs rumstehen. Ich glaube aber ziemlich sicher das Apple auch die Gamer irgendwann als Kunden gewinnen will, und da bietet sich eine gemeinsame Architektur/OS mit Iphone, Ipad & Macs an. Man mag es kaum glauben, aber Mobile Gaming ist mit 46% der größte Markt, fast doppelt so hoch wie der PC Markt. Spätestens dann wirds richtig eng für x86.

Borderlands 3 läuft auf dem 8GB M1 mit 30fps, Ich hab 70fps bei 400 Watt mit 8700k und 1080 Ti

1080 Ti zur 2070 Super sind 50-60 Watt weniger bei gleicher Leistung. Im Schnitt zieht die 2070S 180 Watt
Ein neuer Ryzen 5600X ist 10-15% schneller als mein 8700k von Anfang 2018, aber nicht Effizienter. Er braucht sogar 10 Watt mehr im Idle. Erst unter Volllast braucht er etwa 15 Watt weniger. AMDs Ziel war es, Intel vom Single Core Thron zu stoßen und damit die bessere Gaming CPU zu werden auf Kosten der Effizienz.
 
@heyjan Du vermischst hier gerade GPUs mit der x86-Architektur. Das hat erstmal nichts miteinander zu tun.
Das ist, als hätte es zu HDD-Zweiten ein neues ARM-System mit SSD gegeben und du würdest sagen: "Guckt euch diesen schnellen Speicher im ARM-System an, da kann die x86-Architektur nicht mithalten".

Um einfach mal Intel zu zitieren:
"CPUs und GPUs haben jedoch verschiedene Architekturen und werden für unterschiedliche Zwecke eingesetzt."
(https://www.intel.de/content/www/de/de/products/docs/processors/cpu-vs-gpu.html)
 
Das Interessiert doch nicht. Eine GPU gehört zu einer x86 Architektur dazu oder an wen Verkauft AMD und Nvidia gerade seine Ausverkauften GPUs? wohl an Kunden die alle ein x86 System haben. Und wenn man sich hier über die Effizienz Unterhält, muss man auch diese Berücksichtigen. Gaming GPUs werden für x86 Architekturen Entwickelt.
 
heyjan schrieb:
Eine GPU gehört zu einer x86 Architektur dazu
Nein, das ist schlicht und einfach falsch. Das mag dir aus deiner Consumer-Sicht so vorkommen, ändert aber nichts an den Tatsachen.

heyjan schrieb:
Gaming GPUs werden für x86 Architekturen Entwickelt.
Das wiederum ist teilweise richtig, die architektonisch ähnlichen (ja, GPUs haben ihre eigene Architektur und sind nicht Teil der X86-Architektur) werden allerdings nicht selten mit ARM-CPUs betrieben, weil es nämlich keine technische Abhängigkeit zwischen GPUs und der x86-Architektur gibt.

Es würde mich nicht wundern, wenn wir irgendwann Mac Pros mit Apple-CPUs und einer AMD-GPU (mit NVIDIA haben die's ja nicht mehr so) sehen, wie man sie auch Rechnern mit x86-CPUs findet.
 
Darkseth88 schrieb:
Apple hat mit dem M1 vorlgegt, und das war nur ein Vorgeschmack zu dem, was möglich ist. nicht vergessen, das teil weist so manche Desktop Chips in die schranken, in bestimmten Workloads, und das als popliger 10-15w Chip.
Dafür zahlt man aber auch einen Preis : Modularität. Einen PC mit M1 Architektur , wirst du, wenn dir die Leistung eines Teils nicht mehr reicht, komplett vergessen können. Und nicht z.B. durch Austausch der Grafikkarte modernisieren können. Auch eine Speichererweiterung geht nicht, weil die für die Leitung erforderliche Speicherbandbreite nur mit aufgelöteten Chips erreichbar ist.
 
  • Gefällt mir
Reaktionen: Asghan, pseudopseudonym und SoDaTierchen
heyjan schrieb:
Ich hab in meinem Rechner ein 550 Watt Netzteil, vor 2 Jahren gekauft. Möchte ich mein System jetzt Upgraden reicht das wohl kaum aus.
Das liegt aber an dir, nicht an der verfügbaren Technik. Angenommen, deine Hardware ist älter als eine Generation alt, dann gibt es in JEDEM TDP-Budget ein Upgrade für dich. Dass du jetzt aber auf Hardware mit mehr Energiehunger zielst ist dein persönliches Problem und hat rein gar nichts technologischer Stagnation zu tun. Denn die Technologie gibt es. Es ist dir nur egal, weil du das geilste und beste willst und nicht mehr auf Energieeffizienz achtest. Du ignorierst deine eigenen Argumente.

Was auch nicht funktioniert: Du kannst nicht x86 ankreiden, dass ein Upgrade Unannehmlichkeiten mit sich bringt, wenn du Apple Silicon loben willst. Denn bei Appli Silicon kannst du außer der Festplatte GAR NICHTS upgraden.
heyjan schrieb:
Dann kommt so ein ARM Chip mit 10 Watt daher und gleitet durch 8k Video Files wie Butter
Die Aussage ist irreführend, weil sie unabhängige Informationen abhängig darstellt. Der ARM-Chip hat damit gar nichts zu tun, für die 8k Video Files wird ein spezieller Encoder-Chip benutzt. Der ist zwar momentan bei Apple Silicon enorm stark, das ist Fakt, aber den könnte man problemlos auch auf einen x86-Chip bauen. Die ARM-Architektur hat daran keine Aktie.

Darkseth88 schrieb:
Der M1x, der dann mit 8 starken kernen kommt, wird was Multicore Leistung angeht grob doppelt so schnell. Also in cinebench kann man grob 15 000 Punkte erwarten~, in geekbench 5 ebenso.
Der verbraucht dann aber mehr als 10-15W.
Darkseth88 schrieb:
Dass man Apple's Chips nicht mehr einholen kann mit x86.

Die Zukunft ist keine Architektur, die alles iwie schafft, aber nichts gut, sondern Architekturen / Chip designs, die für jede bestimmte Aufgabe, spezielle Elemente haben.
Du widersprichst dir selbst. Du sagst, Apples Chips kann man mit x86 nicht mehr einholen und sagst direkt danach, die Architekturen werden irrelevant, es entscheiden nur noch Spezialchips? Das funktioniert so nicht.

Apple Silicon ist ein extrem unflexibler Chip, der das, was er macht zwar außerordentlich gut kann, der aber absolut nichts anderes kann. In Sachen Modularität hinkt der M1 grob 35 Jahre hinterher. Deshalb ist der M1 nicht automatisch schlecht, aber schau doch auch mal über den Tellerrant. Es gibt mehr Anwendungsfälle als Heinz-Peter aus dem Sauerland, der seine Urlaubsvideos von der Kamera auf USB-Stick übertragen möchte. Und Apple Silicon kann nicht alle bedienen. Vielleicht geht das in Zukunft, aber aktuell eben nicht.
heyjan schrieb:
Ich glaube viele hier Unterschätzen was Apple mit dem M1 gebracht hat.
Ganz im Gegenteil. Ich erwähne ja an vielen Stellen, dass es ein beeindruckendes Stück Technik ist was das, was es kann, extrem gut macht. Aber es ist auch ein beeindruckend unflexibles Stück Technik was nicht mit allen Workloads gut klar kommt. Apple Silicon ist noch einige Jahre davon weg mit x86 in Konkurrenz zu treten, weil es noch viel zu schmal aufgestellt ist.
heyjan schrieb:
1080 Ti zur 2070 Super sind 50-60 Watt weniger bei gleicher Leistung. Im Schnitt zieht die 2070S 180 Watt
Ein neuer Ryzen 5600X ist 10-15% schneller als mein 8700k von Anfang 2018, aber nicht Effizienter. Er braucht sogar 10 Watt mehr im Idle. Erst unter Volllast braucht er etwa 15 Watt weniger. AMDs Ziel war es, Intel vom Single Core Thron zu stoßen und damit die bessere Gaming CPU zu werden auf Kosten der Effizienz.
Der GPU-Teil hat soweit recht gut hin, beim CPU-Teil verdrehst du die Zahlen aber, wie es dir passt. Ein i7 8700K und ein Ryzen 5 5600X sind im Leerlauf ziemlich gleich effizient mit minimalem Vorsprung für den Zen3. Falls du auf einen Test wie diesen hier anspielst: Dort wird exakt unter dem Leerlaufdiagram gezeigt, dass der X570 alleine schon 14W im Leerlauf MEHR frisst als ein B550, welcher für über 90% der Zen3-Anwender absolut ausreicht. Das sieht übrigens bei Volllast nicht groß anders aus. Bereinigt man den x570-Anteil, dann ist der Verbrauch wieder ungefähr gleich, mit demselben Vorteil wie unter Leerlauf. Der i7 8700K und der Ryzen 5 5600X haben dasselbe Lastverhalten mit ungefähr 5W Vorteil für den Zen3 - aber drücken wir die 5W mal in den Skat, weil es unerheblich wenig ist. Dann steht dagegen, dass der Zen3 in Multicore-Szenarien 30% und in Singlecore-Szenarien 20% schneller ist und das bei demselben Energieverbrauch.

Du siehst also, "auf Kosten der Energieeffizienz" ist hier gar nichts gelaufen. Und von mangelndem Fortschritt bei x86 kann man auch nicht reden, denn vom 3600 zum 5600X sind solide 25% an Leistung dazugekommen und die Leistungsaufnahme gleichzeitig um ungefähr 10% gesunken. Intel macht derzeit kaum Fortschritte. Das liegt aber an deren Fertigungsproblemen, nicht an x86.
heyjan schrieb:
Eine GPU gehört zu einer x86 Architektur dazu
Nein. Du kannst x86-Prozesorren auch ohne GPU betreiben. Wird bei fast jedem Linux-Server so betrieben. Außerdem braucht auch eine ARM-CPU eine GPU, sobald etwas Bild dargestellt werden soll. CPU und GPU sind nicht abhängig, die Schnittstelle heißt PCIe und die ist Architektur-Unspezifisch.


Ich glaube, was du nicht verstehen willst: Ich argumentiere nicht gegen Apple Silicon. Aber deine Euphorie über den Chip macht dich blind. Der Chip ist für seine Workloads enorm gut, das steht außer Frage. In Sachen Energieeffizienz ist der der x86-Architektur deutlich überlegen und bringt in manchen Workloads sogar eine ebenbürtige Leistung. In Hochspezialisierten Anwendungen ist der M1 sogar überlegen. Aber er ist Null flexibel. Und wenn man realistisch ist, dann hat man nicht mal die Auswahl zwischen x86-Prozessoren und Apple Silicon, denn es gibt kein Produkt, in dem man sich zwischen einem von beiden entscheiden kann. Apple Silicon ist unflexibel und am Markt extrem schmal aufgestellt. Das kann sich ändern, aber hier und jetzt muss man sagen: Apple Silicon macht das, was es kann, extrem gut. Aber eben nichts anderes.
 
  • Gefällt mir
Reaktionen: Asghan, Nero1 und pseudopseudonym
SoDaTierchen schrieb:
Dort wird exakt unter dem Leerlaufdiagram gezeigt, dass der X570 alleine schon 14W im Leerlauf MEHR frisst als ein B550, welcher für über 90% der Zen3-Anwender absolut ausreicht.
Funfact: Die Zen-CPUs kann man auch ohne Chipsatz betreiben (heißt aufm Papier dann A320 usw), dann spart man sich den Energieverbrauch ganz.

Edit: Meine die 300er (https://de.wikipedia.org/wiki/AM4-Chipsätze)
 
Zuletzt bearbeitet:
Der A320 unterstützt aber kein Zen3. Über ganz ohne Energieverbrauch kommt der leider auch nicht aus, wenngleich die meisten Boards damit wirklich genügsam sind
 
@SoDaTierchen Gut, der A320/nicht vorhandene Chipsatz unterstützt Zen3 nicht, aber prinzipiell kann man x86-CPUs auch ohne Chipsatz betreiben. Vermutlich auch Zen3 irgendwie, zumindest theoretisch.
Darauf wollte ich eigentlich hinaus.

Edit: Meine die 300er (https://de.wikipedia.org/wiki/AM4-Chipsätze)
 
Zuletzt bearbeitet:
A320 ist aber nicht ohne Chipsatz. Der Chipsatz ist A320. Nur weil der sehr wenige Funktionen bietet ist er nicht automatisch kein Chipsatz.

CPUs und APUs brauchen zwingend einen Chipsatz. Sind sie nicht darauf angewiesen, heißen sie SoC. Über den Chipsatz werden Teile der Peripherie angesteuert, die CPU bietet oft nur unzureichend Schnittstellen. Außerdem werden darüber Microcode-Updates an die CPUs verteilt, die heutzutage enorm wichtig geworden sind.

Randnotiz: es gibt einen A520 der mit Zen3 umgehen kann
 
SoDaTierchen schrieb:
Der verbraucht dann aber mehr als 10-15W.
Und aus welchem Grund sollte er das nicht dürfen?
Warum sollte ein größerer M-Chip nicht auch 50w tdp haben, oder 100+w in einem Desktop / Mac Pro?

Hoffe, deine Gedanken gehen hier nicht in die Richtung "ARM darf ja nur ein handy-chip sein".

SoDaTierchen schrieb:
Du widersprichst dir selbst. Du sagst, Apples Chips kann man mit x86 nicht mehr einholen und sagst direkt danach, die Architekturen werden irrelevant, es entscheiden nur noch Spezialchips? Das funktioniert so nicht.

Apple Silicon ist ein extrem unflexibler Chip, der das, was er macht zwar außerordentlich gut kann, der aber absolut nichts anderes kann. In Sachen Modularität hinkt der M1 grob 35 Jahre hinterher. Deshalb ist der M1 nicht automatisch schlecht, aber schau doch auch mal über den Tellerrant. Es gibt mehr Anwendungsfälle als Heinz-Peter aus dem Sauerland, der seine Urlaubsvideos von der Kamera auf USB-Stick übertragen möchte. Und Apple Silicon kann nicht alle bedienen. Vielleicht geht das in Zukunft, aber aktuell eben nicht.
Ich widerspreche mir nicht, nur weil du meine Aussage falsch wieder gibst ^^
Ich habe mit keinem Wort gesagt, dass Architekturen irrelevant werden.

Aber Apple hat hier schon eine ziemliche Granate aus dem Hut gezaubert, eine effizienz von der man bei x86 nur hätte träumen können.
Ich bin gespannt, ob AMD/Intel das mal einholen und überholen können, aber aktuell deutet nichts darauf hin.
Der Vorsprung ist jetzt nicht nur paar % wie der von AMD zu Intel.


Was genau kann der Chip denn aktuell nicht (was dem Chip-design/der Architektur geschuldet ist)? Das ist das typische Paperargument von den x86 verfechtern. Aber niemand konnte mir etwas konkretes sagen, was mit ARM Chips (RISC) nicht geht, aber mit x86 (CISC) schon.

Man kann mit dem M1 jetzt schon mehr machen, als ein paar Bilder von Stick zu Stick zu schieben.
Jede Form von Professionellen tätigkeiten zur Zeit funktioniert wunderbar, wie alle tests zeigen.
Sogar mit Anwendungen, die für x86 geschrieben wurden. Photoshop läuft wunderbar, selbst durch Rosetta übersetzt.


Wenn mal irgendetwas total neues kommen sollte, wird es dafür spezielle teile geben die in den Chip wandern.
Insofern sind die neuen Chips deutlich modularer als x86. Aber hier nochmal: Was wäre das? Gab's aus der vergangenheit (10~ Jahre?) ein Beispiel dafür?
Woher will man heute wissen, dass die M1 Chips da komplett verkacken, und es nicht hinkriegen? Wenn sie heute schon in der Lage sind, x86 Code scheinbar so einfach zu übersetzen und auszuführen?


Wen oder was genau kann Apple Silicon aktuell denn NICHT bedienen, was x86 aber kann? (ein Architektur-bedingter Grund)
Was war denn das letzte bahnbrechend neue, was komplett anders war vom Typ als alles vorher?
Selbst Games laufen und lassen sich scheinbar ziemlich easy umändern, um nativ zu laufen. Siehe WoW.


Ich bleibe dabei: Die Zukunft wird nicht x86 Kernen gehören, die alles irgendwie können, aber nichts gut.
Für jede spezielle Aufgabe wird es spezielle Kerne/module/wasauchimmer geben, die das besonders effizient können.
Maximale Effizienz wird in der Zukunft der schlüssel sein, für maximale Leistung. Und da hinkt x86 aktuell hinterher. Und das nicht nur ein bisschen.


Ich bin natürlich sehr gespannt und blicke leicht aufgeregt in die Zukunft. Meine Aussage ist ja natürlich in der Hinsicht das selbe wie bei dir oder jedem anderen: Eine Vermutung ^^ Vielleicht treffe ich genau ins Schwarze, und x86 stirbt aus wie Nokia seinerzeit mit den Handys. Oder ich irre mich, und ARM Chips in Computern setzen sich auch bei Apple nicht durch und die wechseln in 15 Jahren wieder zurück.
Vielleicht kommen Intel/AMD ja mit einer grundlegend neuen x86 Architektur in den nächsten Jahren, die dann wieder sehr viel potenzial hat (wie AMD mit Bulldozer -> Ryzen)
 
SoDaTierchen schrieb:
A320 ist aber nicht ohne Chipsatz. Der Chipsatz ist A320. Nur weil der sehr wenige Funktionen bietet ist er nicht automatisch kein Chipsatz.
Stimmt, ich habe mich im "Chipsatz" geirrt, meinte den B300/X300/A300.

SoDaTierchen schrieb:
CPUs und APUs brauchen zwingend einen Chipsatz. Sind sie nicht darauf angewiesen, heißen sie SoC.
Das wiederum ist falsch.
Die A/B- oder X300 sind als Mini-ITX-Chipsätze konzipiert und bieten daher relativ wenige zusätzliche Schnittstellen[3] und sind besonders stromsparend.[4] Dabei handelt es sich nicht um separate Chips, Produkte mit diesen „Chipsätzen“ verwenden nur die eingebaute Funktionalität der CPUs.
(https://de.wikipedia.org/wiki/AM4-Chipsätze)
Ergänzung ()

Darkseth88 schrieb:
Was genau kann der Chip denn aktuell nicht (was dem Chip-design/der Architektur geschuldet ist)? Das ist das typische Paperargument von den x86 verfechtern. Aber niemand konnte mir etwas konkretes sagen, was mit ARM Chips (RISC) nicht geht, aber mit x86 (CISC) schon.
x86-CPUs sind seit Ewigkeiten keine klassischen CISC-CPUs mehr, sondern übersetzen die CISC-Befehle auf Maschinenebene in einfache RISC-Befehle, um Pipelining zu ermöglichen (https://de.wikipedia.org/wiki/Pipeline_(Prozessor). Also eine gewisse Parallelität auf Maschinenebene.

Da ich keine Vorlesungsfolien einfach so posten kann (Copyright), zitiere ich stattdessen eine Webseite, die ich dazu gefunden habe:
Kurzum: der 486 Nachfolger Pentium musste kompatibel sein, aber neu sein. Was Intel machte war folgendes: Nach dem Dekodieren der Befehle werden diese in einfachere RISC Befehle übersetzt, umgruppiert und zwei Rechenwerken die reine RISC Maschinen sind, zugeführt. Seit dem Pentium Pro ist dies so und ein Pentium 4 ist im Prinzip ein guter x86 Emulator... Eine x86 Instruktion kann dabei nur eine aber auch 3 oder 4 einfache RISC Operationen umfassen. Dabei sind diese relativ lang, beim Pentium III 118 Bit. Beim Pentium 4 wahrscheinlich nur etwa die Hälfte.
(https://www.bernd-leitenberger.de/cisc-risc.shtml)

RISC vs. CISC spielt in der Diskussion somit keine Rolle.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Darkseth88
@pseudopseudonym : Die A/B/X300 sind tatsächlich komplett an mir vorbeigeflogen. Spannend, irgendwie habe ich nicht geglaubt, dass Zen schon ohne Chipsatz auskommt. Danke!

Darkseth88 schrieb:
Was genau kann der Chip denn aktuell nicht (was dem Chip-design/der Architektur geschuldet ist)? Das ist das typische Paperargument von den x86 verfechtern. Aber niemand konnte mir etwas konkretes sagen, was mit ARM Chips (RISC) nicht geht, aber mit x86 (CISC) schon.
Puh, wo soll ich da anfangen. ARM an sich hat erstmal keine Einschränkungen, bis auf wenige Spezialbefehle, die keine praktische Einschränkung sondern nur geringere Performance bedeuten gibt es da nichts. Aber wir reden ja von Apple Silicon-Prozessoren, nicht von ARM an sich. Die können zum Beispiel nicht:
  • PCIe-Interfaces ansprechen
  • 32GB RAM (oder mehr) unterstützen
  • SATA unterstützen
  • USB unterstützen
  • Multicore-Leistung auf Niveau oder höher aktueller Mainstream-CPUs liefern

Man hat zwar Thunderbolt, aber das tröstet nicht in allen Szenarien über das fehlende USB, SATA und PCIe hinweg.

Gerade in Bereichen, in denen viel Rechenleistung gefragt ist wie z.B. Videoschnitt (nicht encoding, das können Spezialchips sehr gut. Ich meine richtiges Rendern mit Effekten) sind aktuelle ARM-Lösungen noch nicht wirtschaftlich. Das kann sich in Zukunft ändern, 2020 ist das aber noch nicht der Fall. Und bei der derzeitigen Situation teile ich die Einschätzung nicht, dass x86 am Ende ist. Es ist nicht mehr Alternativlos, aber deshalb noch lange nicht sterbend.
 
Zuletzt bearbeitet: (Technisch ist USB vorhanden)
Was fehlt, müsste sich ja hinzufügen lassen?
Die 16gb Ram max seh ich erstmal als künstliche limitierung, weil die Vorgänger ja auch nur 16gb Max hatten (beim Mini vllt nur zur vereinheitlichung, oder weil Apple erstmal nur mit 8gb / 16gb Packages kalkuliert hat).
Spätestens der M1x im 16" nächstes Jahr sollte wieder 32 und 64gb liefern können, sonst wäre ich doch sehr verwundert.
SATA/PCIe wird man wohl frühstens im nächsten Mac Pro sehen, wie die das lösen.

USB musst du mir noch etwas helfen. Die Dinger unterstützen doch "Thunderbolt / USB 4"?

Wir wissen ja aktuell nicht, ob die Dinge einfach noch nicht gehen, oder ob Apple sie absichtlich weggelassen hat, weil die das in der "Einsteigerklasse" als irrelevant erachten. z.B. wozu brauch ich PCIe in einem Macbook Air? Man kann ja nix dranstecken, außer halt über USB/Thunderbolt.

Wo ist denn die Multicore Leistung noch schlechter? In Geekbench/Cinebench schlagen die vergleichbare Intel Quad Cores, oder übersehe ich etwas?

Jetzt am Ende meinte ich nicht, so schnell geht das nicht. Aber langfristig gesehen (also wo sich nicht nur die M-Chips sondern evtl noch andere ARM basierenden Chips) noch weiter entwickeln.
Man wird ja irgendwann an physikalische Grenzen Stoßen, und dann gewinnt die beste Effizienz, da man den Stromverbrauch nicht unendlich hochtreiben kann.
Allerdings werden erstmal diese physikalischen Grenzen erreicht denke ich, bevor sich da eine Tendenz entwickelt.

Naja, ich denke wir können uns sicher alle auf eins einigen: Die nächsten 10 Jahre werden in der Hinsicht sicherlich spannender, als die letzten 10 :P
 
SoDaTierchen schrieb:
Man hat zwar Thunderbolt, aber das tröstet nicht in allen Szenarien über das fehlende USB, SATA und PCIe hinweg.
USB ist allerdings als Untermenge in Thunderbolt enthalten.

Darkseth88 schrieb:
Die 16gb Ram max seh ich erstmal als künstliche limitierung,
Nein, das ist wohl technische Notwendigkeit. Für die notwendige Speicherbandbreite muß die Anbindung des RAMs entsprechend hoch getaktet sein. Hoher Takt geht aber nur mit kurzen Leitungen. Mit passend kurzen Leitungen lassen sich aber nur max. 2 LPDDR Bausteine an den SoC anbinden. Weitere Bausteine müssten aus Platzgründen weiter entfernt vom SoC platziert werden,was dann die max. zulässige Leitungslängen überschreiten würde. Somit ist man auf 2 LPDDRs in maximal erhältlicher Größe ( derzeit 64 Gbit) beschränkt. Und das ergibt 16 Gbyte . Gesockeltes RAM kann man aus dem selben Grund auch nicht erwarten. Ein Sockel ist immer eine Störstelle, der die maximale Taktfrequenz senkt.
 
  • Gefällt mir
Reaktionen: Darkseth88
Ich bin mir ziemlich sicher, dass viele der Einschränkungen darauf zurückzuführen sind, dass es ein Erstlingschip ist. Aber es sind nunmal Einschränkungen die gelten. Und ob Apple die mit einen M1x, M2 oder sonstwas aufhebt spielt aktuell keine Rolle. Der M1 ist nicht upgradefähig und 2020 gibt es noch keinen anderen Apple-Chip. Die Einschränkungen des M1 bleiben auf ewig bestehen. Dass Nachfolgechips das lösen können (wenn es denn gewollt ist) steht außer Frage.

USB ist als Thunderbolt vorhanden. Wenn man die Geräte gerade lädt steht noch 1 ganzer USB-Anschluss zur Verfügung, der aber den Anschluss mit dem Thunderbolt teilt. Für mich wäre das eine Einschränkung, aber ich mache hier gerade denselben Fehler den ich weiter oben ankreide: Ich urteile über die Hardware aus einem persönlichen Standpunkt. Also ja, technisch ist USB vorhanden.

Darkseth88 schrieb:
Wo ist denn die Multicore Leistung noch schlechter? In Geekbench/Cinebench schlagen die vergleichbare Intel Quad Cores, oder übersehe ich etwas?
Der M1 ist ein Octacore. Wenn der nen Quadcore NICHT schlagen würde, wäre das schon ungeil aus Marketing-Sicht. Die aktuellen Octa-Cores bei AMD und Intel liegen z.B. im Cinebench bei 15.000 und 12.000 Punkten, der M1 bei 7500. Selbst die mobilen OctaCores der Konkurrenz (z.B. Ryzen 7 4800U) warten hier mit 10.000 Punkten auf.
 
Naja 4 starke und 4 schwache Kerne. Da muss man Unterscheiden
Die MP Ratio (cinebench) ist mit 5,16 oder so minimal höher, als bei 4 kernern mit smt/htt.
Mein 6700k ohne throttling kam auf einen MP von 4,6x oder sowas.
Die effizienten Kerne haben also knapp 30% der Leistung von den starken Kernen.
Das ist daher nicht mit einem.echten 8 Kerner mit 16 Threads vergleichbar.
Ein 4500u kommt dem Nähe mit 5,4 bis 5,75 MP Ratio~ (wobei das auch wieder von der Kühlung des Notebooks abhängt, aber leicht höherer single Core Turbo als Multicore klingt hier realistisch)

Also es sind trotzdem 4 Kerne die die Hauptleistung erbringen. Dir anderen 4 bringen knapp 30% dazu, wenn sie auch zu 100% ausgelastet sind .
Bei den mobilen Ryzen 7/9 hängen die Punkte aber auch schwer von Kühlsystem des Notebooks an, und der Tdp Konfiguration. Darf das package wirklich nur 15w ziehen oder sind dauerhaft auch 25 drin?
Hab auch schon 4800er benches gesehen wo 8000 Punkte am Ende rauskamen.

Es hängt aber auch stark von Notebook ab,


Multicore Leistung ist beim M1 besser, wenn man die Anzahl und die Art der Kerne beachtet:

Ein besserer Vergleich wäre aber der R7 4700u, 8 Kerne ohne SMT, nur dass hört alle 8 Kerne gleich stark sind.
Und der Landet bei etwa 7000 Punkten, unter dem M1 im Pro, und nur minimal höher als in einem ungekühlten Air
 
Zurück
Oben