News Sonntagsfrage: ARM oder x86, wem gehört die Zukunft in Server und PC?

AMD will ja AFAIK. in den nächsten 10 Jahren die Effizienz auch Faktor 25 steigern, ich sehe da keinen Unterschied zu ARM, nur dass die jetzt tw. (Apple) schon in modernerer Fertigungstechnologie (was aber auch teurer ist) hergestellt werden, und dadurch einen Effizienzvorteil haben.
Wenn man nativen Code hat für beide Architekturen, wird der auf x86-64 und ARM9 bei selber Taktfrequenz voraussichtlich ca. gleich schnell laufen, weil ARM auch nur mit Wasser kocht.
Und mehr Rechneleistung, besonders die letzten möglichen 20%, benötigen mehr Energie und sind ineffizienter, und AMD und Intel haben zuletzt immer versucht, dieses Potential voll auszureizen mit ihren Turbo-Modi, um den Anderen in Benchmarks zu übertrumpfen. Man kann die selben Chips aber auch auf effizient konfigurieren, etwa mit einer 45W TDP Konfig, und dabei halt 1/3 Rechenleistung verlieren.
Aber von der Effizienz sind sie dann wieder mit ARM Hochleistungsprozessoren vergleichbar, bei selber Fertigungstechnologie.
Es geht mehr um Patente und Lizenzen für die Technologie dahinter, dass ARM oder RISC-V div. Vorteile auch bei den Kosten, haben kann.
 
  • Gefällt mir
Reaktionen: LencoX2
Dr. MaRV schrieb:
ARM ist RISC, die Frage muss also lauten RISC oder CISC, wem gehört die Zukunft in Server und PC?
Es gibt keine kaufbare native CISC CPU mehr.
Aktuelle X86 CPUs übersetzen die CISC Befehle in RISC MicroOps und aktuelle ARM CPUs (nutzen intern auch MicroOps) haben auch nach außen hin ähnliche Befehlssätze wie X86 CPUs.

Die Klassifizierung ist überholt.
 
  • Gefällt mir
Reaktionen: pseudopseudonym und LencoX2
Mir fehlt bei der Umfrage glatt eine Mehrfachauswahl mit dem Punkt: Auch Risc-V könnte eine Rolle spielen.
Ich würde auch auf eine lange Koexistenz von x86 und ARM setzen, vielleicht oder hoffentlich auch noch Risc-V, aber davon sieht man zur Zeit noch nicht wirklich was.

Das Apple jetzt ARM in ihren Systemen einsetzt, wo vorher X86 war, ist noch längst kein Indiz, dass X86 am Ende ist. Apple hat eben eine Sonderstellung mit eigener Soft-und Hardware in einer relativ in sich geschlossenen Infrastruktur. AWS ist dann auch noch längst kein Beweis für ein Ende con x86. Noch ist x86 zu bedeutend in den PC- und Servermärkten.

Selbst mit den (eher schwachen) Vorstößen von Microsoft, Windows für ARM zu gestallten, wird es noch eine lange Zeit brauchen, bis x86 bereit zur Ablöse ist.
Das Tesla sogar x86 in ihren Infortainment-System verbaut, ist eben auch ein Indiz, dass x86 noch längst nicht abgeschrieben ist. Hier hat es mich schon gewundert, dass man hier keine ARM-SoCs verwendet. Im industriellen Sektor wird eine Umstellung auch recht langsam laufen.

So lange es keine leistungsfähigen Laptops abseits der Apple-Geräte mit ARM gibt und dort eine breite und offene Fülle von Software drauf läuft, wird ARM eben noch lange nicht x86 ersetzen.
 
Opa Hermie schrieb:
Vermutlich wird x86 bei Hard- und Software noch sehr lange im PC eine Rolle spielen, schon wegen der teils über Jahrzehnte aufgebauten Erfahrung und "Infrastruktur"; jedenfalls sehe ich z.Z. nur unbedeutende Versuche in die Richtung.

ARM-Macs sind eine Sonderstellung, durch Monopolstellung und extrem viel Geld massiv gefördert, das Prinzip lässt sich nicht so einfach auf Andere übertragen.
Dass Apple soviel besser ist, wird schon lange prophezeit und der Marktanteil wächst stetig, aber eine Ablösung in die Richtung ist undenkbar.

Apple ist nicht wirklich besser.
Das kann man an ein paar grundlegenden Dingen festmachen.
Da braucht man nur die wöchentlich reinflatternden Negativmeldungen bei Golem und Heise lesen.
Das schafft kein anderer Hersteller.
Zudem muss man sehen, wie Apple jetzt den M1 geschafft hat.
Man hat viele Dinge aus dem Chip rausgeschmissen und durch Dinge ersetzt, die speziell nur für die eingesetzte Hardware und Software wichtig sind.
Das ist wie die H265 Beschleunigung am PC.
Wird sie genutzt, so fliegt das System davon.
Kann die CPU/GPU aber es nicht nutzen, so kriecht das System ruckelnd vor sich hin.
Ein x86 System kann alles gut, ARM nur das, wofür es gemacht worden ist.
Der M1 Chip nutzt die exklusiv gekaufte, beste Fertigung bei TSMC, wo hingegen AMD und Intel mit wesentlich schlechteren Techniken Vorlieb nehmen müssen.
Das ist so wie der Unterschied von AMD 7nm zu Intel 14nm.
Als Drittes kommt hinzu, dass man den großen M1 Chip mit 57 Milliarden(!) Transistoren vollgepackt hat, das ist mehr als ein AMD Ryzen und eine dicke Grafikkarte zusammen.
Und nun muss man auch noch sehen, dass das Einsatzgebiet und dessen Vorraussetzungen und Limitierungen ein ganz anderes ist.
Apple setzt auf extreme Mobilität und ein zentrales Einsatzgebiet, AMD und Intel jedoch auf Workstation und Desktop allgemein, Notebook ist sozusagen eher beiläufig das Nebenprodukt, es wird also ein Chip entwickelt, der für alles geeignet ist.
Apple klebt einfach alles in einem Stück zusammen. Das ist natürlich extrem effektiv, limitiert den Anwender aber extrem.
So etwas kann man vielleicht noch für Smartphone, Tablet, Notebook und Konsole durchgehen lassen, im Desktop ist so etwas aber völlig abwägig und indiskutabel.
Welcher Anwender will sich schon auf eine fixe Menge RAM und Speicherkapazität (SSD) festlegen lassen?
Und das zu bei weit überreizten Preisen von mindestens dem 5fachen der handelsüblichen Preises?
900 Euro Aufpreis für ein paar läppische Megabyte Speicherkapazität, was man im Handel nach eigenem Ermessen für 150 Euro selber einkaufen gehen kann, wenn man es denn irgendwann einmal brauchen sollte?
Im Desktopsegment muss man flexibel sein, die Stecksysteme für Grafik, Speicherriegel, -sticks udn sonstige Komponenten sind halt diversen Designbeschränkungen und Latenzen unterworfen.
Bei einem Defekt kann so eine einzelne Komponente ausgetauscht werden, Apple liefert nur noch komplette, stark überteuerte Wegwerfrechner, was auch nicht gerade umweltfreundlich ist.
Stellt euch vor, AMD und Intel würde die gleiche Vorangehensweise mit einem superspeziell optimierten x86 System machen, udn man hätte die gleiche Technologie dafür zur Verfügung?
Rechnet man diese Dinge zusammen, so ist es quasi jedem Hersteller möglich ein System zu schaffen, was der Konkurrenz bei Leistung pro Watt überlegen ist.
Würde Apple diese Insellösung verlassen, so würde dementsprechend andere Regeln und Limitierungen gelten, und man wäre nichts anderes als ein xbeliebiger Produzent wie alle anderen auch, die sich jedoch bereits daran angepasst haben.
Es ist also ein relativ unfairer oder zumindest schlechter Vergleich, wenn man diese ganzen Systeme einfach so miteinander vergleicht und auf ein paar wenige Benchmarks stützt, die speziell vorbereitet und optimiert worden sind.
Das hat den gleichen Effekt wie Koduri, der eine uralte hauseigene iGPU mit einem aktuellen Computerspiel komplett überfordert und dann behauptet, die neue ARC Grafikeinheit sei bis zu bis zu 20 mal schneller gewesen. Das kann jeder.
Habt ihr schon gewusst, dass der Ryzen 5600X doppelt so effizient pro Watt ist wie ein Intel 12900K?
Würde man da weiter ansetzen und die oben angesprochenen Dinge implementieren (können), wäre man sicherlich schnell auch auf Apple Niveau runter.
Ich will hiermit nicht sagen, dass der Apple Chip schlechter ist als gedacht, er ist nur nicht so überlegen, wie viele immer meinen.
Man muss das große Ganze sehen.
Apple ist keine Wunderfirma, da haben schon mehr als genug Unsinn angestellt.
Nach einem großen Wurf kommen auch wieder Jahre der Stagnation und langsamen Fortschritts.
Wie will Apple das System denn jetzt noch weiter optimieren?
Integriert ist integriert, die ganzen Vorteile wird es nie wieder geben, es bleiben also nur noch bessere Fertigungstechniken und ein angepasstes CPU-Layout und Instruktionseinheiten.
Und will man im Desktop und Workstationsystem Fuß fassen, so wird man sich von dem Chipdesign entfernen müssen, da der Megachip jetzt schon fast zu platzen droht. Mehr geht einfach nicht.
Ich begrüße aber natürlich die Tatsache, dass man durch die vielen Transistoren ein System geschaffen hat, womit man mit weinig Stromaufnahme trotzdem eine excellente Leistung schaffen kann.
Dem sollten sich AMD und vor allem aber Intel und NVidia unbedingt anschließen.
Niemand möchte im Desktop Segment eine 240 Watt CPU und eine 450 Watt GPU als Heizstrahler im Sommer stehen haben.
Man hat das Gefühl, dass die System so optimiert werden, dass man für die letzten 10% Leistung mittlerweile doppelt so viel Watt einplant, nur um damit irgendwie und ohne Rücksicht auf Verluste im Benchmarktest der Medien die Krone zu erlangen.
Da ist nämlich absolut nichts auf Sparsamkeit ausgelegt.
Hätte man da in den letzten 10 Jahren angesetzt, stünde man leistungstechnisch vielleicht gar nicht mal viel schlechter da, man wäre halt nur anders zu der Leistung gekommen, so wie Apple halt über die Smartphoneschiene.
 
  • Gefällt mir
Reaktionen: Mad-Ric
Sehr interessante Beiträge, danke.

ARM wird irgendwann die Führung übernehmen.
Die Power die mein 200Fr. Smartphone zeigt bei gleichzeitiger Effizients ist im x86 Universum unglaublich!
M1 hat uns die Kinlade fallen lassen, obwohl in einem "isoliertem" Universum.

Nebst Preis und Effizienz was haben wir auf x86 Seite?
Ok, System modelierbar und starke GPU. Das bleibt also wohl noch länger die Spieleplattform.

Aber mal im Klartext. Am PC rumschrauben, das tun weniger als 2% auf dem Planeten. Wir in diesem Forum gehören auch dazu und sind nicht markt- representativ.
 
Das Problem ist doch aber gar nicht, dass die Architekturen grundverschieden in ihrer Effizienz sind, sondern das unterschiedliche Bereiche abgedeckt werden. Der x86 Markt lebt ja vom Baukastenprinzip mit all seinen Vor- und Nachteilen. Ich würde mal behaupten ein moderner x86 Prozessor hoch integriert mit dicken Speichercontroller für LPDRR4x auf gleicher Fertigungsgröße Wie Apple würde auch nicht krass weit entfernt sein, so wie es jetzt der Fall ist.
 
WinnieW2 schrieb:
Naja, Intel strengt sich gerade wieder mehr an um wettbewerbsfähig zu bleiben.
Die Gracemont-Effizienzkerne (bei Alder Lake) sind ein gutes Beispiel dafür dass auch x86-Kerne leistungsfähig und energieeffizient zugleich sein können und dazu wenig Chipfläche benötigen.
Und an diesem Punkt wird Intel weiterentwickeln. AMD verfolgt wohl einen ähnlichen Ansatz.

Falls sich die Workloads einer Software gut in viele Threads aufteilen lässt dann arbeiten viele leistungsschwächere Kerne diese effizienter ab.
ARM Kerne sind leistungsfähig, haben den mobilen fest im Griff und das wichtigste ist, jeder kann über eine Lizenz seine eigene Prozessoren auf ARM Basis backen, was mit x86 nicht geht.
Die Software Anbindung an x86 insbesondere Computerspiele, werden x86 noch eine Weile am Leben halten.
Auf RISC V bin ich umso entspannter, weil ein freier Standard für alle : )
 
SoDaTierchen schrieb:
Würde man einen ARM-Chip aufstellen, der in jeder Lebenslage ebenbürtiger Konkurrent zu x86 ist, wäre der Vorteil bei der Effizienz dahin.
In welcher Lebenslage ist denn ein M1 kein ebenbürtiger Konkurrent zu x86?

Abgesehen von weitestgehend irrelevanten Speziakinstruktionen die es auch bei x86 nicht durchgehend gibt sehe ich da nichts.

Die Effizienz erreicht der M1 meines Erachtens über eine sehr breite Architektur die bei der Taktfrequenz deutlich näher am Sweet Spot läuft, als dass bei x86 aktuell der Fall ist und nicht dadurch, dass bestimmte Funktionalitäten weggelassen werden.
 
Apple zeigt im MacBook beeindruckend was ARM kann. Zwei Punkte die im Desktop den Umstieg schwer bzw. Nachteilig machen: 1) Kompatibilität von sämtlicher Software die auf x86 fußt. (Legacy Thematik)
2) Abschied vom Baukastensystem was dem User eine gewisse Wahl und damit Konkurrenz zulässt. Desktop PC aufrüsten oder Reparieren? Kein Thema!
Stört aber Hersteller, die würden am Liebsten Apple Style alles hochintegrieren und Aufrüsten zugunsten von Neukauf abschaffen. Dass die breite Masse das akzeptiert zeigen Smartphones die 0 Upgrades zulassen, nichtmal mehr den Akku wechseln. Okay bei den Phones hat es Vorteile dass die teile hochintegriert sind weil der Platz knapp ist, aber wenn das im Desktop einzug hält würde ich das sehr sehr schade für Verbraucher finden.
 
  • Gefällt mir
Reaktionen: Pleasedontkill
foofoobar schrieb:
Im Wintel Markt müssen auch 30 Jahre alte Blobs noch laufen sonst wäre man schon längst von Wintel weg.

Schoen waer's. Ich habe da DOS-Spiele, die ich vor weniger als 30 Jahren gekauft habe, die nicht laufen, und ein Windows-Spiel von 2009, wo die alte Installation auf Windows 8.1 nicht mehr lief (zum Glueck war das noch unterstuetzt und man konnte eine neue Installation machen).

Es reicht Microsoft, wen eine kritische Masse an alten Programmen noch laeuft, die gewichtig genug ist, dass die Leute nicht von Windows weggehen. Dazu muessen laengst nicht alle Programme laufen.
 
Miuwa schrieb:
Linux wird auf absehbare Zeit ebenfalls nicht den support für x86 einstellen.

Zumindest Ubuntu will den 32-bit-Support einstellen.
 
ModellbahnerTT schrieb:
Das macht dann aber wieder die Entwicklung aufwändiger.

Meinst du Software oder Hardware?
Viele Einsatzgebiete erlauben mittlerweile die Nutzung von vielen Threads, v.a. im Serverbereich, und da sind dann Prozessoren mit vielen einfachen Kernen energieeffizienter, v.a. wenn die Taktfrequenz jedes Kerns (je nach Auslastung) separat verändert werden kann.

Und auch bei Desktop-Rechnern ist mittlerweile eine Aufteilung in viele Threads möglich, wobei das ebenfalls von den genutzten Anwendungen abhängt. Videoschnitt und Grafikrendering z.B. lassen sich aber recht gut mit der Anzahl der Threads skalieren.
 
Bei der Betrachtung spielt die Software noch immer eine große Bedeutung. Man sieht es an Apples Architekturwechseln, dass sowas ein ordentlicher Bruch sein kann. Gerade exklusive Software ist ein Totschlagargument und x86 hatte lange Zeit, in dem Segment etwas anzuhäufen.
Zudem sollte man mit dem M1 und Ryzen/Core nicht vergessen dass man hier Äpfel (höhö) und Birnen vergleicht.
Die M1 Plattform ist ein SoC mit sehr schnellem Speicher, der ähnlich wie in den Konsolen Bottlenecks verhindert. Ich bin mir sicher, mit einem x86 und der Speicheranbindug dreht x86 weiter riesen Kreise um ARM - gerade wenn es um Dinge geht, die nicht in Special Function Units ausgegliedert sind. Video Encoding rein auf CPU Seite lässt jeden ARM schmelzen würde ich mal behaupten.
Ich mag bei ARM aber die ASM-Syntax, ist schon geil 3 Register pro Schritt nutzen zu können :3
 
HITCHER_I schrieb:
AMD will ja AFAIK. in den nächsten 10 Jahren die Effizienz auch Faktor 25
Gibt es da noch eine andere Aussage zu oder verwechselst Du da gerade etwas?
In ~8 Jahren fände ich das jetzt aber eher nicht so sportlich
AMD setzt sich 30x-Effizienzziel fürs Datacenter bis 2025
Es gab ja auch schon das Ziel 25x20 aus 2016, welches mit dem 4800H und "up to" Faktor 30+ deutlich überschritten wurde.
Im Datacenter sollte das mit GPU Hilfe evtl. leichter fallen.
BxBender schrieb:
Ich begrüße aber natürlich die Tatsache, dass man durch die vielen Transistoren ein System geschaffen hat, womit man mit weinig Stromaufnahme trotzdem eine excellente Leistung schaffen kann.
Dem sollten sich AMD und vor allem aber Intel und NVidia unbedingt anschließen.
Bei Nvidia sehe ich aktuell Probleme, da sie zumindest bei den größeren GPU´s mittlerweile eher aus dem Rahmen fallen, während AMD zumindest bei den Referenzdesigns bisher nicht die 300W Latte gerissen hat und die Effizienz jeweils um ~50% verbessert bzw. diese verbessern will.
 
DoSBos_74 schrieb:
Es gibt keine kaufbare native CISC CPU mehr.
Aktuelle X86 CPUs übersetzen die CISC Befehle in RISC MicroOps und aktuelle ARM CPUs (nutzen intern auch MicroOps) haben auch nach außen hin ähnliche Befehlssätze wie X86 CPUs.

RISC bezieht sich auf Eigenschaften von Befehlssaetzen (das Interface zwischen Software und Hardware); CISC sagt eigentlich nur, dass ein Befehlssatz diese Eigenschaften nicht hat. Wie das intern implementiert ist, ist egal.

Ganz abgesehen davon verwendet AMD meines Wissens noch immer einen load-store Mikrobefehl; sowas sieht man in keinem RISC-Befehlssatz.

Die Klassifizierung ist überholt.

Wenn man sich Befehlssaetze fuer Allzweck-Computer seit 1990 anschaut, dann folgen Power(PC), Alpha, IA-64, Aarch64, und RISC-V den RISC-Grundsaetzen, nur AMD64 nicht. Bei AMD64 liegt es daran, dass der Befehlssatz vom IA-32-Befehlssatz abgeleitet ist, und vor allem, dass man auf lange Zeit IA-32 unterstuetzen musste; man hatte also die Nachteile von CISC sowieso am Hals, da versprach es keinen kurzfristigen Vorteil, AMD64 nach RISC-Grundsaetzen zu entwerfen.

Worauf ich hinaus will: Wenn die Klassifizierung ueberholt waere, dann wuerden nicht die meisten dieser Befehlssaetze nach RISC-Grundsaetzen entworfen werden.
 
  • Gefällt mir
Reaktionen: Piktogramm
Piktogramm schrieb:
Das ist das Schema von Golden Cove, dem Performance Kern.

Das Schema von Gracemont, dem Effizienzkern, ist folgendes:
https://fuse.wikichip.org/wp-content/uploads/2021/08/intel-arch-21-gracemont-header-1536x842.png

https://en.wikipedia.org/wiki/Gracemont_(microarchitecture)#/media/File:Gracemont.png

Mit dem L2 Cache belegt ein Golden Cove Kern die gleiche Chipfläche wie vier Gracemont Kerne mit L2 Caches.
Vier Gracemont Kerne schaffen allerdings insgesamt mehr Rechenoperationen pro Sekunde wenn der Workload in vier Threads abgearbeitet werden kann.
Deshalb wird auch der Alder Lake Nachfolger höchstens 8 Performance Kerne erhalten, aber die Anzahl der Effizienz Kerne wird verdoppelt.

Wer mehr Performance Kerne haben möchte muss zu Xeon CPUs greifen oder zu AMD CPUs greifen.
Ergänzung ()

Rejin schrieb:
ARM Kerne sind leistungsfähig, haben den mobilen fest im Griff und das wichtigste ist, jeder kann über eine Lizenz seine eigene Prozessoren auf ARM Basis backen, was mit x86 nicht geht.
Zumindest jeder der über die dafür notwendige Lizenz verfügt, welche bei ARM erworben werden muss.
ARM Kerne liegen derzeit vorne was die Effizienz betrifft, das stimmt, wobei z.B. die Cortex-X Reihe auf Performance getrimmt wurde, zu Lasten der Energieeffizienz.
Deshalb gibt es auch keine ARM-SoC welche nur mit Cortex-X Kernen arbeitet, diese wären zu energieineffizient.

Rejin schrieb:
Die Software Anbindung an x86 insbesondere Computerspiele, werden x86 noch eine Weile am Leben halten.
Das betrifft nicht nur Spiele, sondern im Prinzip jede derzeit genutzte, professionelle, teure, closed source x86-Software.
Ergänzung ()

Wölkchen schrieb:
Wer sagt hier was von kurzer Zeit? Du interpretierst in eine kurze, wertungsfreie Information aber ganz schön viel hinein. Wie viel oder wenig hinter den Kulissen vielleicht von chinesischen Herstellern an derartigen CPUs gearbeitet wird, ist für die Öffentlichkeit komplett unklar.
Ok, aber weshalb sollte ein Land wie China eigene CPUs mit x86 Befehlssatz entwickeln und produzieren? China setzt doch auf eigens entwickelte Software u. CPUs, v.a. in öffentlichen und staatlichen Bereichen.
In Schulen und Behörden noch vorhandene PCs mit x86-CPUs sollen durch Rechner aus chinesischer Entwicklung und Produktion ersetzt werden. (CPU-Kerne mit LoongArch aus eigener Entwicklung)
x86-CPUs spielen im Prinzip nur in Privathaushalten eine Rolle.

Was die Märkte in anderen Ländern betrifft: Die Frage ist ob der Markt x86-64 CPUs aus chinesischer Produktion überhaupt annehmen würde. Falls x86 CPUs aus chinesicher Entwicklung irgendwelche Patente verletzen würden diese in bestimmten Ländern ohnehin mit einem Verkaufsverbot belegt werden.
Die USA wird die Nutzung von CPUs aus China höchst wahrscheinlich boykottieren.

Wölkchen schrieb:
Das ist kein Unterschied zu anderen CPU-Architekturen wie Risc V, wo letztendliche Implementierungsdetails auch von Intel oder so gehalten werden können.
Naja, bestimmte Informationen lassen sich in Patentschriften doch finden, wenn auch nicht unbedingt ins kleinste Detail.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Piktogramm
Zurück
Oben