News Sonntagsfrage: ARM oder x86, wem gehört die Zukunft in Server und PC?

cansys schrieb:
Ein SoC ist eine gänzlich andere Architektur als eine monolithische CPU. Die APU kannst du zwischen CPU und SoC einordnen, allerdings nur begrenzt.

Apples Lösungen sind nur in der Welt von Apple einsetzbar. Hier Vergleiche zu Windows oder der Vielzahl an Linux-Distributionen ziehen zu wollen, ist einfach sinnbefreit. Apples Betriebssysteme sind auf die eigenen Systeme optimiert, sowohl mit Vor- als auch mit Nachteilen. Das galt schon zu Zeiten mit der Verwendung von Chips von Dritten (Intel) als auch mit den hauseigenen M1-SoCs.

Was glaubst du, warum Apple im Business-Umfeld nur eine Nebenrolle spielt? Und ja, wir reden hier vom wichtigen Geschäftskundenmarkt. Und nein, ich rede nicht von Tablets in schulischen Einrichtungen, sondern von Notebooks und Desktop-Systemen.
Finde ich nur medi überzeugend.

Man kann zB ein Auto mit Verbrennungsmotor kaufen oder mit E-Antrieb. Beide Funktionen komplett anders aber am Ende des Tages interessiert sich der Kunde nur dafür, dass man möglichst effizient von A nach B kommt. Und das System mit weniger Energieverbrauch würde ich dem mit hohen immer bevorzugen.
Und da macht der M1 ein Punkt. Klar Rosetta ist jetzt nicht so cool aber irgendwann muss man ein cut machen und niemand sagt das ARM auf ewig die Zukunft ist. Aber ich wünsche mir da endlich mehr Dynamik auf den PC Markt. Die Rechenleistung geht kontinuierlich hoch aber die Akkulaufzeit bleibt miserabel. Das finde ich als Kunde echt deprimierend…
 
  • Gefällt mir
Reaktionen: Mister79
KurzGedacht schrieb:
Das ist meines Wissens Unsinn.
Arm CPUs sind generell genauso General Purpose CPUs wie x86 auch.
Das steht ja gar nicht im Widerspruch zu meiner Aussage. Ich sagte, die effizienten Designs können bestimmte Aufgaben besonders gut. Natürlich sind die auch breit einsetzbar, aber ein ARM-Chip, der z.B besonders energiesparend Vektorberechnungen ausführen kann wird bei anderen Sachen wie z.B. AES-Berechnungen nicht so effizient sein. Je mehr Aufgaben der ARM-Chip gut kann, umso schlechter wird die Energieeffizienz. ARM ist keine überlegene Architektur. Sie enthält nur viel weniger "Pflicht"-Bestandteile, weshalb die Designs schlanker sind. Würde man einen ARM-Chip aufstellen, der in jeder Lebenslage ebenbürtiger Konkurrent zu x86 ist, wäre der Vorteil bei der Effizienz dahin. Aber so ein Chip wäre schlecht Werbung für ARM, weshalb existierende Designs oft sehr stark in eine Richtung optimiert sein (spezialisiert).
 
SoDaTierchen schrieb:
Das würde wenigsten mal erklären warum man beim iPhone für jede neue Spezialaufgabe ein neuen Kern hinzu fügt. Glaub der U1 war doch vor paar Jahren das Ding, oder? 👍🏻
 
Zuletzt bearbeitet von einem Moderator:
Mad-Ric schrieb:
Ein Vergleichstest zwischen Verbrennungs- und E-Motor ist genauso wenig sinnvoll. Auch hierbei handelt es sich um verschiedene technische Lösungen. Für einen Test müsste man die verschiedenen Einsatzzwecke (Kurz-, Mittel- und Langstrecken) mit dem Nutzungsverhalten (selten, gelegentlich, häufig) und Nutzungsarten (privat, geschäftlich oder gemischt) vergleichen.

Dazu kommen dann neben den Beschaffungs- noch die Unterhaltungskosten zzgl. Steuern hinzu. Elektroautos werden anders unterhalten und entsprechend besteuert als Fahrzeuge mit Verbrennungsmotoren. Die Kosten müssen dann im Vergleich mit einfließen. Glaube mir, so ein Test packst du gerade mal im Fazit auf eine Seite, aber nicht im Detail. Viel Text lesen sich die Konsumenten erfahrungsgemäß nicht durch. Die interessieren sich für das Wenn und Aber schlichtweg nicht.

Wenn du ein Notebook für 0815-Aufgaben (Office, Internet, E-Mails etc. pp.) mit einem moderaten Energieverbrauch haben möchtest, empfehle ich dir ein Notebook mit Linux Mint. Aber ich weiß eben nicht, was du mit dem Notebook so alles machst...
 
Zuletzt bearbeitet von einem Moderator:
cansys schrieb:
Na gut, ich gebe zu der Vergleich war ungünstig gewählt aber ja. Dato heute für Office, MATLAB etwas Phyton Knicken bei uns quer Feld alle PCs zwischen 1-3 Std. ein das ist enttäuschend. Einer nutzt für das gleiche ein M1 Air und das schafft den halben Arbeitstag im Büro. Danach wird es angesteckt wegen der Pause nicht weil der Akku leer ist. Just saying 🤷🏻‍♂️
Auch verfehlt Deine Argumente über den usecase total das Thema, da der usecase klar definiert wurde. Das mobile Arbeiten auf dem Notebook. Meine Frage ging nicht um Server Betrieb oder irgendwas anderes.
 
Zuletzt bearbeitet von einem Moderator:
Radde schrieb:
Nur wenn MS es hinbekommt irgendwann ein "richtiges" Windows on ARM rauszubringen wird sich die Technologie in der vollen Breite durchsetzen. Dazu gehört auf jeden Fall eine problemlose Abwärtskompatibilität. Sobald MS das hinbekommt kann es den großen Umschwung geben.
Was genau ist an Windows 11 ARM nicht "richtig"?
 
Mad-Ric schrieb:
Nutzt ihr nun PCs oder Notebooks? Und was für Systeme nutzt ihr? Ich kann nicht auf die Details eingehen, wenn du sehr schwammig kommentierst. Mehr Details bitte, was die Hardware und Software betrifft.
 
Zuletzt bearbeitet von einem Moderator:
Wahrscheinlich kommt die nächsten Jahre irgendwas ganz anderes um die Ecke und das wars dann für herkömmliche Rechenwerke.
 
  • Gefällt mir
Reaktionen: Mad-Ric
x86 ist genau so skalierbar wie ARM, es hängt mMn nicht nur an der Komplexität der Kerne und deren Anzahl, sondern auch am IMC bzw. I/O wie weit man x86 Prozessoren herunterskalieren kann. Cezanne mit 8 Kerne z.B. ist ein unglaublich guter Allrounder, der seinen Sweetspot zwar bei 13 bis 15 Watt hat, also perfekt an das Low Power-Segement (U-Serie) angepasst ist, aber dennoch bis rund 60 Watt ordentlich skaliert.

Hier ein Vorgeschmack von dem was ich gerade untersuche (PSU = Seasonic TX-650W; System-Idle = ~9 Watt):
Cezanne Skalierung.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheCrazyIvan, LukS, bad_sign und 3 andere
Wölkchen schrieb:
In den nächsten Jahren laufen die x86_64-Patente aus.
Dann bin ich mal gespannt welches High-Tech-Unternehmen in kurzer Zeit von den Befehlssatz-Definitionen ausgehend und patentfreier Technik einen konkurrenzfähigen Prozessor auf den Markt bringen wird.

Ist im Prinzip unrealistisch, selbst wenn der Befehlssatz selber patentfrei ist eine leistungsfähige CPU zu entwickeln rund um den Patent-Dschungel was die konkrete Implementierung in Hardware betrifft.

Ausserdem fallen Befehlssatz-Erweiterungen wie SSE2 und neuer, wie AVX, sicherlich noch unter den Patentschutz.
Der Basisbefehlssatz dürfte mittlerweile frei sein; bzw. der ursprüngliche 32-Bit x86 Befehlssatz ist schon länger patentfrei.
 
  • Gefällt mir
Reaktionen: chartmix, konkretor und foo_1337
Mad-Ric schrieb:
Das würde wenigsten mal erklären warum man beim iPhone für jede neue Spezialaufgabe ein neuen Kern hinzu fügt.

Machen die anderen Smartphone-SoC-Hersteller auch. Der Grund ist nicht, dass die allgemeinen Kerne mit Zusatzbefehlen fuer solche Aufgaben in anderen Faellen nennenswert mehr verbrauchen wuerden (tun sie nicht, warum auch), sondern dass fuer manche Aufgaben ein Spezialprozessor einfach wesentlich weniger Strom braucht als ein allgemeiner mit Befehlssatzerweiterung. Und das ist gerade bei Mobilgeraeten so wichtig, dass man dem dann auch die zusaetzliche Flaeche spendiert, wenn das Geraet nennenswert Zeit mit dieser Aufgabe verbringt (z.B. Spracherkennung oder Videodekodieren)
 
  • Gefällt mir
Reaktionen: Mad-Ric
Steht doch im Text oben 🤔
Office also MS Office, eigene MATLAB Programme und eigene Phyton Programme. (Mehr gehe ich nicht ins Detail). Des Weiteren verstehe ich nicht was es zur Sache tut, Das sind diese 08/15 Systeme von Lenovo Dell oder andere Business Systeme, was so in der Industrie halt genutzt wird. Überzeugt halt garnicht wenn man als Applications Engineer ständig Steckdosen in der Prüfhalle suchen muss…
Wie gesagt was paar OSI Schichten drunter werkelt ist sekundär.
PS was in der Signatur steht ist mein privater PC und nicht das was ich zum arbeiten nutze 😉
 
foo_1337 schrieb:
Wieso sollte Apple plötzlich anfangen sich weltweit in Rechenzentren einzumieten? Das wäre völlig unrentabel
Hä? Da sind sie doch eingemietet, siehe Amazons AWS
Keine Ahnung, was du da jetzt durcheinander bringst!

Ich meine damit, das Sie eigene ausbauen könnten
 
  • Gefällt mir
Reaktionen: konkretor
SoDaTierchen schrieb:
Das steht ja gar nicht im Widerspruch zu meiner Aussage. Ich sagte, die effizienten Designs können bestimmte Aufgaben besonders gut. Natürlich sind die auch breit einsetzbar, aber ein ARM-Chip, der z.B besonders energiesparend Vektorberechnungen ausführen kann wird bei anderen Sachen wie z.B. AES-Berechnungen nicht so effizient sein. Je mehr Aufgaben der ARM-Chip gut kann, umso schlechter wird die Energieeffizienz. [...]
Grundlegend falsch, wenn eine CPU Vektorberechnungen kann, ist sie grundsätzlich auch schnell bei AES und allen vergleichbaren Hashing-/Cryptofunktionen. Genauso stimmt es nicht, dass Spezialisierung auf die Effizienz drücken muss. Die CPUs betreiben schon seit längerem powergating, wenn Vektoreinheiten nicht benötigt werden, dann hängen die Pipelines nicht mehr an der Energieversorgung und meist auch nicht mehr am Taktgeber. Es wird aber auf jeden Fall Fläche benötigt, was Kosten treibt.
Was bei größeren Vektoren immer ein Problem ist, ist Branching anhand/für einzelne Werte im Vektor. Was oftmals erzwingt, dass man den ganzen Vektor durch jeden in Frage kommenden Zweig durchschleust. Deswegen haben sich da seit längerem auch schon Lösungen etabliert. Für Anwendungen, die große Vektoren mit wenig Branching erfordern haben sich Architekturen herauskristalisiert die organisiert sind wie in GPUs mit dicken parallelen Vektoreinheiten.
Für die Fälle, wo man weiß, dass es viele Branches gibt, verzichtet man lieber auf Vektoren und setzt auf simplere Instruktionen. Bis hin dazu dass bei ARM Thumb2 und bei Risc-V die E-Extension genutzt werden können um bei stark lokalisierten Branches effizienter arbeiten zu können[1][2].


[1] Keine Ahnung ob es da eine Entsprechung zu X86 gibt..
[2] Gleichzeitig ist das ein Bereich der Optimierung der nur selten genutzt wird. Der Aufwand Datenstrukturen und Code derart anzupassen, dass man davon ernsthaft profitieren kann, ist mir so noch nicht untergekommen.
 
  • Gefällt mir
Reaktionen: Mad-Ric
+1 für ARM wegen Leistung pro Watt.
Wird meiner Meinung nach die nächste Zeit immer wichtiger. Selbst Intel setzt ja aufs BigLittle Konzept.

Wenn die Autohersteller etc schlau wären, sollten sie auf RiscV setzen um Lizenzahlungen zu entgehen. Aber irgendwie scheint es keinen zu interessieren.

Danach werden wohl die Quantencomputer kommen.
 
  • Gefällt mir
Reaktionen: Letigo
Helge01 schrieb:
Ich denke es wird in Zukunft mehr Spezialisten von CPUs geben statt Allrounder wie x86. So eine Eierlegende Wohlmilchsau kann zwar viel, aber davon nichts richtig. Speziell für den jeweiligen Einsatzzweck konstruierte ARM CPUs sind mit angepasster Software dagegen sehr leistungsstark und effizient. Auch wenn es bei x86 noch Spielraum nach oben gibt, bleibt die ARM Weiterentwicklung ja auch nicht stehen und dort ist bedeuten mehr Luft nach oben.
Das Problem dabei ist das auch ein ARM in einen PC eine Eierlegende Wohlmilchsau sein muss.
 
Piktogramm schrieb:
Vektorberechnungen kann, ist sie grundsätzlich auch schnell bei AES und allen vergleichbaren Hashing-/Cryptofunktionen. Genauso stimmt es nicht, dass Spezialisierung auf die Effizienz drücken muss. Die CPUs betreiben schon seit längerem powergating, wenn Vektoreinheiten nicht benötigt werden, dann hängen die Pipelines nicht mehr an der Energieversorgung und meist auch nicht mehr am Taktgeber. Es wird aber auf jeden Fall Fläche benötigt, was Kosten treibt.
Sehr interessant. Weißt du warum der Trend immer mehr zu kleinen Spezialisierten Kerne bei iPhone und Co geht. (Sind ja in dem Fall ARM Systeme) Würde mich brennend interessieren. Wenn man googelt findet man nur was die Kerne machen nicht warum elektrotechnisch ein separater Kern Sinn ergibt. 😇

Wurde oben beantwortet, hab es überlesen sorry ✌🏻
 
SoDaTierchen schrieb:
Sie enthält nur viel weniger "Pflicht"-Bestandteile, weshalb die Designs schlanker sind.

ARM CPUs sind mitnichten automatisch schlanker.
Apples Performance Kerne sind zusammen mit den Power10 Kernen das breiteste und am größten pro Kern aufgestellte, was es so gibt. Bis ARM v9 fehlte lediglich ein nicht proprietärer Befehlssatz für Vektoren über 128b zu verarbeiten. In der Praxis wurde dies mit mehr Pipelines kompensiert, was in den meisten Anwendungsfällen schneller ist.

Hauptunterschied zwischen ARM und modernem X86 sind fixe gegen dynamische Befehlslänge (dadurch und den geringeren Umrechenaufwand sind ARM Decoder häufig breiter), das Abschneiden alter 32bit Zöpfe (wobei diese auch bei X86 teilweise Power Gated sind) und die Anzahl an Firmen mit ISA Lizenz.

Intern wird eh alles auf microOps runter gebrochen. Da nutzt dann jede CPU Gen eine eigene Architektur, welche durch den Decoder kompatibel gehalten wird.
 
  • Gefällt mir
Reaktionen: TomH22, Innocience und Mad-Ric
andi_sco schrieb:
Hä? Da sind sie doch eingemietet, siehe Amazons AWS
Keine Ahnung, was du da jetzt durcheinander bringst!
Apple ist bei AWS nicht "eingemietet". Apple nutzt von AWS Services wie S3 für die iCloud. Ich glaube eher, dass du da was durcheinander bringst ;) Bei AWS mietet sich niemand ein.
 
Einfache Sache: macht meinen einen ordentlichen CUT, dann kann sicherlich ARM die x86-Architektur ablösen. Ohne alte Zöpfe abzuschneiden (und damit folglich den CUT) wird das aber wohl kaum gehen. Apple ist dafür bekannt gerne alte Zöpfe abzuschneiden und hat damit Erfahrung. Auch die Besitzer von Apple-Gerätschaften sind daran gewöhnt und machen diese Architekturwechsel gerne mit. Ich kann mir nicht vorstellen, dass die PC-Anwender dies auch bei der x86-Architektur befürworten würden. Sämtliche alten Anwendungen wären auf einen Schlag "tot" oder müssten aufwendig emuliert werden. Man würde bei quasi "null" anfangen.

Ich - für mich selbst - würde es nicht unbedingt begrüßen.
 
Zurück
Oben