Ned Flanders
Fleet Admiral
- Registriert
- Aug. 2004
- Beiträge
- 11.609
In was ist ARM denn besser?Pipmatz schrieb:Mag sein das für manche Anwendungsgebiete x86 besser ist…
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In was ist ARM denn besser?Pipmatz schrieb:Mag sein das für manche Anwendungsgebiete x86 besser ist…
Klar, der reduzierte Befehlssatz und die damit verbundene Möglichkeit, mehr Decoder zu verwenden ist ein Vorteil für ARM, welcher die Effizienz steigert.DevPandi schrieb:
Beitrag im Thema 'Gegen Arm und RISC-V: AMD und Intel verbünden sich für die Zukunft der x86-CPU'schwimmcoder schrieb:
schwimmcoder schrieb:bezweifle, dass schon alle Apps und Programme auf ARM portiert sind. Das wird halt daran scheitern, dass es ein Henne-Ei Problem ist.
schwimmcoder schrieb:Die jetzige Windows on ARM Sache kommt ja nur in Fahrt
schwimmcoder schrieb:Apple hat ja auch nen kompletten Wechsel zu ARM vollzogen, x86 Emulation inkl.
schwimmcoder schrieb:Das wird Windows nie haben, weil x86 gerade im Desktop noch viel zu relevant ist und auch bleiben wird.
schwimmcoder schrieb:Für Single-Core Anwendungen, die von einem hohen Takt profitieren oder wo Effizient wenig relevant ist, sondern stumpf Leistung zählt.
schwimmcoder schrieb:ARM wird brutal ineffizient, wenn man den Takt auf x86 Verhältnisse hochsetzt.
Ich weiß, das hat dennoch nix mit ARM zu tunfoofoobar schrieb:Google hat das System Gefägniscomputer von Apple kopiert, allerdings bei weiten nicht so massiv wie Apple.
Nö eben nicht.Alesis schrieb:Nein, da bist du auf der falschen Fährte.
Mit dem Abschnitt geht ich nicht mit. Der Vorteil von RISC ist es, einen fixe Länge zu haben, wodurch mehr Decoder die Befehle verabreiten können und an die entsprechenden Teile der CPU-Kerne weiterreichen können. Durch die Variable Länge der Befehle bei CISC können nicht beliebig viele Decoder parallel arbeiten.DevPandi schrieb:Für die "Leistunfsfähigkeit" - so wie sie hier verwendet wird durch Kirk und manche andere - ist es vollkommen egal ob RISC oder CISC. Beides beschreibt primär, wie die ISA aufgebaut wird und welche "sichtbaren" Befehle man hat. Heute abreiten alle CPUs "intern" mit µOPs und entsprechend finden sich CISC-Befehle heute auch in der ARM ISA und umgekert findet man RISC-Befehle in der x86 ISA.
CISC-RISC ist also für die weitere Diskussion über die Leistungsfähigkeit der Prozessoren irrelevant.
Ja, du bist nicht die Allgemeinheit..Pipmatz schrieb:Das was ich brauchte ging.
Der Prozentsatz steigt mit der Anzahl verfügbarer Programme für Windows on ARMPipmatz schrieb:Und bei wie vielen % der (Windows) User würde auch ein Windows on Arm ausreichen?
Wieso? Oder verkaufen Intel/AMD auch nur an Endkunden? Chips werden für den gesamten Markt gefertigt, also muss da auch der gesamte markt betrachtet werden.Pipmatz schrieb:Lassen wir den Unternehmensbereich raus!
Widerspruch in sich selbst, merkste selber, oder?Pipmatz schrieb:Also außer in ein paar Nischen sehe ich den x86 nicht als heilige Kuh.
Ich glaube auch nicht das x86 verschwinden wird, aber langsam und sicher unbedeutend werden. 😉
es verwirrt mich so sehr. alleine am pc, dass ich 2x program files habe. eins davon x86 und genau hier sind angeblich die 32bit anwendungen. dann sehe ich eine anwendung in beiden ordnern und bin verwirrter.Web-Schecki schrieb:x86 ist die Bezeichnung für eine Befehlssatzarchitektur-Familie. Der genaue Befehlssatz wurde und wird ständig erweitert. In der Urversion im Intel 8086 und in den ersten Nachfolgern nutzte man sogar nur eine Wortbreite von 16 Bit. Mit dem Intel 80386 kam dann eine 32-Bit-Erweiterung dazu. Die Bezeichnung der Prozessoren endete immer auf "-86", daher "x86".
Später hat AMD eine 64-Bit-Erweiterung implementiert, die von Intel übernommen wurde. Die bezeichet man manchmal als AMD64, x64, oder auch x86-64.
Pipmatz schrieb:Wo sind denn die ganzen tollen Intel Prozessoren in Smartphones und Tablets?
Das weiß ich.😎schwimmcoder schrieb:Ja, du bist nicht die Allgemeinheit..
Das bestimmt.schwimmcoder schrieb:Der Prozentsatz steigt mit der Anzahl verfügbarer Programme für Windows on ARM
schwimmcoder schrieb:Wieso? Oder verkaufen Intel/AMD auch nur an Endkunden? Chips werden für den gesamten Markt gefertigt, also muss da auch der gesamte markt betrachtet werden.
schwimmcoder schrieb:Widerspruch in sich selbst, merkste selber, oder?
Sehr schade, dass sich das irgendwo zwischen Seite 1 und 100 über hunderte Kommentare verliert.DevPandi schrieb:Ich konnte manches nicht so stehen lassen. Doofer Autismus und doofe Zwangsstörung.
Dies dürfte auch ein Schritt sein, um sich gegen Arm und RISC-V zu wappnen.
Das ist das was die PR Abteilung von Arm gerne erzählt. Aber es stimmt nicht. In meinem ersten Post habe ich eine Studie verlinkt, die das untersucht hat. Es ist die Mikroarchitektur, die über Performance, Power und Area entscheidet, nicht die ISA.TigerherzLXXXVI schrieb:Für mich ist ein Bündis zur Zukunftssicherung von x86 der falsche Schritt. Ich verstehe zwar die Gründe, aber im Grunde stellt man sich gegen die bessere (effizientere) Chip-Architektur - quasi so wie es in der Vergangenheit etwa die Erdölindustrie beim Elektroauto gemacht hat.
Linux ist schon lange frei von 32-Bit Altlasten, wie sieht das den bei Windows aus?k0ntr schrieb:kann mich jemand aufklären. x86 bedeutet doch soviel wie 32+64bit systeme. gibt es weiterhin noch so viele 32bit systeme, kann man die nicht endgültig rausschmeissen?
Das ist keine inhärente Eigenschaft der ARM-ISA. Es ist einfach nur so, dass ARM historisch eben aus dem Low-Power-Bereich kommt. Es wäre ohne weiteres möglich auch eine High-Power CPU auf ARM-Basis zu entwickeln. Das hat nur eben noch niemand gemacht.schwimmcoder schrieb:ARM wird brutal ineffizient, wenn man den Takt auf x86 Verhältnisse hochsetzt.
schwimmcoder schrieb:ARM CPUs können weitaus besser Multithreading, weil der Befehlssatz auf eine reduzierte Größe und fixe Länge definiert ist. Das steigert die Effizienz.
Es ist richtig, dass die Eigenheiten von CISC das dekodieren schwieriger macht. Das macht sich allerdings in erster Linie dadurch bemerkbar, dass die entsprechenden Dekoder aufwendiger/größer sein müssen und daher mehr Chipfläche und Strom verbrauchen. Das ist aber auch schon alles.schwimmcoder schrieb:Klar, der reduzierte Befehlssatz und die damit verbundene Möglichkeit, mehr Decoder zu verwenden ist ein Vorteil für ARM, welcher die Effizienz steigert.
Es geht darum die Weiterentwicklung von X86 gemeinsam zu planen anstatt zu versuchen Befehlserweiterungen in den Markt zu drücken.Tulol schrieb:Verstehe ich nicht ganz.
AMD, die selber ARM Chips produzieren, Microsoft die versuchen Win on ARM voran zu bringen, Google deren quasi monopol bezügl. Mobilem OS praktisch nur auf ARM setzt....
Konkurrenzkampf? Wo? Soweit ich das sehen kann, kosten CPUs die das gleiche Leisten in beiden Lagern genau das Gleiche. Das sieht vielleicht so aus, als ob es eine Konkurrenz gäbe, aber es ist genauso wie bei den Grafikkarten, jeder lässt dem anderen seinen Raum. Bei einem Duopol gibt es nun mal keinen echten Konkurrenzkampf, da es beide in den Ruin treiben würde. Außerdem haben wir jetzt gerade eine ruhige Phase, weil AMD und Intel sich mehr oder weniger auf Augenhöhe bewegen, aber das Verhältnis ist schon oft gekippt und wird auch wieder kippen. Man stelle sich nur vor AMD wäre tatsächlich pleite gegangen und nu steht Intel auf der Kippe. Das ist für keinen gut.DevPandi schrieb:Ja, es gibt aktuell nur 2 Hersteller, die eigene µ-Archs entwerfen, aber wenigsten gibt es genau diese beiden Hersteller, die auch in einem entsprechenden Konkurrenzkampf mit einander agieren.
Was stimmt nicht? Ich glaube du dichtest diesem Gremium etwas zuviel Macht an. Die anderen Firmen werfen Wünsche ein, dass machen die aber auch schon vor dieser "Allianz" schließlich orientiert sich Hardware immer auch an Software. Die Zielsetzung ist doch recht wage und nichts Neues. Wie haben AMD und Intel denn bisher entwickelt? Komplett mit Scheuklappen ohne mal mit den OS Herstellern und Entwicklern von Highperformance-Software zu reden? Das ist doch jetzt nur blinder Aktionismus um von ARM oder gar Nvidia abzulenken. Der Hohn ist doch das MS mit drin sitzt. Ohne Windows on ARM bräuchte man doch nicht mal diese Allianz...DevPandi schrieb:Das stimmt halt leider eben weitgehend nicht mehr. Wir haben hier mit der Allianz ein Verbund mehrer Firmen, die gemeinsam an der Zukunft von x86 arbeiten und zwei Hauptkonkurrenten, die wirklich eigene µ-Archs entwerfen.
Ich weiß das ARM im Streit mit Qualcomm ist, aber allen Firmen? Hast du mal Referenzen dazu?DevPandi schrieb:ARM wiederum versucht aktuell quasi allen Firmen die Lizenzen zu entziehen, die es ihnen ermöglichen eigene µ-Archs zu entwerfen.
Auch das ist mir neu. Dazu kann ich spontan nichts finden. Auch hier wäre ich für nen Link dankbar.DevPandi schrieb:Und so wie es aussieht, wird ARM auch keine ISA-Lizenzen mehr vergeben, sondern maximal nur noch Lizenzen zur Nutzung der Kerne, die ARM selbst desigend.
Die ISA ist doch nicht das Problem. Was war denn die letzte wirklich bahnbrechende Entwicklung bei AMD/Intel? Gefühlt passiert bei ARM auf jeden Fall deutlich mehr als bei x86, die müssen schließlich IPs verticken, während z.B. bei Intel die letzten 6 Jahre immer nur die TDP erhöht wurde.DevPandi schrieb:Dazu kommt, dass ARM die ISA vollständig unter Kontrolle hat und damit die Entwicklung alleine bestimmt. Klar, alle können sich eine µ-Arch-Lizenz holen um einen Kern zu verwenden, das war es dann aber auch.
Wäre das wirklich schlimm? Lieber alle nahe beieinander, als ein BigPlayer wie Apple der mal eben 20-30 Milliarden in die Chip Entwicklung pumpt und dann alle an die Wand spielt. Damit hätten wir auch nichts gewonnen. Ich beäuge das auch bei RISC-V kritisch. Wenn da einer mal mit Geld dran geht und die Arch aufbohrt mit seinen eigenen porträtieren Erweiterungen und das in den Markt drückt, kann man sich auf die freie Architektur auch ein Ei pellen.DevPandi schrieb:Es wäre nur ein Vorteil für uns Nutzer, wenn ARM jeder Firma eine ISA-Lizenz gibt und die Firmen auch wirklich die Kraft haben eigene µ-Archs zu entwerfen. Ansonsten ist es der Einheitsbrei von ARM.
Selbst die ARM Cortex 520 haben Neon-Einheiten für 128bit und auch SVE mit mindestens 128bit. Die E-Cores von Intel haben genauso 128bit breite Pipelines, die sie auch für 256bit Vektoren nutzen. Für alles was eine moderne Smartwatch oder besser ist macht es keinen Sinn die Vektoreinheiten zu beschneiden. Kryptografie, Signalverarbeitung, Multimediakram und selbst HTML/Javascript-Parser nutzen diese Einheiten.andi_sco schrieb:Es gibt nicht die eine perfekte Lösung. Könnten z.B. die E-Kerne von intel ohne AVX2 nochmals deutlich sparen? Bei Fläche, Transistorbudget und Verbrauch? Wenn ja, wie nah sind sie dann an arm dran?
Intel Skymont: 3×3 Decoder und mit der Breite von 9 damit genauso breit wie Apples M4. Wobei das Problem da sowieso nur zweit bis drittrangig die gesamte Breite der Decoderstufe ausmacht sondern vielmehr die Fähigkeiten der Sprungvorhersageeinheit. Breite Decoder bzw. insgesamt breite CPUs bringen nichts, wenn die Hälfte der Pipelines auf falsch vorhergesagten Branches rumrechnet.schwimmcoder schrieb:Klar, der reduzierte Befehlssatz und die damit verbundene Möglichkeit, mehr Decoder zu verwenden ist ein Vorteil für ARM, welcher die Effizienz steigert.
Decodierte Befehle werden wenn durch den µOp-Cache vorgehalten und nicht durch einen I-Cache! Wobei viele größere CPUs für kleine Schleifen (~100 µOps) nochmals Loopbuffer oder Ähnliche Lösungen haben, weil die µOp Caches aufgrund ihrer Größe bei sowas auch wieder Effizienz- und Latenzprobleme darstellen.Limit schrieb:Moderne CPUs dekodieren viele Instruktionen auf Vorrat und speichern sie im I-Cache. [...]
Ich musste vor kurzen (Free-)DOS auf einer Zen2 Möhre für einen Firmware-Update booten.Web-Schecki schrieb:Wichtig ist, dass das alles immer erweitert wurde und theoretisch noch 16-bittige Software für den Intel 8086 aus den 70ern auf modernen 64-bittigen x86-Prozessoren nativ lauffähig ist.