News Gegen Arm und RISC-V: AMD und Intel verbünden sich für die Zukunft der x86-CPU

DevPandi schrieb:
Klar, der reduzierte Befehlssatz und die damit verbundene Möglichkeit, mehr Decoder zu verwenden ist ein Vorteil für ARM, welcher die Effizienz steigert.

Oder was soll es denn deiner Meinung nach sonst sein?
 
schwimmcoder schrieb:
bezweifle, dass schon alle Apps und Programme auf ARM portiert sind. Das wird halt daran scheitern, dass es ein Henne-Ei Problem ist.

Müssen sie auch nicht.
Man guckt, ob die wichtigen/ meistbenutzten Programme da sind oder Alternativen…fertig. 🤷🏻‍♂️

schwimmcoder schrieb:
Die jetzige Windows on ARM Sache kommt ja nur in Fahrt

Und weil es auch endlich qualcomm Prozessoren gibt die mit den M Prozessoren mithalten.
Natürlich: Desto mehr Anbieter desto besser.

Ein neues Duopol:
Intel/AMD -> Apple/ qualcomm

Braucht der Endkunde ganz sicher nicht!
schwimmcoder schrieb:
Apple hat ja auch nen kompletten Wechsel zu ARM vollzogen, x86 Emulation inkl.

Ja, aber darauf brauchte ich als normaler 0815 User nicht gucken. Das was ich brauchte ging.

Und bei wie vielen % der (Windows) User würde auch ein Windows on Arm ausreichen?

Ich sagte ja:
Es gibt genug Leute die machen alles (oder zu 90%) nur noch auf ihrem Smartphone / Tablet (ARM). 🤷🏻‍♂️
schwimmcoder schrieb:
Das wird Windows nie haben, weil x86 gerade im Desktop noch viel zu relevant ist und auch bleiben wird.

Lassen wir den Unternehmensbereich raus!
-> Nur private Endkunden und da ist der x86 Desktop schon lange keine unersetzbare Gottheit wie manche denken.

schwimmcoder schrieb:
Für Single-Core Anwendungen, die von einem hohen Takt profitieren oder wo Effizient wenig relevant ist, sondern stumpf Leistung zählt.

Nischen also, wenn man den Gesamten Markt anschaut.
Welche Grafikkarten sind noch mal am weit verbreitetsten bei Steam?

Die super duper Grafikkarte und der super stärkste x86 Prozessor sind nicht die 0815 Ausstattung wie manche in Technik Foren denken.
schwimmcoder schrieb:
ARM wird brutal ineffizient, wenn man den Takt auf x86 Verhältnisse hochsetzt.

Und den braucht man auch bzw. die Mehrheit der User?

Für mobil ist ARM das beste. 🤷🏻‍♂️
-> Smartphone, Tablets, Laptops…

Wie viele kaufen sich noch einen Desktop Rechner? Wie ist das Verhältnis bei den Verkaufszahlen: Laptop vs Desktop pc?
4:1…5:1?

Und in Unternehmen:
Thin Clients werden wohl auch immer mehr wachsen/ gefragt. Weiß da jemand näheres/ aktuelles?

Also außer in ein paar Nischen sehe ich den x86 nicht als heilige Kuh.
Ich glaube auch nicht das x86 verschwinden wird, aber langsam und sicher unbedeutend werden. 😉
 
foofoobar schrieb:
Google hat das System Gefägniscomputer von Apple kopiert, allerdings bei weiten nicht so massiv wie Apple.
Ich weiß, das hat dennoch nix mit ARM zu tun
Ergänzung ()

Alesis schrieb:
Nein, da bist du auf der falschen Fährte.
Nö eben nicht.
Du sprichst von Software Ökonomie, aber willst dies aufgrund der darunter liegenden Hardware festmachen. Das macht aber keinen Sinn.
Du kannst dich unter ARM in einen Käfig setzen (Apple,Google) oder auch nicht (diverse freie mobileOS, Linux), ARM ist hier kein limitieren der Faktor
 
DevPandi schrieb:
Für die "Leistunfsfähigkeit" - so wie sie hier verwendet wird durch Kirk und manche andere - ist es vollkommen egal ob RISC oder CISC. Beides beschreibt primär, wie die ISA aufgebaut wird und welche "sichtbaren" Befehle man hat. Heute abreiten alle CPUs "intern" mit µOPs und entsprechend finden sich CISC-Befehle heute auch in der ARM ISA und umgekert findet man RISC-Befehle in der x86 ISA.

CISC-RISC ist also für die weitere Diskussion über die Leistungsfähigkeit der Prozessoren irrelevant.
Mit dem Abschnitt geht ich nicht mit. Der Vorteil von RISC ist es, einen fixe Länge zu haben, wodurch mehr Decoder die Befehle verabreiten können und an die entsprechenden Teile der CPU-Kerne weiterreichen können. Durch die Variable Länge der Befehle bei CISC können nicht beliebig viele Decoder parallel arbeiten.

Natürlich muss man diesen Vorteil auch nutzen, Apple hat das mit dem M1 erkannt und 8 Befehlsdecoder in ihrem SoC eingebaut.
Ergänzung ()

Pipmatz schrieb:
Das was ich brauchte ging.
Ja, du bist nicht die Allgemeinheit..

Pipmatz schrieb:
Und bei wie vielen % der (Windows) User würde auch ein Windows on Arm ausreichen?
Der Prozentsatz steigt mit der Anzahl verfügbarer Programme für Windows on ARM ;)

Pipmatz schrieb:
Lassen wir den Unternehmensbereich raus!
Wieso? Oder verkaufen Intel/AMD auch nur an Endkunden? Chips werden für den gesamten Markt gefertigt, also muss da auch der gesamte markt betrachtet werden.

Pipmatz schrieb:
Also außer in ein paar Nischen sehe ich den x86 nicht als heilige Kuh.
Ich glaube auch nicht das x86 verschwinden wird, aber langsam und sicher unbedeutend werden. 😉
Widerspruch in sich selbst, merkste selber, oder?
 
Web-Schecki schrieb:
x86 ist die Bezeichnung für eine Befehlssatzarchitektur-Familie. Der genaue Befehlssatz wurde und wird ständig erweitert. In der Urversion im Intel 8086 und in den ersten Nachfolgern nutzte man sogar nur eine Wortbreite von 16 Bit. Mit dem Intel 80386 kam dann eine 32-Bit-Erweiterung dazu. Die Bezeichnung der Prozessoren endete immer auf "-86", daher "x86".
Später hat AMD eine 64-Bit-Erweiterung implementiert, die von Intel übernommen wurde. Die bezeichet man manchmal als AMD64, x64, oder auch x86-64.
es verwirrt mich so sehr. alleine am pc, dass ich 2x program files habe. eins davon x86 und genau hier sind angeblich die 32bit anwendungen. dann sehe ich eine anwendung in beiden ordnern und bin verwirrter.
 
Pipmatz schrieb:
Wo sind denn die ganzen tollen Intel Prozessoren in Smartphones und Tablets?

Ist zu teuer für intel und AMD. Da sie selbst nur den chip designen und jemand suchen müssten um das Gerät selber zu verkaufen. Da ist ist ARM einfach billiger für die funktionen die man braucht. Es hat sich mit ios und Android auch so Entwickelt. Intel und AMD könnten Arm cpus entsprechend bauen, was für duesen bereich aber keinen Sin nacht, Wirtschaftlich.Es ist aber nicht so das es keine x86 tablet‘s gibt. Diese haben chips für Ultrabooks an board. welche nicht explezit für tablet‘s gedacht sind und somit auch nicht die gleiche effizienz bieten.

Es ist einfach so das Intel,Amd keine eigenen Geräte verkaufen. sondern nur den chip. Dieser muss halt auch viele bereiche abdecken, denn ein neuer chip oder Architektur kostet jede menge Geld. somit versucht man mit einer Architektur auch viele bereiche abzudecken.

Es könnte aber jeder Hersteller zu Intel/Amd gehen und sich eine custom cpu basteln lassen für ihr Produkt. Ist Aber einfach zuteuer, für den Bereich Smartphone tablet.

Und warum gibt es keine Passiven x86 notebooks? weil die Hersteller der Geräte es nicht wollen. denn luftkühlung ist um soviel günstiger um Leistung aufrecht zu erhalten.
 
schwimmcoder schrieb:
Ja, du bist nicht die Allgemeinheit..
Das weiß ich.😎
Aber wenn man sich anschaut wie viel Mrd. Smartphones / Tablets mit arm verkauft wurden….was User damit machen…

Ich diskutierte vor einiger Zeit mit jemanden über die hohen Preise eines iPhone pro und das ich nicht gewillt bin mehr für mein Smartphone als für mein MacBook Air auszugeben😅

Er sagte:
Er macht seit langem alles über das iPhone. Sein MacBook Air (Intel) macht er selten noch an.

Ein anderer sagte mir vor über 8 Jahren schon das er alles nur noch über sein iPad macht.

Wenn man zu viel in Technik Foren liest dann denkt man irgendwann das 80% der Leute sich eine 600€ Grafikkarte kaufen und den super schnellen x86 Prozessor.
Ist nur nicht so: die Mehrheit da draußen benutzt ihre Rechner nicht so wie die Minderheit hier in Foren.

schwimmcoder schrieb:
Der Prozentsatz steigt mit der Anzahl verfügbarer Programme für Windows on ARM
Das bestimmt.
Aber ob man von x86 -> Arm wechselt ist das gleiche wie Android <-> iOS wechseln:

User gucken sich ihre 5-10 meist genutzten Apps an, ob es die auch „drüben“ gibt und es reicht denen schon😎

Da braucht nicht 70-80 % der Software vorhanden sein.
Da brauchst du nur die 20-30% meistbenutzten Programme haben und hast wahrscheinlich schon 70-80 % der User. 🤷🏻‍♂️

schwimmcoder schrieb:
Wieso? Oder verkaufen Intel/AMD auch nur an Endkunden? Chips werden für den gesamten Markt gefertigt, also muss da auch der gesamte markt betrachtet werden.

Weil der Unternehmens Markt nicht so Wechsel willig ist wie der private.
Liegt auch in der Natur der sache:
Hängt halt viel dran.

Keine Ahnung wie es bei unternehmenssoftware aussieht SAP usw. Auf arm.

Aber mal sehen wie es im Unternehmensbereich in 4… 6… 10 Jahren aussieht.

Genauso die Sache mit Thin Clients,
Die sollen wohl auch immer mehr wachsen.

Im Unternehmensbereich wird sich der Marktanteil von X86 ganz sicher nach unten bewegen und das ein gutes Stück!

Dazu auch steigende ARM Server!
Wie ist der Marktanteil die letzten Jahre gewachsen…Prognose für die Zukunft?🎊

Das wissen auch AMD und Intel.
Ich finde diese Partnerschaft sehr bemerkenswert und es zeigt das sie schon gehörig Respekt vor ARM haben. 🎊

schwimmcoder schrieb:
Widerspruch in sich selbst, merkste selber, oder?

Ich bin präziser:
Bei privat ist ARM ein Selbstläufer und ist schon längst da! (Smartphone/ Tablets)
Windows on ARM ist nur eine Formsache
Und wird für 70-80 % der Leute genug Software haben.

Gamer & paar andere werden da nicht so schnell wechseln. (Wegen hohen Takt oder Grafikkarten die sie brauchen)
 
Zuletzt bearbeitet:
Ich Begrüße erst mal den Zusammenschluss. Damit wird es hoffentlich bessere Tests für die Geräte geben, also mehr Quality Check und hoffentlich auch eher passende Treiber. Und hoffentlich werden dann die letzten Fehler der Vergangenheit angehören.
 
DevPandi schrieb:
Ich konnte manches nicht so stehen lassen. :) Doofer Autismus und doofe Zwangsstörung.
Sehr schade, dass sich das irgendwo zwischen Seite 1 und 100 über hunderte Kommentare verliert.
Wäre ein toller (Hintergrund-)Artikel, der seinen eigenen Diskussionsbereich verdient hätte.

Danke für den Beitrag!
 
  • Gefällt mir
Reaktionen: dr. lele und Web-Schecki
Eigentlich nur ein Zusammenschluss um im Server Bereich das Duopol halten zukönnen.
AMD und Intel könnten narürlich auch ARM und RISC-V bauen. Konkurrenz ist dort aber viel größer und somit bleibt weniger vom Kuchen.
 
Verstehe ich nicht ganz.
Dies dürfte auch ein Schritt sein, um sich gegen Arm und RISC-V zu wappnen.

AMD, die selber ARM Chips produzieren, Microsoft die versuchen Win on ARM voran zu bringen, Google deren quasi monopol bezügl. Mobilem OS praktisch nur auf ARM setzt....
 
  • Gefällt mir
Reaktionen: bad_sign
TigerherzLXXXVI schrieb:
Für mich ist ein Bündis zur Zukunftssicherung von x86 der falsche Schritt. Ich verstehe zwar die Gründe, aber im Grunde stellt man sich gegen die bessere (effizientere) Chip-Architektur - quasi so wie es in der Vergangenheit etwa die Erdölindustrie beim Elektroauto gemacht hat.
Das ist das was die PR Abteilung von Arm gerne erzählt. Aber es stimmt nicht. In meinem ersten Post habe ich eine Studie verlinkt, die das untersucht hat. Es ist die Mikroarchitektur, die über Performance, Power und Area entscheidet, nicht die ISA.

Arm hat den Vorteil gegenüber X86, dass Arm noch Lizenzen vergibt. Aber hier findet gerade ein großer Wechsel statt. Arm ist offensichtlich nicht mehr damit zufrieden nur die ISA zu verkaufen. Arm will ein größeres Stück vom Kuchen. Es ist sogar die Rede davon, dass Arm Chips anbieten will. Selbst wenn dies nur Chiplets sein sollten und keine kompletten CPUs, wäre dies eine massive Änderung des Arm Biotops. Arm begaebe sich in die direkte Konkurrenz zu ihren Kunden.

Wenn X86 verschwinden würde, wäre es eine erhebliche Verschlechterung. Und Arm ist schon lange nicht mehr diese nette kleine Bude. Das war in dem Moment Geschichte als Arm an Softbank verkauft wurde.

Das Problem von X86 war, dass die CPUs immer größer wurden und damit für viele Märkte zu Fett wurden. In diese Lücke ist Arm gestoßen. Die kleinen stromsparenden Kerne waren nur ein Aspekt. Das Geschäftsmodell hat ebensoviel zum Erfolg beigetragen. Und nun will Arm die Kunden, die Arm erfolgreich gemacht haben, in den lukrativen Märkten auf die Seite schieben.

Anfang der 2000er hatte Intel sogar eine Menge Geld in Strong Arm investiert. Sich aber dann doch wieder von Strong Arm getrennt und Atom kreiert. Aber auch Atom letztendlich nur halbherzig vorangetrieben.
 
  • Gefällt mir
Reaktionen: Flutefox und Limit
k0ntr schrieb:
kann mich jemand aufklären. x86 bedeutet doch soviel wie 32+64bit systeme. gibt es weiterhin noch so viele 32bit systeme, kann man die nicht endgültig rausschmeissen?
Linux ist schon lange frei von 32-Bit Altlasten, wie sieht das den bei Windows aus?
 
schwimmcoder schrieb:
ARM wird brutal ineffizient, wenn man den Takt auf x86 Verhältnisse hochsetzt.
Das ist keine inhärente Eigenschaft der ARM-ISA. Es ist einfach nur so, dass ARM historisch eben aus dem Low-Power-Bereich kommt. Es wäre ohne weiteres möglich auch eine High-Power CPU auf ARM-Basis zu entwickeln. Das hat nur eben noch niemand gemacht.


schwimmcoder schrieb:
ARM CPUs können weitaus besser Multithreading, weil der Befehlssatz auf eine reduzierte Größe und fixe Länge definiert ist. Das steigert die Effizienz.
schwimmcoder schrieb:
Klar, der reduzierte Befehlssatz und die damit verbundene Möglichkeit, mehr Decoder zu verwenden ist ein Vorteil für ARM, welcher die Effizienz steigert.
Es ist richtig, dass die Eigenheiten von CISC das dekodieren schwieriger macht. Das macht sich allerdings in erster Linie dadurch bemerkbar, dass die entsprechenden Dekoder aufwendiger/größer sein müssen und daher mehr Chipfläche und Strom verbrauchen. Das ist aber auch schon alles.
Moderne CPUs dekodieren viele Instruktionen auf Vorrat und speichern sie im I-Cache. Daher spielen diese für die Performance in der Regel keine Rolle, da die Hersteller die Dekoder und Caches in der Regel entsprechend groß dimensionieren, dass der I-Cache nie ganz leer ist. Dadurch stehen dem Backend zu jeder Zeit genügend bereits dekodierte Instruktionen zur Verfügung um die Pipeline nicht anhalten zu müssen.
 
  • Gefällt mir
Reaktionen: schwimmcoder
Tulol schrieb:
Verstehe ich nicht ganz.


AMD, die selber ARM Chips produzieren, Microsoft die versuchen Win on ARM voran zu bringen, Google deren quasi monopol bezügl. Mobilem OS praktisch nur auf ARM setzt....
Es geht darum die Weiterentwicklung von X86 gemeinsam zu planen anstatt zu versuchen Befehlserweiterungen in den Markt zu drücken.

Dies wäre schon seit Jahren sinnvoll gewesen.

Dass dies jetzt stattfindet liegt daran, dass X86 nicht mehr ohne Konkurrenz ist. Das heißt diese Aktion ist der Konkurrenz von Arm und RISC-V geschuldet.

Aber es geht nicht darum sich gegen Arm und RISC-V zu verbünden, sondern bei der Weiterentwicklung von X86 zusammen zu arbeiten. Und das betrifft eben auch die Anwender. Auf ihre Interessen zu hören ist nun Mal essentiell. Was nützt es Befehle zu implementieren die im Grunde keiner braucht.
 
DevPandi schrieb:
Ja, es gibt aktuell nur 2 Hersteller, die eigene µ-Archs entwerfen, aber wenigsten gibt es genau diese beiden Hersteller, die auch in einem entsprechenden Konkurrenzkampf mit einander agieren.
Konkurrenzkampf? Wo? Soweit ich das sehen kann, kosten CPUs die das gleiche Leisten in beiden Lagern genau das Gleiche. Das sieht vielleicht so aus, als ob es eine Konkurrenz gäbe, aber es ist genauso wie bei den Grafikkarten, jeder lässt dem anderen seinen Raum. Bei einem Duopol gibt es nun mal keinen echten Konkurrenzkampf, da es beide in den Ruin treiben würde. Außerdem haben wir jetzt gerade eine ruhige Phase, weil AMD und Intel sich mehr oder weniger auf Augenhöhe bewegen, aber das Verhältnis ist schon oft gekippt und wird auch wieder kippen. Man stelle sich nur vor AMD wäre tatsächlich pleite gegangen und nu steht Intel auf der Kippe. Das ist für keinen gut.
DevPandi schrieb:
Das stimmt halt leider eben weitgehend nicht mehr. Wir haben hier mit der Allianz ein Verbund mehrer Firmen, die gemeinsam an der Zukunft von x86 arbeiten und zwei Hauptkonkurrenten, die wirklich eigene µ-Archs entwerfen.
Was stimmt nicht? Ich glaube du dichtest diesem Gremium etwas zuviel Macht an. Die anderen Firmen werfen Wünsche ein, dass machen die aber auch schon vor dieser "Allianz" schließlich orientiert sich Hardware immer auch an Software. Die Zielsetzung ist doch recht wage und nichts Neues. Wie haben AMD und Intel denn bisher entwickelt? Komplett mit Scheuklappen ohne mal mit den OS Herstellern und Entwicklern von Highperformance-Software zu reden? Das ist doch jetzt nur blinder Aktionismus um von ARM oder gar Nvidia abzulenken. Der Hohn ist doch das MS mit drin sitzt. Ohne Windows on ARM bräuchte man doch nicht mal diese Allianz...

Aber wo hat uns das Duopol bisher hingeführt? Ich möchte an die Dekade der QuadCore CPUs erinnern, weil AMD Intel keine Paroli bieten konnte und Intel keinen Druck hatte weiter zu entwickeln. Oder bis zu bitteren Ende ausgeluschte Fehlentwicklungen wie die Netburst-Architektur oder Bulldozer. Genauso wurden beide eiskalt von Apple erwischt, was das Thema Effizienz und Hitzeentwicklung angeht, dass haben die bis heute noch nicht aufgeholt. Wenn ARM irgendwann mal aus dem Rennen sein sollte, wird diese Allianz genauso klanglos wieder im Boden verschwinden.
DevPandi schrieb:
ARM wiederum versucht aktuell quasi allen Firmen die Lizenzen zu entziehen, die es ihnen ermöglichen eigene µ-Archs zu entwerfen.
Ich weiß das ARM im Streit mit Qualcomm ist, aber allen Firmen? Hast du mal Referenzen dazu?
DevPandi schrieb:
Und so wie es aussieht, wird ARM auch keine ISA-Lizenzen mehr vergeben, sondern maximal nur noch Lizenzen zur Nutzung der Kerne, die ARM selbst desigend.
Auch das ist mir neu. Dazu kann ich spontan nichts finden. Auch hier wäre ich für nen Link dankbar.
DevPandi schrieb:
Dazu kommt, dass ARM die ISA vollständig unter Kontrolle hat und damit die Entwicklung alleine bestimmt. Klar, alle können sich eine µ-Arch-Lizenz holen um einen Kern zu verwenden, das war es dann aber auch.
Die ISA ist doch nicht das Problem. Was war denn die letzte wirklich bahnbrechende Entwicklung bei AMD/Intel? Gefühlt passiert bei ARM auf jeden Fall deutlich mehr als bei x86, die müssen schließlich IPs verticken, während z.B. bei Intel die letzten 6 Jahre immer nur die TDP erhöht wurde.
DevPandi schrieb:
Es wäre nur ein Vorteil für uns Nutzer, wenn ARM jeder Firma eine ISA-Lizenz gibt und die Firmen auch wirklich die Kraft haben eigene µ-Archs zu entwerfen. Ansonsten ist es der Einheitsbrei von ARM.
Wäre das wirklich schlimm? Lieber alle nahe beieinander, als ein BigPlayer wie Apple der mal eben 20-30 Milliarden in die Chip Entwicklung pumpt und dann alle an die Wand spielt. Damit hätten wir auch nichts gewonnen. Ich beäuge das auch bei RISC-V kritisch. Wenn da einer mal mit Geld dran geht und die Arch aufbohrt mit seinen eigenen porträtieren Erweiterungen und das in den Markt drückt, kann man sich auf die freie Architektur auch ein Ei pellen.

Aber grundsätzlich hast du natürlich Recht, wie ich auch schon betonte habe ist ARM nicht die optimale Ausgangslage für so eine "Revolution". Jedoch die beiden x86 Herstellern die uns seit 3 Dekaden an der kurzen Leine halten als das kleinere Übel zu betrachten? Ich weiß nicht.
 
andi_sco schrieb:
Es gibt nicht die eine perfekte Lösung. Könnten z.B. die E-Kerne von intel ohne AVX2 nochmals deutlich sparen? Bei Fläche, Transistorbudget und Verbrauch? Wenn ja, wie nah sind sie dann an arm dran?
Selbst die ARM Cortex 520 haben Neon-Einheiten für 128bit und auch SVE mit mindestens 128bit. Die E-Cores von Intel haben genauso 128bit breite Pipelines, die sie auch für 256bit Vektoren nutzen. Für alles was eine moderne Smartwatch oder besser ist macht es keinen Sinn die Vektoreinheiten zu beschneiden. Kryptografie, Signalverarbeitung, Multimediakram und selbst HTML/Javascript-Parser nutzen diese Einheiten.
TLDR: Ohne Vektoren ist alles doof!

schwimmcoder schrieb:
Klar, der reduzierte Befehlssatz und die damit verbundene Möglichkeit, mehr Decoder zu verwenden ist ein Vorteil für ARM, welcher die Effizienz steigert.
Intel Skymont: 3×3 Decoder und mit der Breite von 9 damit genauso breit wie Apples M4. Wobei das Problem da sowieso nur zweit bis drittrangig die gesamte Breite der Decoderstufe ausmacht sondern vielmehr die Fähigkeiten der Sprungvorhersageeinheit. Breite Decoder bzw. insgesamt breite CPUs bringen nichts, wenn die Hälfte der Pipelines auf falsch vorhergesagten Branches rumrechnet.

Limit schrieb:
Moderne CPUs dekodieren viele Instruktionen auf Vorrat und speichern sie im I-Cache. [...]
Decodierte Befehle werden wenn durch den µOp-Cache vorgehalten und nicht durch einen I-Cache! Wobei viele größere CPUs für kleine Schleifen (~100 µOps) nochmals Loopbuffer oder Ähnliche Lösungen haben, weil die µOp Caches aufgrund ihrer Größe bei sowas auch wieder Effizienz- und Latenzprobleme darstellen.
Da nehmen dich die dicken ARM und x86 Implementierungen nichts. Bei RISC-V ist mit schlicht keine Implementierung bekannt, die in dieser Liga mitspielt (leider)
 
Web-Schecki schrieb:
Wichtig ist, dass das alles immer erweitert wurde und theoretisch noch 16-bittige Software für den Intel 8086 aus den 70ern auf modernen 64-bittigen x86-Prozessoren nativ lauffähig ist.
Ich musste vor kurzen (Free-)DOS auf einer Zen2 Möhre für einen Firmware-Update booten.
War schon strange.
 
  • Gefällt mir
Reaktionen: Web-Schecki und Piktogramm
Zurück
Oben