Zukunft der x86 Architektur

heyjan

Ensign
Registriert
März 2018
Beiträge
179
Mit den aktuellen Launches kommen wir in Bereiche wo Leistung mit immer mehr Watt erkauft wird.
Ich finde das ne ziemlich fragwürdige Entwicklung und glaube das die x86 Architektur langsam an Ihre Grenzen stößt, zumindest im Consumer Bereich. Es gibt zwar Effiziensteigerung aber die bleibt unter den Erwartungen vieler. Wenn ich in manche Onlineshops die Tage schaue, sind teilweise 800 Watt PSUs ausverkauft. Ziemlich bedenklich.

AMD hat 5nm in 2022 Angekündigt.
Über Intel brauchen wir nicht sprechen.

2022 dann DDR5. Es wird ziemlich Interessant zu sehen wie man versuchen wird dem Consumer Markt DDR5 schmackhaft zu machen.
Die Basisdaten sind ziemlich ernüchternd um ehrlich zu sein. Die Latenzen sind höher wie DDR4 und eine Bandbreitenlimitierung in aktuellen CPUs ist nicht existent. Quelle: Link Anandtech.com

PCI-E 4.0 Speicher bringt jetzt auch nicht eine wirkliche Steigerung im Alltag. Nur wer mit Großen Dateien hantiert wird was merken.
Quelle: Link Igorslab

Ich glaube wir kommen oder sind schon in einer Stagnation der x86 Architektur.
Ich bin wirklich sehr gespannt was Apple aus der ARM Architektur in Zukunft alles rausholen wird. Da schätze ich das Potenzial größer ein.

Was meint Ihr zu dem Thema?
 
  • Gefällt mir
Reaktionen: KitKat::new() und Kristatos
naja, vom Pentium 4 zum Ryzen 3700X hat die Effizienz meiner Ansicht nach schon einen massiven Sprung gemacht.
Aus meiner Sicht ist x86 zukunftsfähig.
heyjan schrieb:
Mit den aktuellen Launches kommen wir in Bereiche wo Leistung mit immer mehr Watt erkauft wird.
Von Zen2 zu Zen3 hat AMD ~15-20% Leistung draufgepackt, ohne Mehrverbrauch.
Auf was genau beziehst du deine Aussage? Mir fallen genug Gegenbeispiele ein.
 
  • Gefällt mir
Reaktionen: Fragger911, Col.Maybourne und H3llF15H
heyjan schrieb:
PCI-E 4.0 Speicher bringt jetzt auch nicht eine wirkliche Steigerung im Alltag.
Schon mal drüber nachgedacht, dass nicht immer alles für den Alltag sein muss? ;)

heyjan schrieb:
Ich bin wirklich sehr gespannt was Apple aus der ARM Architektur in Zukunft alles rausholen wird. Da schätze ich das Potenzial größer ein.
Das sehe ich auch so ;)
Ergänzung ()

Asghan schrieb:
Auf was genau beziehst du deine Aussage?
Ich tippe darauf, dass er auf die neuen GPUs anspielt.
 
  • Gefällt mir
Reaktionen: Col.Maybourne
Wär es den so schlimm wenn der x86 Markt stagniert? Man kann ja auch an der Software optimieren.
 
H3llF15H schrieb:
Ich tippe darauf, dass er auf die neuen GPUs anspielt.
Dann vermischt unser TE aber viel zu viele Dinge.
Zumal laut Benchmarks bei GPUs, trotz gestiegener Leistungsaufnahme, die FPS/Watt mehr geworden sind, bzw. Watt/Frame gesunken ist. Auch hier wurde die Effizienz gesteigert.

@TE Gib bitte ein Beispiel wo Sie schlechter geworden ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fragger911 und H3llF15H
Jup die Software ist das Problem 90% meiner Spiele nutzen nur einen CPU Kern z.B.
 
Es setzt sich die beste Kombination aus leistung Stromverbrauch durch. Der Hauptmarkt sind Server dort ist die ISA egal Linux läuft überall. Der Desktop kriegt eigentlich schon immer Server technologie nur eben anders verpackt. Bisher hat ARM oder zb IBM power im Servermarkt nicht den durchschlagenden erfolg gegen x86_64 (=> warum sollte es beim Desktop anders sein?).

DDR5 & PCIe4 haben nichts mit der ISA zu tun!
 
Zuletzt bearbeitet:
Die Optimierung ist das Problem. Aufgrund der Variabilität der Hardware natürlich auch nicht einfach.
Wenn man sich mal überlegt mit was für Tricks gearbeitet wurde, damit z.B. ein Mario Game in wenige Kilobyte passt. Als Vergleich: ein einziges (stark) komprimiertes Bild hat die selbe Größe
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KitKat::new()
heyjan schrieb:
Wenn ich in manche Onlineshops die Tage schaue, sind teilweise 800 Watt PSUs ausverkauft. Ziemlich bedenklich.
Aber nicht wegen der CPUs, sondern wegen der GPUs. Somit suchst du das Problem an der falschen Stelle.
Ergänzung ()

Fujiyama schrieb:
Wär es den so schlimm wenn der x86 Markt stagniert? Man kann ja auch an der Software optimieren.
Das wird dann aber richtig teuer. Schließlich gibt es viel mehr Soft- als Hardware.
 
  • Gefällt mir
Reaktionen: KitKat::new()
diamdomi schrieb:
Als Vergleich: ein einziges (stark) komprimiertes Spiel die selbe Größe
? Da fehlt doch was vom Satz ;)
 
  • Gefällt mir
Reaktionen: diamdomi
Was die Ausgangsfrage angeht, bin ich relativ entspannt. Ich bin mir verdammt sicher, dass ich auch in zehn Jahren noch mit der klassischen PC-Architektur arbeite, ohne dass ich dabei einen auf Retro mache wie ein Win7-Nutzer.
Wenn man sich jetzt nicht die absoluten High-End-Systeme anguckt, sondern den Durchschnittsrechner im Normalbetrieb, sieht der Verbrauch nämlich schon wieder viel entspannter aus. Und bei den High-End-Rechnern ist es oft auch gar nicht die CPU, sondern die GPU die so richtig viel verbraucht.
Dazu kommt, dass die klassische PC-Architektur durch ihre Offenheit viele Vorteile mit sich bringt.
 
@pseudopseudonym
Man muss ja nicht jede Software optimieren, vieles läuft ja bereits effizient und flott.
 
@Fujiyama
Theoretisch könnte man möglichst viel perfekt parallelisieren und auf Assembler-Ebene optimieren.
Damit kann man theoretisch sicher einiges an Performance und Energieeinsparung rausholen. Der Weg wäre dann eben die Alternative zu einer Entwicklung der PC-Architektur. Allerdings eben der wesentlich teurere und aufwendigere.
 
pseudopseudonym schrieb:
sondern den Durchschnittsrechner im Normalbetrieb
Wobei es da auch sehr viel Optimierungspotential gibt. APUs laufen durchaus im einstelligen Wattbereich.
ATX12VO sollte die Effizienz knapp verdoppeln im Leerlauf (oder in anderen Worten: den Verbrauch im Leerlauf halbieren). Einige SI haben bereits Deskopts im Angebot mit der Technik.

Ich persönlich glaube es kommt vor allem darauf an was Apple mit den neuen Chips macht. Im besten Fall stehen alle Mitbewerber unter Zugzwang.
 
heyjan schrieb:
Mit den aktuellen Launches kommen wir in Bereiche wo Leistung mit immer mehr Watt erkauft wird.
Ich bitte um Quellen. Zen3 (Aktueller Launch) bietet bei demselben Verbrauch ungefähr 20% mehr Leistung, RTX 3000 (aktueller Launch) hat in Sachen Leistung / Watt auch einen Schritt nach vorne gemacht und RX6000 hat in Sachen Leistung / Watt einen gewaltigen Sprung gemacht wie es ihn bei AMD lange nicht gab. Deine Aussage ist kaum haltbar.
heyjan schrieb:
glaube das die x86 Architektur langsam an Ihre Grenzen stößt
Erläutere. Oder beziehst du dich nur auf die sich sehr gut entwickelnde Energieeffizienz im x86-Bereich?
heyjan schrieb:
Es gibt zwar Effiziensteigerung aber die bleibt unter den Erwartungen vieler
Bitte erläutere die Erwartungen. Du bekommst im x86-Bereich für ein festes Leistungsbudget heute so viel Leistung wie niemals zuvor. Wo lagen die Erwartungen denn von denen du sprichst?
heyjan schrieb:
Es wird ziemlich Interessant zu sehen wie man versuchen wird dem Consumer Markt DDR5 schmackhaft zu machen
Möglicherweise, indem DDR4-Support eingestellt wird. Dann ist es egal, ob schmackhaft oder nicht. Wobei ich sehr witzig finde, wie du bei DDR5 plötzlich auf die Leistung geierst, bei CPU und GPU aber nur auf Leistung / Watt eingehst. Denn DDR5 ist für eine 8% niedrigere Spannung spezifiziert, wird also effizienter arbeiten als DDR4.
heyjan schrieb:
PCI-E 4.0 Speicher bringt jetzt auch nicht eine wirkliche Steigerung im Alltag. Nur wer mit Großen Dateien hantiert wird was merken
Weil die Bandbreite von PCIe aktuell kein Problem ist. Realistisch ist PCIe 4 doppelt so schnell wie PCIe 3, aber weil wir Menschen verglichen mit Prozessoren noch träger sind als so ein Blauwal an Land, realisieren wir keinen Unterschied ob benötigte Daten jetzt in einer 8tel oder einer 16tel Sekunde geladen sind. PCIe 4 leistet exakt, was davon erwartet wurde. Die Leistung braucht nur kaum ein Consumer, weil er sie schlicht nicht mitbekommt.
heyjan schrieb:
Ich bin wirklich sehr gespannt was Apple aus der ARM Architektur in Zukunft alles rausholen wird. Da schätze ich das Potenzial größer ein
Ah, ich hatte mich schon auf eine Begründung gefragt, warum du all diese Fragen stellst. Du bist Apple-Fan. Das erklärts.
ARM im Desktop ist schon seit Jahren ein hochgelobter Mythos. Apple setzt ihn jetzt um, weil es sich wirtschaftlich lohnt und weil dank aktueller Fertigung ausreichend Leistung aus ARM-Prozessoren herausgeholt werden kann um ein Desktop-Betriebssystem angenehm zu betreiben. Wie man aber sehr gut sehen kann, skaliert der M1 gar nicht. Für das, wofür er gebaut ist, ist er sehr stark bei sehr geringer Leistungsaufnahme, das stimmt. Aber du kannst eben keinen M1 mit 32GB RAM kaufen, du kannst keinen M1 mit 16 Kernen kaufen, du kannst generell keinen M1 ohne komplettes Apple-Bundle kaufen. Gibt jetzt noch andere Anschlüsse, die der M1 nicht kann, aber das Thema ist glaube klar. Randnotiz: Muss der M1 plötzlich mit Varianten wie z.B. variabler Speichermenge umgehen können, dann braucht er einen anderen (Speicher-)controller, was die Energieeffizienz leiden lässt. Der M1 funktioniert nur so gut, weil er null Flexibilität bietet.

Man sollte hier immer bedenken: Im Low Performance-Segment ist ARM sehr stark und x86 guckt quasi aus der zweiten Reihe zu. Aber sobald die benötigten Anforderungen eine gewisse Leistung benötigen ist ARM die Energiesparleuchte im Hintergrund, die zusieht, wie x86 strahlt. Jede Architektur hat ihre Stärken und ihre Daseinsberechtigung. Aber man sollte so fair bleiben und nicht eine Architektur verteufeln, bloß weil die andere für den eigenen Anwendungsfall besser abschneidet.
 
  • Gefällt mir
Reaktionen: glpsy
Ich bin mittlerweile fast an dem Punkt dem TE "Trolling" zu unterstellen.
 
Wo bin ich denn hier gelandet? Vielleicht sollten einige User mal an die frische Luft.
Wieso kann man hier keine Diskussion starten ohne gleich in eine Schublade gesteckt zu werden?
Links / Rechts, Republikaner / Demokraten, Intel / AMD, Nutella / Nuspli und PC / Apple

Es ist wohl unverkennbar über die Jahre das die Leistungsaufnahme gestiegen ist. Und eine GPU gehört nun mal zur x86 Architektur dazu, also muss diese auch im Kontext berücksichtigt werden. Und besonders Intel wird sich auch in Zukunft schwer tun an der Effizienzschraube großartig zu drehen denke ich.

Ich frag mich einfach angesichts des M1 Launches ob es eine ernsthafte Konkurrenz werden kann.
 
  • Gefällt mir
Reaktionen: KitKat::new()
Ja, Powerconsumption ist gestiegen, aber die Leistung ist überproportional dazu auch gestiegen.
"Es gibt zwar Effiziensteigerung aber die bleibt unter den Erwartungen vieler. "
Was sind die Erwartungen?

Es wurden dir viele Fragen konkret zu deinem Post gestellt, ich bin auf deine Antworten gespannt, z.B.:
Asghan schrieb:
naja, vom Pentium 4 zum Ryzen 3700X hat die Effizienz meiner Ansicht nach schon einen massiven Sprung gemacht.
Aus meiner Sicht ist x86 zukunftsfähig.

Von Zen2 zu Zen3 hat AMD ~15-20% Leistung draufgepackt, ohne Mehrverbrauch.
Auf was genau beziehst du deine Aussage? Mir fallen genug Gegenbeispiele ein.
 
heyjan, das Problem ist, dass deine Annahmen nicht hinhauen.

In der x86-Welt gibt es nicht ein Stück Hardware. Du kannst kombinieren, wie du willst. Ein System mit einer APU wie z.B. ein i3-4001u (warum so alt? Weil ich den hier habe) verbraucht unter mittlerer Last etwa 11W. Mit so wenig Leistungsaufnahme konntest du vor 20 Jahren nicht mal ein Mainboard betreiben, trotzdem liegt die Leistung auf dem Niveau damaliger High End Hardware. Die aktuelle Grafikkartengeneration hat einen relativ hohen Stromverbrauch, dafür wird aber auch eine entsprechende Leistung geboten. Du bekommst aber trotzdem noch aktuelle Grafikkarten mit 75W Bugdet gekauft. Bitte pauschalisiere nicht, dass aktuelle Hardware viel Strom verbraucht, nur weil du auf stromhungrige Hardware schaust. Es gibt auch noch die sparsamen Systeme. Der Unterschied zu früher ist nur, dass du aus mehr Strom mehr Leistung gewinnen kannst.

Und die zweite unrealistische Annahme: Wozu soll der Apple M1 denn eine Alternative sein? Du kannst keinen klassischen PC mit Apple Silicon kaufen. Du kannst auf einem Apple Gerät mit Apple Silicon kein Windows betreiben. Du kannst kein aktuelles MacBook Air ohne Apple Silicon kaufen. Apple Silicon konkurriert nicht, es gibt keine Auswahl. Die Wahl ist: Apple oder nicht. Wählst du Apple, wählst du Apple Silicon, wählst du nicht Apple, hast du eine Auswahl - exklusive Apple Silicon. Der M1 kann also per se keine Konkurrenz zu irgendwas sein, weil du keinen M1 kaufen kannst. Du kannst nur ein Produkt mit dem M1 kaufen - dann konkurriert aber das gesamte Produkt, nicht der M1 isoliert.

Was aber wahr ist und vielleicht auch irgendwo deinen Gedanken mit abdeckt: Der M1 ist keine schlechte Hardware. In Fällen, wo Hardware mit einem M1 langfristig (!) die Anforderungen abdeckt und der Preis keine entscheidende Rolle spielt ist das Produkt mit dem M1 technisch ein beeindruckend empfehlenswertes Stück Hardware und meines Erachtens die beste Wahl. Die Leistung ist für einen gehobenen Office-Betrieb sehr gut, der Stromverbrauch im Desktop konkurrenzlos. Knackpunkt hier: Langfristig. Denn es gibt absolut keine Upgrade-Option.
 
  • Gefällt mir
Reaktionen: Nero1
Ich glaube du verstehst meinen Konkurrenzgedanken nicht bzw. denkst zu Schwarz / Weiss.
Klar ist der M1 aus Technischer Sicht kein Konkurrent aber aus Marktwirtschaftlicher schon.

Ich hab in meinem Rechner ein 550 Watt Netzteil, vor 2 Jahren gekauft. Möchte ich mein System jetzt Upgraden reicht das wohl kaum aus. Meine Eingebaute Wasserkühlung, reicht wohl kaum aus. Dann kommt so ein ARM Chip mit 10 Watt daher und gleitet durch 8k Video Files wie Butter. Ich weis nicht obs bei mir am Alter liegt, aber sein System Upgraden zu können, empfinde ich zunehmend als lästig.
 
Zurück
Oben