Eure Meinung über CPUs und deren Technik in 15 Jahren?

Ich denke, in 15 Jahren werden CPUs vermutlich...

  • ...mit 8 oder mehr GHz takten

    Stimmen: 185 31,1%
  • ...herstellerübergreifend 16+ "P"-Cores haben

    Stimmen: 271 45,5%
  • ...iGPUs haben, die für AAA-Titel ausreichen

    Stimmen: 87 14,6%
  • ...fast ausschließlich eine Art "V-Cache" haben

    Stimmen: 281 47,2%
  • ...deutlich sparsamer sein

    Stimmen: 238 40,0%
  • ...mehr Strom brauchen, um mehr Leistung zu erzeugen

    Stimmen: 137 23,0%
  • ...ausnahmslos nach dem big.LITTLE-Prinzip funktionieren

    Stimmen: 211 35,5%
  • ...durch neue Architekturen wieder niedriger takten

    Stimmen: 154 25,9%
  • ...durch eine völlig neue Technik ersetzt

    Stimmen: 133 22,4%
  • ...immer fest mit dem Mainboard verlötet sein

    Stimmen: 40 6,7%
  • ...im Desktop nicht mehr auf x86 basieren

    Stimmen: 189 31,8%
  • ...von mehr Herstellern als Intel, AMD (und Apple) angeboten

    Stimmen: 144 24,2%
  • ...keine große Bedeutung mehr in Desktop-PCs haben

    Stimmen: 68 11,4%

  • Umfrageteilnehmer
    595
andi_sco schrieb:
Wovon träumst du Nachts? Man hat nach über 10 Generationen gerade mal den Takt um 50% gesteigert. Vor 11 Jahren war man im Overclocking schon bei 8 GHz, und wo sind die realen Taktraten heute?
Es waren Architekturen, die auf hohen Takt hin ausgelegt waren. Mittlerweile erreichen auch Architekturen ohne Auslegung auf hohen Takt dennoch hohe Taktraten. Entsprechend: Ja, ich gehe sicher von 8Ghz aus. Denk dran, wie viel weitere Chiplettechnologie mit reinspielt. Es geht immerhin bloß um einzelne der HuGe-Kerne, im Turbo, wahrscheinlich mit Spannungsversorgung direkt auf dem Package nur für die HuGe-Kerne. Der Takt wird innerhalb von 15 Jahren locker erreicht werden, mit gleichzeitigem Fokus auf PerformancePerCycle. Ohne diesen hätten wir 8Ghz schon in diesem Jahr. Aber da man mit Takt ohne PPC nichts kaufen kann macht das (zum Glück!) niemand.
 
Das big.little Prinzip ist auch deshalb so erfolgreich, weil es in der Software-Branche besser adaptierbar ist. Alte Software mit 1-2 Kern-Support läuft weiterhin top auf den P-Cores und neuere muss nicht auf "Teufel komm raus" die Last auf 8-16 Threads aufteilen. So kann man bequem auf dem alten Prinzip des "Hauptthreads" und "Nebenthreads" (auf die e-cores) bleiben und die Technik geht mit. Das funktioniert sogar noch bei huge.big.little.
 
Dome87 schrieb:
Viele wissen nicht, wie sie funktioniert
Soweit ich weiß werden sie aufgrund der art ihrer Berechnung den Desktop wie wir ihn kennen nicht ersetzen können, also mit Bedienoberflächen etc. vielmehr könnte ich sie mir als Zusatzchips für spezielle aufgaben vorstellen. im Bereich AI das ist eine reine Vermutung könnte ich mir vorstellen würde es die aktuellen chips dafür ersetzen.
Jedoch zweifel ich ander Umsetzbarkeit innerhalb von 15 Jahren, für diese chips müssten komplett neue Fertigungsstraßen errichtet werden, das sie dann in nennenswerter Masse hergestellt werden könnten und DAS ist wirklich oft ein Punkt an dem vielversprechende Entwicklungen stark ausgebremst oder gar gestoppt werden.
alleine das aufbauen der Fertigung nimmt Jahre in anspruch.
 
  • Gefällt mir
Reaktionen: 7H0M45 und Dome87
15 Jahre- kann viel passieren.
Quantencomputer oder wenigstens im Ansatz (vermisse ich bisschen als Eingangsfrage)
Vor Jahren hat man damit begonnen statt elektronische "Schalter" Licht (Protonen) als Alternative zu erforschen. Auch Cloud wird die Rechenleistung ersetzen. Oder könnte.
Aber vielleicht bleibt irgendwie alles beim Alten und die Großen arbeiten weiter auf soliden Profit, wie gehabt.
 
dualcore_nooby schrieb:
Die Hardware Varianten werden wohl weniger. Vielleicht lassen sich aber Resourcen nachträglich gegen Gebühr freischalten. Manche 7600X haben offensichtlich auch heute schon zwei CCDs mir theoretisch 16 Kernen. Klar werden da Teildefekte Chips ausgeliefert, aber auf 8 oder 10 Kerne könnte man vielleicht per Software aufrüsten. Selbes Spiel würde auch mit max TDP gehen.

Softwaresperren wirds nicht mehr geben, das hatten wir früher schon und weil diese immer umgangen wurden gabs dann Lasercuts...

Also ich hab ganz starke zweifel daran ob sich so ein Unibody Design in der PC Welt durchsetzt.
Wenig Vorteile, viele Nachteile.
Und die Nachteile(praktisch keine modularität) sind in der Apple-Welt ja Vorteile genau deswegen funktioniert es dort.

Wir in der PC bubble können uns ja noch nicht mal auf ein Netzteil oder Gehäusestandart einigen.
 
Ich glaube das die CPU sich aehnlich wie auf ARM zu einem SoC wandeln wird.

CPU, GPU und RAM in einem.
 
  • Gefällt mir
Reaktionen: Dome87
Alexander2 schrieb:
Soweit ich weiß werden sie aufgrund der art ihrer Berechnung den Desktop wie wir ihn kennen nicht ersetzen können, also mit Bedienoberflächen etc. vielmehr könnte ich sie mir als Zusatzchips für spezielle aufgaben vorstellen.
Richtig. Es ist aktuell noch Forschungsfeld welche praktisch relevante Probleme mit einem Quantencomputer überhaupt besser gelöst werden können. Quantencomputer werden maximal ergänzen aber nicht ersetzen.
 
My 50 cts
 

Anhänge

  • Screenshot_20230114_112726_Samsung Internet.jpg
    Screenshot_20230114_112726_Samsung Internet.jpg
    809,8 KB · Aufrufe: 167
  • Gefällt mir
Reaktionen: Dome87
andi_sco schrieb:
ARM ist im Kleinen Effizient, aber im Großen brauchen die genauso Energie wie x86. Und ja, ARM wird durch Windows unterstützt.
Und was passiert wenn man x86 "klein" macht sieht man bei den neuesten Ryzen ohne X die laufen effizienter und gehen nurnoch auf ~50°C und immernoch sauschnell.
Also wenn du da einfach 15w eingibst oder die Notebook Chips anschaust, dann weißte das x86 in gewissen TDP bereichen aktuell immer wat flotter ist als ARM.

Auf der anderen Seite, wenn man bei ARM passend mit dem Ziel der Leistung entwickelt und passend zusatzeinheiten dazupackt wie Apple es gemacht hat, dann ist man auch in vergleichbaren verbrauchsregionen aber auch so schnell..

Am ende machen die alle das selbe, das die M1 passendes Tempo haben liegt auch mit an der Topaktuellen Fertigung für die, schließlich haben die die neueste Fertigungstechnologie (node) bei TSMC komplett für sich weggekauft.

Als wie eh und je, die Fertigung spielt eine entscheidende Rolle. Bei entsprechend guter Fertigung kann man auch für alle funktionen und IPC Optimierungen genug Transistoren auf eine recht kleine Fläche quetschen ohne, das dann der verbrauch zu stark explodiert.

Man sieht das auch etwas bei Intel im Vergleich, die haben bei den P- Kernen eine gute IPC bzw. eine verbesserte aufgrund der druckes seitens AMD und das sind halt auch große Kerne mit aus dem Grund, was dann auch zu erheblich höherem Verbrauch als bei den "effizienzkernen" führt, die aber auch eine schlechtere IPC haben.

Und mit dem Defizit bei der eigentlichen Fertigung lässt sich dann leider der Verbrauch der Kerne nicht soweit drücken, das einfach nur P Kerne verbaut würden.

Das BigLittle Prinzip ist halt auch Bedarfsgetrieben, damit Intel als Konkurrenz schnelle Einzelkernleistung anbieten kann und damit die nicht bei Mehrkernleistung komplett abkacken, weil eben der Verbrauch mit einem reinen P Kernmonster nicht tragbar wäre eben die Effizienzkerne, die bei kernskalierenden Anwendungen maßgeblich zum tragen kommen.

Wenn Intel CPUs nach auftrag für Konsolen Fertigen würde, dann würde es wohl eher so aussehen, das 8P Kerne und 2 E Kerne eingebaut werden. die 2 dann wohl maßgeblich für Systemaufgaben und Jobs mit geringer Priorität.
 
Schaun wir mal 15 Jahre zurück... was gabs da?
CPUs mit zwei Kernen - heute sind's 8 (starke) und ein paar Effizienz-Cores bei Intel.
Bei NVidia sieht man gut, wieviele "Kerne" so eine Recheneinheit haben kann.
Meiner Meinung nach könnte die CPU als zentrale Einheit komplett verschwinden und durch dezentrale skalare Recheneinheiten ersetzt werden, denn eigentlich "bremst" die CPU ja nurnoch, wenn man das mit einer GPU-Compute Einheite vergleicht...
Dieses "eine zentrale Ding" da in der Mitte, das alles steuert ist meiner Meinung nach überholt, weil "viel" zu langsam.
 
  • Gefällt mir
Reaktionen: Dome87
Alexander2 schrieb:
Und was passiert wenn man x86 "klein" macht sieht man bei den neuesten Ryzen
Habe leider keine aktuelle Atom Gen hier, aber beim letzten Test war der Pentium N schneller als ein Ryzen, wenn man letzteren auf 6W gedeckelt hat
 
Ja, da spielt etwas mit rein für welche Budgetklassen die Chips entwickelt werden, wundert mich jetzt nicht, das bei 6w nicht mehr viel bei rum kommt, das hatte ich auch im sinn als ich ARM erwähnte und den Bereich der TDP

Arm funktioniert wirklich sehr gut bei sehr kleinen TDP bereichen. Nimmt man nun Desktop Ryzen wird aus kostengründen auf Chiplets gesetzt und da braucht der chiplet in größerer Fertigung mit den Management (wie auch imemr das gerade genau hieß) aufgaben schon so viel wie ne komplette kleine ARM CPU :-)
Deswegen gibt es ja auch für die Notebooks ein anderes Design, das weiter auf Effizienz getrimmt ist und keine Chiplets hat, also Monolitisch.

Nun kann ich dir nicht sagen wie da der vergleich ist, wo das sinnvolle untere ende der TDP ist. Interessehalber wurde bei dem letzten test mit Desktop Ryzen verglichen (wäre meine Annahme)

Jedenfalls sind die Pentium aktuell alle eher auf wenig verbrauch (kommt fast als nebeneffekt :-) ) und geringes Budget ausgelegt. Das untere ende Der Leistungsfahnenstange. Sind halt auch vergleichsweise Chips mit geringer Transistoranzahl, was schon deswegen den Stromverbrauch reduziert.

Die sind offensichtlich recht gut geeignet für den TDP Bereich.

Edit:
Und der letzte Test dazu war dann wohl auch nicht mit den 7000ern, nur weiß ich auch da nicht wo der sinnvolle untere TDP Bereich ist, wo die Leistung noch gut ist. Also performance/w . Im obersten Bereich verschelchtert sich die Performance/w ja auch wieder deutlich, da gehts nurnoch um Performance..

Edit:
@Dome87 jemand hat gepetzt, du bist jetzt auf der Startseite :D :jumpin:
:sex::mussweg:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alexander2
Keine Ahnung. Vielleicht übernimmt später die Grafikkarte die CPU Rechenleisung mit. Also eher Grafikkarten mit CPU Kern als CPU mit Grafikchip. Jedenfalls bei Gaming PCs.
 
Low/mid-end: Ich denke das hier weiterhin "Klassische" Chips zum Einsatz kommen werden, entweder als APU oder mit Compute+IO Chiplet.

Im High-end denke Ich das BIG.little auch im Desktop bestehen bleiben wird.
Wenn wir von einem AMD Chiplet Design mit 3 Chiplets ausgehen, wäre z.B: ein High-Performance Chiplet mit 3D Cache oä. möglich, und das andere mit little Kernen, AI Einheiten und einer ASIC Einheit, vermutlich sogar mit nochmals anderem Node als das HP und das IO Chiplet, wegen der Node-scalierung.

Gestapelte Chips werden uns im High-End vermutlich auch erhalten bleiben, genauso wie x86 als Basisarchitektur.
Gut möglich dass die CPU's zukünftig RISC-V Code ohne Emulation ausführen können (via spezialisierten Kernen, oder ev. sogar umgekehrt). ARM wird es, sofern das Geschäftsmodell beibehalten wird, auch in 15 Jahren im Desktop Bereich nur ein Nischendasein haben. Die Konkurrenz durch RISC-V dürfte hier einfach zu gross sein.

Der Maximale Stromverbrauch wird uns vermutlich erhalten bleiben, wenn nicht sogar steigern, im Idle und unter kleiner Last, dürfte der Verbrauch aber wieder zurückgehen, durch neue Stromspartechniken.

Anzahl Kerne:
Desktop: Mehr als 16 BIG Kerne sehe Ich nicht, dafür viel mehr Spezial Einheiten zur Beschleunigung von Speziellen aufgaben.
HEDT oder wie das dann genannt wird: ev. gleicher Sockel wie der Desktop, dafür nur BIG Kerne und Spezial Einheiten.
 
  • Gefällt mir
Reaktionen: Javeran
@andi_sco Da ist der wirklich gut in dem TDP Bereich, aber wurde der nur mit maximal 4w getestet? die standard TDP ist doch 6w laut Intel.

Ist aber nen guter vergleich, mann sollte halt schon ab und an schauen bei dem TDP bereich den man nutzen will, was da überhaut effizient ist.
 
Begrüßenswert ist eine Zunahme von Herstellern (Designer) die den Status quo der Etablierten aufbrechen. Es muss nicht sein, dass ein Anfangs überragendes Design bis zu Gehtnichtmehr ausgepresst wird, sondern dass bei es bei mehr konkurrierenden Herstellern zu innovativeren Fortschritten kommt.
 
  • Gefällt mir
Reaktionen: andi_sco
Martinfrost2003 schrieb:
Keine Ahnung. Vielleicht übernimmt später die Grafikkarte die CPU Rechenleisung mit. Also eher Grafikkarten mit CPU Kern als CPU mit Grafikchip. Jedenfalls bei Gaming PCs.
Genau, man darf da auch nicht ausser Augen verlieren, das die CPU andere Berechnungsarten Leistet als eine GPU, von daher ist der Hinweis mit extra CPU Kern auf der Graka dann was am ehesten passiert.

Wobei ich für den PC Bereich nicht daran glaube, das das umgesetzt wird.
 
deo schrieb:
Anfangs überragendes Design
X86 ist leider zu stark verbreitet und die ARM "Konkurrenz" zu teuer.
Die Preise, die für die Teile aufgerufen werden sind ja teilweise mehr als nervig.

Martinfrost2003 schrieb:
Also eher Grafikkarten mit CPU Kern als CPU mit Grafikchip
Fusion 3.0
 
Zurück
Oben