Eure Meinung über CPUs und deren Technik in 15 Jahren?

Ich denke, in 15 Jahren werden CPUs vermutlich...

  • ...mit 8 oder mehr GHz takten

    Stimmen: 185 31,1%
  • ...herstellerübergreifend 16+ "P"-Cores haben

    Stimmen: 271 45,5%
  • ...iGPUs haben, die für AAA-Titel ausreichen

    Stimmen: 87 14,6%
  • ...fast ausschließlich eine Art "V-Cache" haben

    Stimmen: 281 47,2%
  • ...deutlich sparsamer sein

    Stimmen: 238 40,0%
  • ...mehr Strom brauchen, um mehr Leistung zu erzeugen

    Stimmen: 137 23,0%
  • ...ausnahmslos nach dem big.LITTLE-Prinzip funktionieren

    Stimmen: 211 35,5%
  • ...durch neue Architekturen wieder niedriger takten

    Stimmen: 154 25,9%
  • ...durch eine völlig neue Technik ersetzt

    Stimmen: 133 22,4%
  • ...immer fest mit dem Mainboard verlötet sein

    Stimmen: 40 6,7%
  • ...im Desktop nicht mehr auf x86 basieren

    Stimmen: 189 31,8%
  • ...von mehr Herstellern als Intel, AMD (und Apple) angeboten

    Stimmen: 144 24,2%
  • ...keine große Bedeutung mehr in Desktop-PCs haben

    Stimmen: 68 11,4%

  • Umfrageteilnehmer
    595
...deutlich sparsamer sein
...durch neue Architekturen wieder niedriger takten
 
  • Gefällt mir
Reaktionen: Dome87
Ich kenne mich zu wenig mit der eigentlichen Technik aus, hoffe jedoch (oder befürchte), dass sich die ganze Sache in 15 Jahren komplett anders darstellt.

Der aktuelle Weg ist sicherlich derjenige ohne Ziel: Zu viel Verbrauch! Gibt es nicht etwas effizienteres als die x86 Technik? Apple, Qualcomm oder ARM sind auch interessant mit ihren Entwicklungen, nur kann man das auch für den normalen PC nutzen? Was müsste dafür alles geändert werden?

Ich wünsche mir, dass ich für meinen Computer in den nächsten Monaten einen Ersatz finde, um wenigstens die nächsten Jahre durchzuhalten, bevor es vielleicht was ganz anderes gibt. Wer weiß?

Ich ersetze einen TDP 77W Prozessor (real ca. 40W Verbrauch) irgendwann mit einem TDP 65W Prozessor, der real bis zu mind. 88W/150W verbräht, je nach Hersteller und nur kurzfristig - verrückte Welt!
 
  • Gefällt mir
Reaktionen: manniefresh
DayvanCowboy schrieb:
Der Highend Desktop verschwindet
Software inklusive Gaming läuft nahezu komplett als Cloudservice, es werden nur noch leichte Clients benötigt,
deren Hardware (keine x86 mehr) irrelevant ist - nur wieviel Zugang sie freischalten.
Gut, vielleicht nicht in 15 Jahren, aber doch so 20-30 Jahren.
Vorher wird der Software-Markt sich extrem konsolidieren:
  • Sony wird indirekt verstaatlicht (per Softbank) und wird mit Google seine Angebote bereitstellen
  • Taiwan wird von der Volksrepublik eingenommen und Samsung wird zu einem (weiteren) Staatskonzern
alternativ: Taiwan bleibt unabhängig und Samsung wird zum Staat...
  • Apple kauft Microsoft auf
  • SAP wird entweder von SA oder den Emiraten aufgekauft
  • Intel stellt längst konkurrenzfähige diskrete Grafikchips und AMD wird entweder von der Softbank
oder einem anderen Großkonzern aufgekauft, möglicherweise MS, falls MS unabhängig geblieben ist

Hardware, wie wir es jetzt kennen, gibt es nur als clients oder als "Bastelrechner" a la Pi und Konsorten,
weil leistungsstarke "Heimcomputer" nicht mehr benötigt werden bzw erwünscht sind, sei es
wegen der Einsparung von Ressourcen oder wegen der Verhinderung von privaten Entwicklungen.
Daniel D. schrieb:
Ich ersetze einen TDP 77W Prozessor (real ca. 40W Verbrauch) irgendwann mit einem TDP 65W Prozessor, der real bis zu mind. 88W/150W verbräht
Dafür wird es ja dann keinen Bedarf geben ¯\(ツ)
 
  • x86
  • größere Caches
  • 7 bis 8 GHz möglich
  • big.Little bleibt
  • 64 Threads im Mainstream
  • Fokus auf Server
  • mehr dedizierte Recheneinheiten
Allgemein hat sich bei der CPU-Leistung im Desktop bereits eine Sättigung eingestellt. Selbst ein kleiner i3 ist für fast alle Aufgaben stark genug.

Zukünftige Entwicklungen werden immer mehr auf Server fokusiert sein, denn dort ist noch ordentlich Leistung gefragt. Gerade was Dinge wie spezielle Recheneinheiten für bestimmte Aufgaben angeht, wie z.B. KI, wird weiter in den Fokus rücken. Könnte mir vorstellen dass es bis da dahin mehrere CPUs pro Gen gibt, die mit unterschiedlichen Recheneinheiten ihre Zielgruppe suchen.
 
  • Gefällt mir
Reaktionen: TomH22 und Dome87
Ich hoffe auf Systeme die von niedriger Last über Teillast bis Volllast sehr effizient sind. Da müssten dann auch die Mainboard-Hersteller für DIY-Systeme mitziehen denn die versauen es heute schon zu oft. Kann mir vorstellen, dass da irgendwann auch durch Politik reguliert wird.

Ich bin gespannt ob mehr Mischmasch mit anderen Architekturen kommt. ARM-Chips stecken ja schon in den x86-CPUs - kommt noch was für andere Aufgaben auf bspw. Basis von RISC-V?

Ich vermute außerdem, dass der SOC-Ansatz weiter gesteigert wird, also mehr Integration von Komponenten.
 
  • Gefällt mir
Reaktionen: Dome87
Eine verlötete APU mit verlötetem Speicher wird Performance und Effizienz zulasten der Modularität steigern. Sieht man ja schon beim M1 und M2, dass das Konzept deutliche Vorteile bringt. 95% der User rüsten eh nie irgendetwas auf.
 
  • Gefällt mir
Reaktionen: PC_Peter
Ach, das bereits Offensichtliche hab ich vergessen: Neue Materialien in der Chip-Fertigung. Irgendwann wird Silizium nur noch anteilig eine Rolle spielen.
Ergänzung ()

dualcore_nooby schrieb:
Eine verlötete APU mit verlötetem Speicher wird Performance und Effizienz zulasten der Modularität steigern. Sieht man ja schon beim M1 und M2, dass das Konzept deutliche Vorteile bringt. 95% der User rüsten eh nie irgendetwas auf.
Denke ich auch. Wozu Modularität beim RAM wenn ich bspw. bei 32GB mehr als genug hab...
 
  • Gefällt mir
Reaktionen: Dome87
Schon wieder ich: Smartphones werden als persönliches Computing-Device vieles ersetzen. Ich überlege selbst schon eine Docking-Station anzuschaffen zum Anschluss an Bildschirm, Tastatur und Maus. Würde mir abseits vom Spielen für fast alles reichen und viel weniger Energie brauchen.
Ergänzung ()

LamaMitHut schrieb:
Kommt drauf an, welche Fortschritte die Fertigung macht. Samsung und IBM forschen ja an vtfet, ( https://www.computerbase.de/news/wi...nsistor-fuer-100-prozent-mehr-leistung.79000/ ) damit wären 10 GHz bei moderaten Verbrauch kein Ding.

Womöglich sehen wir auch etwas ganz anderes, wie z.B. reverse multithreading bei dem viele kleine kerne oder gar chiplets einen logischen Kern bilden?
Klingt ähnlich dem Aufbau von GPUs. Sind eigentlich viele kleine Prozessoren.
 
dualcore_nooby schrieb:
Eine verlötete APU mit verlötetem Speicher wird Performance und Effizienz zulasten der Modularität steigern. Sieht man ja schon beim M1 und M2, dass das Konzept deutliche Vorteile bringt. 95% der User rüsten eh nie irgendetwas auf.

Bei der Modularität gehts ja nicht nur ums Aufrüsten sondern man kann für verschiedene anwendungsfälle verschiedene kombinationen nutzen.

Aber ja, das board deiner wahl mit den tollen anschlüssen wird jetzt nur mit dem Superteuren 16 kerner ausgeliefert, du brauchst aber vllt nur 4 kerne oer anders herum, max 4x USB und 1x Lan reicht dir aus, brachst aber power ohne ende und musst dutzende features mitzahlen...

Apple kann sich das nur erlauben weil sie der Modularität den rücken gekehrt haben und ne treue Fanbase die einfach alles zu jedem Preis kauft weil sie es können.
 
  • Gefällt mir
Reaktionen: PC_Peter
Ich äußere mich mal zu allen Punkten der Umfrage:
  1. (x) Acht Ghz sind ziemlich gesetzt. Von ~ 4Ghz beim 2600K bis zu ~6Ghz beim 13900K stellte das einen Anstieg um die Hälfte dar. Selbst mit stark abnehmenden Grenznutzen ist ein Anstieg um ein Drittel noch drinnen. Dass es prinzipiell geht ist wegen OC-Rekorden auch klar.
  2. () Die Anzahl an Performance-Cores wird wahrscheinlich geringer ausfallen, weil sie so viel breiter im Vergleich zu den Flächeneffizenzcores gebaut sein werden.
  3. (x) Ja, alles werden APUs sein. Nvidia wird wieder groß bei CPUs dabei sein müssen oder untergehen.
  4. (x) Highlevelcache wird ausschließlich als V(ertical)-Cache und H(orizontal)-Cache vorliegen. Denn Cache skaliert schlecht mit den sinkenden Nodes als Logik und muss sich daher in einem anderen Chiplet als die Logik befinden.
  5. (x) Absolut gesehen sparsam werden die Chips unter Volllast nicht sein, die Effizienzgewinne werden aber drastisch ausfallen und sie werden sparsam im Idle und vor allen Dingen im Quasi-Idle sein.
  6. (x) Passt zu 5.: Ja, sie werden unter Volllast viel ziehen. In der Chipletära werden noch ganz andere Package-TDPs als heute erreicht werden.
  7. (x) Eigentlich nur ein halbes Kreuzchen: Es wird ausnahmslos HuGe.big.LITTLE verwendet werden. Also es wird wenige Performancekerne, Massen an Flächeneffizenzkernen und wenige Energieeffizienzkerne geben. Erstere ermöglichen hohe Performance in Programmen mit sehr begrenzter Parallelisierbarkeit, mittlere extrem hohe Performance bei allen Programmen mit vollständiger Parallelisierbarkeit und letztere hohe Effizienz im (Quasi-)Idle. https://www.computerbase.de/forum/t...-ist-aufgetaucht.2114118/page-4#post-27668028
  8. () Nein. Natürlich wird IPC (oder besser PPC, PerformancePerCycle) wichtiger sein als Taktgewinn, aber dennoch werden Taktraten weiter steigen und nicht sinken.
  9. () Eine vollkommen neue Technik ist natürlich so breit formuliert, dass es schwer ist, sich etwas darunter vorstellen zu können. Besonders schwer ist zu sagen, was denn bereits als völlig neue Technologie zählen würde. Ein Kandidat, dem ich eine klare Absage für den Consumerbereich erteile, wären Quantenprozessoren.
  10. () In vielen Fällen werden sie nicht gesockelt sein, in manchen aber auch gesockelt sein. Beides wird aber vermutlich nicht mehr so wie heute aussehen.
  11. (x) Ich habe mal das Kreuzchen gesetzt, weil ich mir durchaus vorstellen kann, dass andere ISAs x86 ersetzen werden. Einfach, weil die CPUs ja ohnehin intern nicht so sonderlich viel mit x86 zu tun haben.
  12. (x) GPUs wird es nur noch in Kombi mit CPUs geben. Von daher braucht es mehr Hersteller.
  13. () Naja, CPU, GPU und wahrscheinlich Speicher sind dann miteinander verschmolzen. Natürlich könnte man dann sagen, dass das keine reine CPU mehr ist. Aber dann spielen ohnehin schon bald keine CPUs mehr eine Rolle, das wäre also eine ziemliche Nullaussage.
So, damit wären die Fragen beantwortet. Allerdings gilt es noch ein paar Lücken zu stopfen.
  1. (x) Alle CPUs werden Chiplet-CPUs sein. Eigentlich klar angesichts der Statements zum Cache und passt auch zu HuGe.big.LITTLE.
  2. (x) Speicher wandert immer näher zur CPU. Auch klar.
  3. (x) Consumer-CPUs enthalten FPGA-ähnliche Strukturen. Es gibt zu vieles, was prinzipiell Hardwarebeschleunigung vertragen könnte und sich mit der Zeit wandelt. Daher braucht es die Möglichkeit, neuen Code hardwarezubeschleunigen.
Sicherlich habe ich noch vieles übersehen.
 
Zuletzt bearbeitet: (Sprache)
  • Gefällt mir
Reaktionen: maxrl, dualcore_nooby und Dome87
In 15 Jahren werden alle aktuell relevanten Patente rund um x86-64, AVX, FMA, … schon eine Weile lang erloschen sein. Für zusätzliche Features, mit denen man die Architektur weiter künstlich (aber wenigstens sinnvoll) erweitern kann, um anschließend immer weiter das gesamte Paket vor weiteren Anbietern schützen zu können, fehlen anscheinend sowohl Intel als auch AMD die Phantasie … x86-128 etwa? :lol:

Sollte x86-64 also dann immer noch am Markt gewünscht sein, werden wir neben den Platzhirschen sicher auch noch Chinesen und Taiwaner sehen, die so etwas günstiger und vielleicht auch besser anbieten.

Und für ARM und RISC-V bliebe dann vielleicht noch eine Dekade, um endlich aus dem Quark zu kommen (, was insbesondere den Software-Stack angeht). Auch wenn diese Architekturen auf Dauer gewisse technische Vorteile gegenüber x86-64 ausspielen werden, entscheidet am Ende der Markt, was sich etablieren kann.
 
Coeckchen schrieb:
Bei der Modularität gehts ja nicht nur ums Aufrüsten sondern man kann für verschiedene anwendungsfälle verschiedene kombinationen nutzen.

Aber ja, das board deiner wahl mit den tollen anschlüssen wird jetzt nur mit dem Superteuren 16 kerner ausgeliefert, du brauchst aber vllt nur 4 kerne oer anders herum, max 4x USB und 1x Lan reicht dir aus, brachst aber power ohne ende und musst dutzende features mitzahlen...

Apple kann sich das nur erlauben weil sie der Modularität den rücken gekehrt haben und ne treue Fanbase die einfach alles zu jedem Preis kauft weil sie es können.
Die Hardware Varianten werden wohl weniger. Vielleicht lassen sich aber Resourcen nachträglich gegen Gebühr freischalten. Manche 7600X haben offensichtlich auch heute schon zwei CCDs mir theoretisch 16 Kernen. Klar werden da Teildefekte Chips ausgeliefert, aber auf 8 oder 10 Kerne könnte man vielleicht per Software aufrüsten. Selbes Spiel würde auch mit max TDP gehen.
 
Oder es kommt ganz anders. Angenommen Sony / MS setzen bei zukünftigen Konsolen nicht mehr auf AMD (x86) sondern auch auf eine ARM/Risc-V APU. Die Spiele der Zukunft wären somit leicht von Konsolen auf Tablets und Handys portierbar aber nicht mehr so für den alten x86 PC, das könnte schon ein Wendepunkt bedeuten.
 
CDLABSRadonP... schrieb:
  1. () Eine vollkommen neue Technik ist natürlich so breit formuliert, dass es schwer ist, sich etwas darunter vorstellen zu können. Besonders schwer ist zu sagen, was denn bereits als völlig neue Technologie zählen würde. Ein Kandidat, dem ich eine klare Absage für den Consumerbereich erteile, wären Quantenprozessoren.
Ich meinte damit eine Technik, die im Moment für die meisten Menschen keine Rolle spielt und/oder eine Technik, die "alles über den Haufen wirft". Quantencomputer gehören für mich dazu. Viele wissen nicht, wie sie funktionieren und sie hätten kaum mehr was mit heutigen Computern gemeinsam.
 
  • Gefällt mir
Reaktionen: 7H0M45
Also ich denke das BigLittle ist gekommen um zu bleiben. Bei Smartphones hat sich das ja auch völlig etabliert und dementsprechend wohl seinen nutzen bewiesen.

Außerdem glaube ich nicht, dass die P-Cores deutlich ansteigen werden. Die Multicore Technologie ist etabliert und wird schon jetzt dort genutzt wo es Sinn macht. Daher denke ich dass zusammen mit dem BigLittle Konzept max 8 P-Cores (evtl mit PrimeCore) zusammen mit mehreren kleinen Cores für die Multithreadaufgaben oder Hintergrundaufgaben eingesetzt werden.

In vielen Programmen, auch in Spielen, sehen wir ja jetzt schon, dass mehr Kerne/Threads gar nicht wirklich angetastet werden. Dementsprechend wird hier behaupte ich vor allem eine Fokus auf erhöhte SC Leistung liegen.

Das zum einen durch überarbeitete Architekturen (x86, ARM, RISCV ist dabei irrelevant, wirds vermutlich alles geben) und auch einem höheren Takt (sind wir mal ehrlich l, wie oft haben wir die letzten 15 Jahre gedacht der Takt kann nicht mehr weiter steigen)

Generell glaube ich dass hier aber grundsätzlich neue Technologien und Materialien notwendig werden, die aktuelle Technologie kommt doch spürbar langsam zum Ende.

Außerdem glaube ich auch, dass zukünftige CPUs deutlich größer werden von der Fläche und mehr Spezialeinheiten bieten welche dann die verschiedenen Aufgaben effizienter erledigen (ähnlich wie bei den Apple M Chips ja schon angefangen)


Eine iGPU wird niemals AAA Titel packen (die heutigen vielleicht), schlicht deswegen weil die Anforderungen entsprechend steigen werden.
 
  • Gefällt mir
Reaktionen: Dome87
@Piak wie schon weiter oben geschrieben: Verbrauch etc. spielt da zusätzlich mit rein. Da müsste ein Board, nur für die GPU auch mal schnell 250W+ bereit stellen können, zusätzlich zur CPU.
Und die Speicheranbindung macht es nicht einfacher...
 
  • Gefällt mir
Reaktionen: Dome87
7H0M45 schrieb:
Eine iGPU wird niemals AAA Titel packen (die heutigen vielleicht), schlicht deswegen weil die Anforderungen entsprechend steigen werden.
Das Ansteigen der Anforderungen hat aber nicht wirklich etwas damit zu tun. Die einzige Frage, die relevant ist, lautet: Werden dGPUs von iGPUs ersetzt werden? Wenn die Antwort auf diese Frage ja lautet, ist die Thematik gegessen.
Und ich sehe nur Zeichen, die in diese Richtung deuten: Die Kommunikationswege zwischen CPU und GPU müssen sinken. Speicher muss näher an beide heranbewegt werden. In der Chipletära wird es einfach sein, beide zu integrieren.
 
  • Gefällt mir
Reaktionen: Dome87
Daniel D. schrieb:
Gibt es nicht etwas effizienteres als die x86 Technik? Apple, Qualcomm oder ARM sind auch interessant mit ihren Entwicklungen, nur kann man das auch für den normalen PC nutzen?
ARM ist im Kleinen Effizient, aber im Großen brauchen die genauso Energie wie x86. Und ja, ARM wird durch Windows unterstützt.

daivdon schrieb:
Apple kauft Microsoft auf
Das wird selbst für Apple ein ziemlich teures Unterfangen, umgekehrt genauso.

LamaMitHut schrieb:
damit wären 10 GHz bei moderaten Verbrauch kein Ding
Wie lange fabuliert man schon von 10 GHz?

PC_Peter schrieb:
Smartphones werden als persönliches Computing-Device vieles ersetzen. Ich überlege selbst schon eine Docking-Station anzuschaffen zum Anschluss...
Da hat sich seit Ende 2015 nicht viel getan, eigentlich überhaupt nichts mehr.

CDLABSRadonP... schrieb:
Acht Ghz sind ziemlich gesetzt. Von ~ 4Ghz beim 2600K bis zu ~6Ghz beim 13900K stellte das einen Anstieg um die Hälfte dar. Selbst mit stark abnehmenden Grenznutzen ist ein Anstieg um ein Drittel noch drinnen. Dass es prinzipiell geht ist wegen OC-Rekorden auch klar.
Wovon träumst du Nachts? Man hat nach über 10 Generationen gerade mal den Takt um 50% gesteigert. Vor 11 Jahren war man im Overclocking schon bei 8 GHz, und wo sind die realen Taktraten heute?
Ergänzung ()

CDLABSRadonP... schrieb:
Speicher muss näher an beide heranbewegt werden.
HBM
 
  • Gefällt mir
Reaktionen: Dome87
Zurück
Oben