Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Eure Meinung über CPUs und deren Technik in 15 Jahren?
- Ersteller Dome87
- Erstellt am
Ich kenne mich zu wenig mit der eigentlichen Technik aus, hoffe jedoch (oder befürchte), dass sich die ganze Sache in 15 Jahren komplett anders darstellt.
Der aktuelle Weg ist sicherlich derjenige ohne Ziel: Zu viel Verbrauch! Gibt es nicht etwas effizienteres als die x86 Technik? Apple, Qualcomm oder ARM sind auch interessant mit ihren Entwicklungen, nur kann man das auch für den normalen PC nutzen? Was müsste dafür alles geändert werden?
Ich wünsche mir, dass ich für meinen Computer in den nächsten Monaten einen Ersatz finde, um wenigstens die nächsten Jahre durchzuhalten, bevor es vielleicht was ganz anderes gibt. Wer weiß?
Ich ersetze einen TDP 77W Prozessor (real ca. 40W Verbrauch) irgendwann mit einem TDP 65W Prozessor, der real bis zu mind. 88W/150W verbräht, je nach Hersteller und nur kurzfristig - verrückte Welt!
Der aktuelle Weg ist sicherlich derjenige ohne Ziel: Zu viel Verbrauch! Gibt es nicht etwas effizienteres als die x86 Technik? Apple, Qualcomm oder ARM sind auch interessant mit ihren Entwicklungen, nur kann man das auch für den normalen PC nutzen? Was müsste dafür alles geändert werden?
Ich wünsche mir, dass ich für meinen Computer in den nächsten Monaten einen Ersatz finde, um wenigstens die nächsten Jahre durchzuhalten, bevor es vielleicht was ganz anderes gibt. Wer weiß?
Ich ersetze einen TDP 77W Prozessor (real ca. 40W Verbrauch) irgendwann mit einem TDP 65W Prozessor, der real bis zu mind. 88W/150W verbräht, je nach Hersteller und nur kurzfristig - verrückte Welt!
Software inklusive Gaming läuft nahezu komplett als Cloudservice, es werden nur noch leichte Clients benötigt,DayvanCowboy schrieb:Der Highend Desktop verschwindet
deren Hardware (keine x86 mehr) irrelevant ist - nur wieviel Zugang sie freischalten.
Gut, vielleicht nicht in 15 Jahren, aber doch so 20-30 Jahren.
Vorher wird der Software-Markt sich extrem konsolidieren:
- Sony wird indirekt verstaatlicht (per Softbank) und wird mit Google seine Angebote bereitstellen
- Taiwan wird von der Volksrepublik eingenommen und Samsung wird zu einem (weiteren) Staatskonzern
- Apple kauft Microsoft auf
- SAP wird entweder von SA oder den Emiraten aufgekauft
- Intel stellt längst konkurrenzfähige diskrete Grafikchips und AMD wird entweder von der Softbank
Hardware, wie wir es jetzt kennen, gibt es nur als clients oder als "Bastelrechner" a la Pi und Konsorten,
weil leistungsstarke "Heimcomputer" nicht mehr benötigt werden bzw erwünscht sind, sei es
wegen der Einsparung von Ressourcen oder wegen der Verhinderung von privaten Entwicklungen.
Dafür wird es ja dann keinen Bedarf geben ¯\(ツ)/¯Daniel D. schrieb:Ich ersetze einen TDP 77W Prozessor (real ca. 40W Verbrauch) irgendwann mit einem TDP 65W Prozessor, der real bis zu mind. 88W/150W verbräht
- x86
- größere Caches
- 7 bis 8 GHz möglich
- big.Little bleibt
- 64 Threads im Mainstream
- Fokus auf Server
- mehr dedizierte Recheneinheiten
Zukünftige Entwicklungen werden immer mehr auf Server fokusiert sein, denn dort ist noch ordentlich Leistung gefragt. Gerade was Dinge wie spezielle Recheneinheiten für bestimmte Aufgaben angeht, wie z.B. KI, wird weiter in den Fokus rücken. Könnte mir vorstellen dass es bis da dahin mehrere CPUs pro Gen gibt, die mit unterschiedlichen Recheneinheiten ihre Zielgruppe suchen.
P
PC_Peter
Gast
Ich hoffe auf Systeme die von niedriger Last über Teillast bis Volllast sehr effizient sind. Da müssten dann auch die Mainboard-Hersteller für DIY-Systeme mitziehen denn die versauen es heute schon zu oft. Kann mir vorstellen, dass da irgendwann auch durch Politik reguliert wird.
Ich bin gespannt ob mehr Mischmasch mit anderen Architekturen kommt. ARM-Chips stecken ja schon in den x86-CPUs - kommt noch was für andere Aufgaben auf bspw. Basis von RISC-V?
Ich vermute außerdem, dass der SOC-Ansatz weiter gesteigert wird, also mehr Integration von Komponenten.
Ich bin gespannt ob mehr Mischmasch mit anderen Architekturen kommt. ARM-Chips stecken ja schon in den x86-CPUs - kommt noch was für andere Aufgaben auf bspw. Basis von RISC-V?
Ich vermute außerdem, dass der SOC-Ansatz weiter gesteigert wird, also mehr Integration von Komponenten.
dualcore_nooby
Lieutenant Pro
- Registriert
- Sep. 2005
- Beiträge
- 873
Eine verlötete APU mit verlötetem Speicher wird Performance und Effizienz zulasten der Modularität steigern. Sieht man ja schon beim M1 und M2, dass das Konzept deutliche Vorteile bringt. 95% der User rüsten eh nie irgendetwas auf.
P
PC_Peter
Gast
Ach, das bereits Offensichtliche hab ich vergessen: Neue Materialien in der Chip-Fertigung. Irgendwann wird Silizium nur noch anteilig eine Rolle spielen.
Ergänzung ()
Denke ich auch. Wozu Modularität beim RAM wenn ich bspw. bei 32GB mehr als genug hab...dualcore_nooby schrieb:Eine verlötete APU mit verlötetem Speicher wird Performance und Effizienz zulasten der Modularität steigern. Sieht man ja schon beim M1 und M2, dass das Konzept deutliche Vorteile bringt. 95% der User rüsten eh nie irgendetwas auf.
LamaMitHut
Captain
- Registriert
- Nov. 2013
- Beiträge
- 3.184
Kommt drauf an, welche Fortschritte die Fertigung macht. Samsung und IBM forschen ja an vtfet, ( https://www.computerbase.de/news/wi...nsistor-fuer-100-prozent-mehr-leistung.79000/ ) damit wären 10 GHz bei moderaten Verbrauch kein Ding.
Womöglich sehen wir auch etwas ganz anderes, wie z.B. reverse multithreading bei dem viele kleine kerne oder gar chiplets einen logischen Kern bilden?
Womöglich sehen wir auch etwas ganz anderes, wie z.B. reverse multithreading bei dem viele kleine kerne oder gar chiplets einen logischen Kern bilden?
P
PC_Peter
Gast
Schon wieder ich: Smartphones werden als persönliches Computing-Device vieles ersetzen. Ich überlege selbst schon eine Docking-Station anzuschaffen zum Anschluss an Bildschirm, Tastatur und Maus. Würde mir abseits vom Spielen für fast alles reichen und viel weniger Energie brauchen.
Ergänzung ()
Klingt ähnlich dem Aufbau von GPUs. Sind eigentlich viele kleine Prozessoren.LamaMitHut schrieb:Kommt drauf an, welche Fortschritte die Fertigung macht. Samsung und IBM forschen ja an vtfet, ( https://www.computerbase.de/news/wi...nsistor-fuer-100-prozent-mehr-leistung.79000/ ) damit wären 10 GHz bei moderaten Verbrauch kein Ding.
Womöglich sehen wir auch etwas ganz anderes, wie z.B. reverse multithreading bei dem viele kleine kerne oder gar chiplets einen logischen Kern bilden?
C
Coeckchen
Gast
dualcore_nooby schrieb:Eine verlötete APU mit verlötetem Speicher wird Performance und Effizienz zulasten der Modularität steigern. Sieht man ja schon beim M1 und M2, dass das Konzept deutliche Vorteile bringt. 95% der User rüsten eh nie irgendetwas auf.
Bei der Modularität gehts ja nicht nur ums Aufrüsten sondern man kann für verschiedene anwendungsfälle verschiedene kombinationen nutzen.
Aber ja, das board deiner wahl mit den tollen anschlüssen wird jetzt nur mit dem Superteuren 16 kerner ausgeliefert, du brauchst aber vllt nur 4 kerne oer anders herum, max 4x USB und 1x Lan reicht dir aus, brachst aber power ohne ende und musst dutzende features mitzahlen...
Apple kann sich das nur erlauben weil sie der Modularität den rücken gekehrt haben und ne treue Fanbase die einfach alles zu jedem Preis kauft weil sie es können.
CDLABSRadonP...
Commodore
- Registriert
- Feb. 2021
- Beiträge
- 4.585
Ich äußere mich mal zu allen Punkten der Umfrage:
- (x) Acht Ghz sind ziemlich gesetzt. Von ~ 4Ghz beim 2600K bis zu ~6Ghz beim 13900K stellte das einen Anstieg um die Hälfte dar. Selbst mit stark abnehmenden Grenznutzen ist ein Anstieg um ein Drittel noch drinnen. Dass es prinzipiell geht ist wegen OC-Rekorden auch klar.
- () Die Anzahl an Performance-Cores wird wahrscheinlich geringer ausfallen, weil sie so viel breiter im Vergleich zu den Flächeneffizenzcores gebaut sein werden.
- (x) Ja, alles werden APUs sein. Nvidia wird wieder groß bei CPUs dabei sein müssen oder untergehen.
- (x) Highlevelcache wird ausschließlich als V(ertical)-Cache und H(orizontal)-Cache vorliegen. Denn Cache skaliert schlecht mit den sinkenden Nodes als Logik und muss sich daher in einem anderen Chiplet als die Logik befinden.
- (x) Absolut gesehen sparsam werden die Chips unter Volllast nicht sein, die Effizienzgewinne werden aber drastisch ausfallen und sie werden sparsam im Idle und vor allen Dingen im Quasi-Idle sein.
- (x) Passt zu 5.: Ja, sie werden unter Volllast viel ziehen. In der Chipletära werden noch ganz andere Package-TDPs als heute erreicht werden.
- (x) Eigentlich nur ein halbes Kreuzchen: Es wird ausnahmslos HuGe.big.LITTLE verwendet werden. Also es wird wenige Performancekerne, Massen an Flächeneffizenzkernen und wenige Energieeffizienzkerne geben. Erstere ermöglichen hohe Performance in Programmen mit sehr begrenzter Parallelisierbarkeit, mittlere extrem hohe Performance bei allen Programmen mit vollständiger Parallelisierbarkeit und letztere hohe Effizienz im (Quasi-)Idle. https://www.computerbase.de/forum/t...-ist-aufgetaucht.2114118/page-4#post-27668028
- () Nein. Natürlich wird IPC (oder besser PPC, PerformancePerCycle) wichtiger sein als Taktgewinn, aber dennoch werden Taktraten weiter steigen und nicht sinken.
- () Eine vollkommen neue Technik ist natürlich so breit formuliert, dass es schwer ist, sich etwas darunter vorstellen zu können. Besonders schwer ist zu sagen, was denn bereits als völlig neue Technologie zählen würde. Ein Kandidat, dem ich eine klare Absage für den Consumerbereich erteile, wären Quantenprozessoren.
- () In vielen Fällen werden sie nicht gesockelt sein, in manchen aber auch gesockelt sein. Beides wird aber vermutlich nicht mehr so wie heute aussehen.
- (x) Ich habe mal das Kreuzchen gesetzt, weil ich mir durchaus vorstellen kann, dass andere ISAs x86 ersetzen werden. Einfach, weil die CPUs ja ohnehin intern nicht so sonderlich viel mit x86 zu tun haben.
- (x) GPUs wird es nur noch in Kombi mit CPUs geben. Von daher braucht es mehr Hersteller.
- () Naja, CPU, GPU und wahrscheinlich Speicher sind dann miteinander verschmolzen. Natürlich könnte man dann sagen, dass das keine reine CPU mehr ist. Aber dann spielen ohnehin schon bald keine CPUs mehr eine Rolle, das wäre also eine ziemliche Nullaussage.
- (x) Alle CPUs werden Chiplet-CPUs sein. Eigentlich klar angesichts der Statements zum Cache und passt auch zu HuGe.big.LITTLE.
- (x) Speicher wandert immer näher zur CPU. Auch klar.
- (x) Consumer-CPUs enthalten FPGA-ähnliche Strukturen. Es gibt zu vieles, was prinzipiell Hardwarebeschleunigung vertragen könnte und sich mit der Zeit wandelt. Daher braucht es die Möglichkeit, neuen Code hardwarezubeschleunigen.
Zuletzt bearbeitet:
(Sprache)
- Registriert
- Aug. 2018
- Beiträge
- 627
In 15 Jahren werden alle aktuell relevanten Patente rund um x86-64, AVX, FMA, … schon eine Weile lang erloschen sein. Für zusätzliche Features, mit denen man die Architektur weiter künstlich (aber wenigstens sinnvoll) erweitern kann, um anschließend immer weiter das gesamte Paket vor weiteren Anbietern schützen zu können, fehlen anscheinend sowohl Intel als auch AMD die Phantasie … x86-128 etwa? ![LOL :lol: :lol:](/forum/styles/smilies/lol.gif)
Sollte x86-64 also dann immer noch am Markt gewünscht sein, werden wir neben den Platzhirschen sicher auch noch Chinesen und Taiwaner sehen, die so etwas günstiger und vielleicht auch besser anbieten.
Und für ARM und RISC-V bliebe dann vielleicht noch eine Dekade, um endlich aus dem Quark zu kommen (, was insbesondere den Software-Stack angeht). Auch wenn diese Architekturen auf Dauer gewisse technische Vorteile gegenüber x86-64 ausspielen werden, entscheidet am Ende der Markt, was sich etablieren kann.
![LOL :lol: :lol:](/forum/styles/smilies/lol.gif)
Sollte x86-64 also dann immer noch am Markt gewünscht sein, werden wir neben den Platzhirschen sicher auch noch Chinesen und Taiwaner sehen, die so etwas günstiger und vielleicht auch besser anbieten.
Und für ARM und RISC-V bliebe dann vielleicht noch eine Dekade, um endlich aus dem Quark zu kommen (, was insbesondere den Software-Stack angeht). Auch wenn diese Architekturen auf Dauer gewisse technische Vorteile gegenüber x86-64 ausspielen werden, entscheidet am Ende der Markt, was sich etablieren kann.
dualcore_nooby
Lieutenant Pro
- Registriert
- Sep. 2005
- Beiträge
- 873
Die Hardware Varianten werden wohl weniger. Vielleicht lassen sich aber Resourcen nachträglich gegen Gebühr freischalten. Manche 7600X haben offensichtlich auch heute schon zwei CCDs mir theoretisch 16 Kernen. Klar werden da Teildefekte Chips ausgeliefert, aber auf 8 oder 10 Kerne könnte man vielleicht per Software aufrüsten. Selbes Spiel würde auch mit max TDP gehen.Coeckchen schrieb:Bei der Modularität gehts ja nicht nur ums Aufrüsten sondern man kann für verschiedene anwendungsfälle verschiedene kombinationen nutzen.
Aber ja, das board deiner wahl mit den tollen anschlüssen wird jetzt nur mit dem Superteuren 16 kerner ausgeliefert, du brauchst aber vllt nur 4 kerne oer anders herum, max 4x USB und 1x Lan reicht dir aus, brachst aber power ohne ende und musst dutzende features mitzahlen...
Apple kann sich das nur erlauben weil sie der Modularität den rücken gekehrt haben und ne treue Fanbase die einfach alles zu jedem Preis kauft weil sie es können.
Wow, danke für deine ausführliche Antwort @CDLABSRadonP... Hat Spaß gemacht, zu lesen!
Oder es kommt ganz anders. Angenommen Sony / MS setzen bei zukünftigen Konsolen nicht mehr auf AMD (x86) sondern auch auf eine ARM/Risc-V APU. Die Spiele der Zukunft wären somit leicht von Konsolen auf Tablets und Handys portierbar aber nicht mehr so für den alten x86 PC, das könnte schon ein Wendepunkt bedeuten.
Ich meinte damit eine Technik, die im Moment für die meisten Menschen keine Rolle spielt und/oder eine Technik, die "alles über den Haufen wirft". Quantencomputer gehören für mich dazu. Viele wissen nicht, wie sie funktionieren und sie hätten kaum mehr was mit heutigen Computern gemeinsam.CDLABSRadonP... schrieb:
- () Eine vollkommen neue Technik ist natürlich so breit formuliert, dass es schwer ist, sich etwas darunter vorstellen zu können. Besonders schwer ist zu sagen, was denn bereits als völlig neue Technologie zählen würde. Ein Kandidat, dem ich eine klare Absage für den Consumerbereich erteile, wären Quantenprozessoren.
Also ich denke das BigLittle ist gekommen um zu bleiben. Bei Smartphones hat sich das ja auch völlig etabliert und dementsprechend wohl seinen nutzen bewiesen.
Außerdem glaube ich nicht, dass die P-Cores deutlich ansteigen werden. Die Multicore Technologie ist etabliert und wird schon jetzt dort genutzt wo es Sinn macht. Daher denke ich dass zusammen mit dem BigLittle Konzept max 8 P-Cores (evtl mit PrimeCore) zusammen mit mehreren kleinen Cores für die Multithreadaufgaben oder Hintergrundaufgaben eingesetzt werden.
In vielen Programmen, auch in Spielen, sehen wir ja jetzt schon, dass mehr Kerne/Threads gar nicht wirklich angetastet werden. Dementsprechend wird hier behaupte ich vor allem eine Fokus auf erhöhte SC Leistung liegen.
Das zum einen durch überarbeitete Architekturen (x86, ARM, RISCV ist dabei irrelevant, wirds vermutlich alles geben) und auch einem höheren Takt (sind wir mal ehrlich l, wie oft haben wir die letzten 15 Jahre gedacht der Takt kann nicht mehr weiter steigen)
Generell glaube ich dass hier aber grundsätzlich neue Technologien und Materialien notwendig werden, die aktuelle Technologie kommt doch spürbar langsam zum Ende.
Außerdem glaube ich auch, dass zukünftige CPUs deutlich größer werden von der Fläche und mehr Spezialeinheiten bieten welche dann die verschiedenen Aufgaben effizienter erledigen (ähnlich wie bei den Apple M Chips ja schon angefangen)
Eine iGPU wird niemals AAA Titel packen (die heutigen vielleicht), schlicht deswegen weil die Anforderungen entsprechend steigen werden.
Außerdem glaube ich nicht, dass die P-Cores deutlich ansteigen werden. Die Multicore Technologie ist etabliert und wird schon jetzt dort genutzt wo es Sinn macht. Daher denke ich dass zusammen mit dem BigLittle Konzept max 8 P-Cores (evtl mit PrimeCore) zusammen mit mehreren kleinen Cores für die Multithreadaufgaben oder Hintergrundaufgaben eingesetzt werden.
In vielen Programmen, auch in Spielen, sehen wir ja jetzt schon, dass mehr Kerne/Threads gar nicht wirklich angetastet werden. Dementsprechend wird hier behaupte ich vor allem eine Fokus auf erhöhte SC Leistung liegen.
Das zum einen durch überarbeitete Architekturen (x86, ARM, RISCV ist dabei irrelevant, wirds vermutlich alles geben) und auch einem höheren Takt (sind wir mal ehrlich l, wie oft haben wir die letzten 15 Jahre gedacht der Takt kann nicht mehr weiter steigen)
Generell glaube ich dass hier aber grundsätzlich neue Technologien und Materialien notwendig werden, die aktuelle Technologie kommt doch spürbar langsam zum Ende.
Außerdem glaube ich auch, dass zukünftige CPUs deutlich größer werden von der Fläche und mehr Spezialeinheiten bieten welche dann die verschiedenen Aufgaben effizienter erledigen (ähnlich wie bei den Apple M Chips ja schon angefangen)
Eine iGPU wird niemals AAA Titel packen (die heutigen vielleicht), schlicht deswegen weil die Anforderungen entsprechend steigen werden.
- Registriert
- Jan. 2018
- Beiträge
- 19.361
CDLABSRadonP...
Commodore
- Registriert
- Feb. 2021
- Beiträge
- 4.585
Das Ansteigen der Anforderungen hat aber nicht wirklich etwas damit zu tun. Die einzige Frage, die relevant ist, lautet: Werden dGPUs von iGPUs ersetzt werden? Wenn die Antwort auf diese Frage ja lautet, ist die Thematik gegessen.7H0M45 schrieb:Eine iGPU wird niemals AAA Titel packen (die heutigen vielleicht), schlicht deswegen weil die Anforderungen entsprechend steigen werden.
Und ich sehe nur Zeichen, die in diese Richtung deuten: Die Kommunikationswege zwischen CPU und GPU müssen sinken. Speicher muss näher an beide heranbewegt werden. In der Chipletära wird es einfach sein, beide zu integrieren.
- Registriert
- Jan. 2018
- Beiträge
- 19.361
ARM ist im Kleinen Effizient, aber im Großen brauchen die genauso Energie wie x86. Und ja, ARM wird durch Windows unterstützt.Daniel D. schrieb:Gibt es nicht etwas effizienteres als die x86 Technik? Apple, Qualcomm oder ARM sind auch interessant mit ihren Entwicklungen, nur kann man das auch für den normalen PC nutzen?
Das wird selbst für Apple ein ziemlich teures Unterfangen, umgekehrt genauso.daivdon schrieb:Apple kauft Microsoft auf
Wie lange fabuliert man schon von 10 GHz?LamaMitHut schrieb:damit wären 10 GHz bei moderaten Verbrauch kein Ding
Da hat sich seit Ende 2015 nicht viel getan, eigentlich überhaupt nichts mehr.PC_Peter schrieb:Smartphones werden als persönliches Computing-Device vieles ersetzen. Ich überlege selbst schon eine Docking-Station anzuschaffen zum Anschluss...
Wovon träumst du Nachts? Man hat nach über 10 Generationen gerade mal den Takt um 50% gesteigert. Vor 11 Jahren war man im Overclocking schon bei 8 GHz, und wo sind die realen Taktraten heute?CDLABSRadonP... schrieb:Acht Ghz sind ziemlich gesetzt. Von ~ 4Ghz beim 2600K bis zu ~6Ghz beim 13900K stellte das einen Anstieg um die Hälfte dar. Selbst mit stark abnehmenden Grenznutzen ist ein Anstieg um ein Drittel noch drinnen. Dass es prinzipiell geht ist wegen OC-Rekorden auch klar.
Ergänzung ()
HBMCDLABSRadonP... schrieb:Speicher muss näher an beide heranbewegt werden.