Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Eure Meinung über CPUs und deren Technik in 15 Jahren?
- Ersteller Dome87
- Erstellt am
Känguru
Ensign
- Registriert
- Apr. 2017
- Beiträge
- 147
15 Jahre sind schon ein langer Zeitraum: das reicht für 2-3 komplett neue Entwicklungszyklen, wenn man z.B. AMDs Ryzen als Maßstab nimmt.
Ich schätze, dass die Betriebssysteme und insbesondere Microsofts "Windows" sich stark in die Cloud verlagern werden. Der "Desktop" aber auch Laptops werden vermutlich mehr zu einem reinen Terminal degradiert.
Aktuell liegen Daten meistens auf der lokalen SSD gespeichert und werden lokal prozessiert. In die Cloud kommen die Daten nur als Backup oder zum Austausch.
Dieses Paradigma wird sich m.E. ändern: Daten liegen dann hauptsächlich in der Cloud und Programme laufen im wesentlichen dort.
Einzig im Spiele-Sektor bzw. wenn es auf das letzte Quäntchen Latenz ankommt, könnte die Performance des Dekstop noch eine wesentliche Rolle spielen. Die bisherigen Ansätze das Gaming in die Cloud auszulagern sind anscheinend noch nicht in der Breite überzeugend genug. Aber auch das könnte sich ändern.
Zur Technik:
Das Big.Little-Prinzip hat sich m.E. zur Performance- bzw. Effizienzsteigerung etabliert und wird auch bei x86 zum Standard werden. Hinzu kommen weitere Spezialisierungen wie jetzt schon für KI und Videoencoding, etc.
Zur Spezialisierung zählt auch die Kombination von CPU nach dem Prinzip SISD (Single Instruction, Single Data) und GPU aka. SIMD (Single Instruction Muldiple Data), deren Kombination m.E. ebenfalls standard wird. Dazu reichlich (V-)L2-Cache und schneller (HBM-)L3-Cache.
8 GHz Taktraten sind m.E. durchaus möglich, aber nur unter Beibehaltung der Effizienz. Schon jetzt wird der Energieverbrauch immer relevanter, daher rechne ich nicht mit einer weiteren wesentlichen Steigerung wie in den letzten Jahren.
Ob ARM dem x86-Lager weiter Anteile abnehmen wird hängt m.E. vor allem von weiteren Effizienzsteigerungen ab. Aktuell nähern sich die beiden Architekturen einander an. Quantencomputer werden voraussichtlich nur für spezialisierte Aufgaben eine größere Rolle spielen.
Aber wer weiß, wenn es in den 15 Jahren gelingt DEN Quanten-Kryptografie-Brecher zu entwickeln, könnte das weitreichende Auswirkungen haben...
Ich schätze, dass die Betriebssysteme und insbesondere Microsofts "Windows" sich stark in die Cloud verlagern werden. Der "Desktop" aber auch Laptops werden vermutlich mehr zu einem reinen Terminal degradiert.
Aktuell liegen Daten meistens auf der lokalen SSD gespeichert und werden lokal prozessiert. In die Cloud kommen die Daten nur als Backup oder zum Austausch.
Dieses Paradigma wird sich m.E. ändern: Daten liegen dann hauptsächlich in der Cloud und Programme laufen im wesentlichen dort.
Einzig im Spiele-Sektor bzw. wenn es auf das letzte Quäntchen Latenz ankommt, könnte die Performance des Dekstop noch eine wesentliche Rolle spielen. Die bisherigen Ansätze das Gaming in die Cloud auszulagern sind anscheinend noch nicht in der Breite überzeugend genug. Aber auch das könnte sich ändern.
Zur Technik:
Das Big.Little-Prinzip hat sich m.E. zur Performance- bzw. Effizienzsteigerung etabliert und wird auch bei x86 zum Standard werden. Hinzu kommen weitere Spezialisierungen wie jetzt schon für KI und Videoencoding, etc.
Zur Spezialisierung zählt auch die Kombination von CPU nach dem Prinzip SISD (Single Instruction, Single Data) und GPU aka. SIMD (Single Instruction Muldiple Data), deren Kombination m.E. ebenfalls standard wird. Dazu reichlich (V-)L2-Cache und schneller (HBM-)L3-Cache.
8 GHz Taktraten sind m.E. durchaus möglich, aber nur unter Beibehaltung der Effizienz. Schon jetzt wird der Energieverbrauch immer relevanter, daher rechne ich nicht mit einer weiteren wesentlichen Steigerung wie in den letzten Jahren.
Ob ARM dem x86-Lager weiter Anteile abnehmen wird hängt m.E. vor allem von weiteren Effizienzsteigerungen ab. Aktuell nähern sich die beiden Architekturen einander an. Quantencomputer werden voraussichtlich nur für spezialisierte Aufgaben eine größere Rolle spielen.
Aber wer weiß, wenn es in den 15 Jahren gelingt DEN Quanten-Kryptografie-Brecher zu entwickeln, könnte das weitreichende Auswirkungen haben...
Irgendwie gefallen mir alle Antwortmöglichkeiten nicht so recht. Das erste was mir eingefallen ist: "so wie Apple M1":
- ein Cluster general CPU Cores, möglichst effizient, also aktuell um die 8 Cores, 3 GHz
- ein großen Cluster GPU
- ein Cluster für Matrizenoperationen (aka "KI" würg)
- sinnvolle fixed function units wie zb De-/Encoder
- dicker Cache mit leistungsstarker inner-Chip Kommunikation
- breites Speicherinterface mit der effizientesten Technologie, aktuell LPDDR5
CPU in 15 Jahren? Ich wage es mal und lehne mich aus dem Fenster.
Ende der möglichen Strukturverkleinerungen bei CPUs basierend auf Lithografie und Siliziumscheiben.
CPUs mit x86-64 und RISC-V Dual-Befehlssätze.
Ob mehr kleine oder weniger fette Kerne kommen werden hängt stark von der weiteren Entwicklung der Software ab.
Zumindest mehr L3-Cache dürfte sicher sein, denn sollte kein neuer RAM-Typ mit geringerer Latenz vorhanden sein geht da kein Weg daran vorbei.
Ende der möglichen Strukturverkleinerungen bei CPUs basierend auf Lithografie und Siliziumscheiben.
CPUs mit x86-64 und RISC-V Dual-Befehlssätze.
Ob mehr kleine oder weniger fette Kerne kommen werden hängt stark von der weiteren Entwicklung der Software ab.
Zumindest mehr L3-Cache dürfte sicher sein, denn sollte kein neuer RAM-Typ mit geringerer Latenz vorhanden sein geht da kein Weg daran vorbei.
Alexander2
Fleet Admiral
- Registriert
- Aug. 2014
- Beiträge
- 12.146
Ich gaube nicht so recht, das sich da vie tuen wird. Wenn man sich die Latenzen von DDR (1) bis heute DDR5 anschaut (recht random immer den erstbesten genommen außer bei DDR5, weil das am anfang des Zyklus ist) sind die Latenzen immer um den selben wert geeiert, da ist nichts zu erwarten.WinnieW2 schrieb:RAM-Typ mit geringerer Latenz
CAS Latency CL: 2.5 (entspricht ~15.02ns) DDR
CAS Latency CL: 5 (entspricht ~14.99ns) DDR2
CL: 9 (entspricht ~13.50ns) DDR3 ohne LowVoltage
CL: 11 (entspricht ~13.75ns) DDR3
CAS Latency CL: 17 (entspricht ~14.17ns) DDR4
CAS Latency CL: 38 (entspricht ~14.62ns) DDR5
Meinst du evtl. das wegen der CL werte es langsamer wäre? das der CL Wert steigt liegt nur an dessen Verhältnis zu den MHz.
@Alexander2
Ich meine die Gesamtlatenz beim RAM-Zugriff, da gab es in den letzten Jahren kaum eine Verbesserung was den Random-Access beschleunigt hätte.
Nur der RAM-Durchsatz wurde beschleunigt.
Ich meine die Gesamtlatenz beim RAM-Zugriff, da gab es in den letzten Jahren kaum eine Verbesserung was den Random-Access beschleunigt hätte.
Nur der RAM-Durchsatz wurde beschleunigt.
Ich denke, dass alles NICHT zutreffen wird, kann aber nicht abstimmen. Deswegen hier die Antwort und Begründung wieseo:
- ...mit 8 oder mehr GHz takten => Takt wird ca. gleich bleiben bzw. leicht steigen. Performancesteigerungen kommen über IPC Steigerungen, generell werden die Schritte mit dem Ende von Moores Law aber deutlich kleiner
- ...herstellerübergreifend 16+ "P"-Cores haben => Ich denke Intel bleibt bei den 8 P Cores, zusätzliche MT Performance kommt über E Cores.
- ...iGPUs haben, die für AAA-Titel ausreichen => Definitiv nicht. iGPU Performance wird leicht steigen (Moores Law is zu Ende also eher geringer), die Anforderungen für Spiele jedoch auch. Generell wird sich Gaming aber eher in Richtung Konsolen bewegen.
- ...fast ausschließlich eine Art "V-Cache" haben => Denke ich nicht, da dieser nur bei Gaming gebraucht wird und ein Großteil der Geräte nicht für Gaming verwendet werden.
- ...deutlich sparsamer sein => Ich denke, dass sich der Trend fortsetzt und hier die Bandbreite generell größer wird d.h. bessere Optionen im Low Power Bereich aber trotzdem wird nach oben hin weiter das Maximum ausgereizt.
- ...mehr Strom brauchen, um mehr Leistung zu erzeugen => siehe oben
- ...ausnahmslos nach dem big.LITTLE-Prinzip funktionieren => Hier sehe ich keine Grundsatzentscheidung dafür oder dagegen. Es kommt immer darauf an wie es umgesetzt ist. Beide Lösungen haben Vor- und Nachteile. Ich sehe die Wahrscheinlichkeit, dass AMD auf big.LITTLE umsteigt in etwa so groß wie dass Intel es wieder bleiben lässt.
- ...durch neue Architekturen wieder niedriger takten => Ich denke, dass neue Architekturen breiter werden und etwas Takt einbüßen werden, umgekehrt dies jedoch durch neue Fertigung wieder aufgefangen wird. Ich würde sagen Takt bleibt gleich bzw. steigt vielleicht noch minimal.
- ...durch eine völlig neue Technik ersetzt
Denke ich nicht. Ein Großteil des Programmcodes ist sequentiell und nur schlecht parallelisierbar. Daran wird sich nicht so schnell etwas ändern. Generell gilt hier auch wieder => Moore Law tot d.h. wenig Änderungen absehbar - ...immer fest mit dem Mainboard verlötet sein => Denke ich nicht. Das würde bedeuten, dass es nur mehr OEM Systeme geben wird. Das halte ich für Gaming Systeme für unwahrscheinlich. Ich denke jedoch, dass langfristig der RAM auf das CPU Package wandern wird.
- ...im Desktop nicht mehr auf x86 basieren => Der Befehlssatz ist für die Performance einer CPU relativ unerheblich. Was die Performance limitiert ist die Vorhersagbarkeit von Abhängigkeiten und Sprüngen und das Problem ist bei allen Befehlssätzen gleich. Wenn x86 abgelöst wird, dann deshalb weil die Designs von Intel und AMD abgelöst werden. Dazu ist technologisch derzeit nur Apple im Stande aber die haben kein Interesse daran Windows Geräte auszuliefern d.h. es müsste auch Windows als Betriebssystem abgelöst werden. Das ist zwar möglich aber nicht durch Apple, da diese keine entsprechenden Serverprodukte haben.
- ...von mehr Herstellern als Intel, AMD (und Apple) angeboten => Denke ich nicht. Der Desktopmarkt ist ein schrumpfender Markt. Es wäre jedoch möglich, dass entweder Qualcomm oder auch ARM selbst (wenn sie sich entscheiden CPUs selbst zu fertigen) einen Vorstoß in den Laptopmark mit 15W Businessgeräten unternehmen. Derzeit sind diese aber technologisch so weit hinten, dass ich mir das wenig Hoffnungen mache.
- ...keine große Bedeutung mehr in Desktop-PCs haben => Der Desktopmarkt verliert an Bedeutung aber in Desktopsystemen wird die CPU immer wichtig sein. Ich wüsste nicht wie oder durch was diese abgelöst werden könnte.
RevAngel
Cadet 2nd Year
- Registriert
- Dez. 2017
- Beiträge
- 23
Ich denke, oder hoffe, das in 15 Jahren die Architekturen von CPU's und GPU's in einem Modul zusammengefügt werden. Außerdem denke oder hoffe ich, das die Architekturen auf freiere Lizenzen wie RISC-V oder deren Nachfolger ausweicht. Möglich ist es, das bis dahin auch ganz andere Strukturen in den Mainstream Einzug finden, die optische oder quanten-systemische Komponenten haben oder nur aus diesen bestehen. Des weiteren glaube ich, das dedizierte Haupt-Komponenten durch flexiblere und änderbare Teil-Strukturen in diesen Architekturen durch Komponenten ersetzt werden können, die in der Lage sind ihre eigene Struktur in Hardware anzupassen, ähnlich wie es derzeit FPGA-Systeme tun können. Speicherung und Zwischenablage von Daten wird zu dieser Zeit dann hoffentlich nicht mehr von zwei unterschiedlichen Systemen übernommen werden wie jetzt in RAM und ROM/SSD/ähnlichen Speichersystemen, sondern in einem Speichersystem das zur schnellen Speicherung von CPU-Daten und Massendaten in der Lage ist sowie zur Übernahme von Berechnungen im Schwachlastbereich.
Riesige Sprünge bei der Latenz erwarte ich mir keine aber die Frage ist, ob dies überhaupt notwendig sein wird.Alexander2 schrieb:Ich gaube nicht so recht, das sich da vie tuen wird. Wenn man sich die Latenzen von DDR (1) bis heute DDR5 anschaut (recht random immer den erstbesten genommen außer bei DDR5, weil das am anfang des Zyklus ist) sind die Latenzen immer um den selben wert geeiert, da ist nichts zu erwarten.
CAS Latency CL: 2.5 (entspricht ~15.02ns) DDR
CAS Latency CL: 5 (entspricht ~14.99ns) DDR2
CL: 9 (entspricht ~13.50ns) DDR3 ohne LowVoltage
CL: 11 (entspricht ~13.75ns) DDR3
CAS Latency CL: 17 (entspricht ~14.17ns) DDR4
CAS Latency CL: 38 (entspricht ~14.62ns) DDR5
Meinst du evtl. das wegen der CL werte es langsamer wäre? das der CL Wert steigt liegt nur an dessen Verhältnis zu den MHz.
Der Takt von CPUs wird kaum stark steigen. Aktuell werden Performancesteigerungen in erster Linie durch höhere Parallelisierung erzielt entweder durch die Verwendung von mehr Kernen oder durch breitere Designs, die mehrere Befehle parallel out of order ausführen. Dafür müssen die Latenzen nicht zwingend gesenkt werden. Es reicht wenn der Durchsatz weiter steigt. Der L3 Cache muss nur so weit erhöht werden, dass bei größeren Datenmengen die Hitrate konstant bleibt.
Spiele sind hier eine Ausnahme, da hier unterschiedliche Renderingphasen innerhalb eines Frames unterschiedliche Daten brauchen, die Gesamtdaten von Frame zu Frame sind jedoch großteils gleich.
Daraus folgt, dass der L3 so groß sein sollte, dass er alle Daten laden kann, die während der Generierung eines Frames vom RAM geladen werden.
Daraus folgt => Wenn die Spiele gleich bleiben und nur die Framerate steigt so reicht es wenn der L3 gleich groß bleibt. CS GO kann z.B. bei 600fps mit mehr als 16MB L3 nicht viel anfangen.
Wenn die Spiele sich anpassen und die Framerate konstant bleibt, dann muss der L3 linear mit der Speicherbandbreite mitvergrößert werden.
Das Problem hierbei ist jedoch, dass SRAM mit weiteren Node Shrinks ab 5nm so gut wie gar nicht mehr skaliert d.h. 32MB SRAM in N3 sind genauso groß wie in N5. Wenn man gesteigerte Waferkosten der kleineren Nodes miteinberechnet wird es sogar teurer.WinnieW2 schrieb:Zumindest mehr L3-Cache dürfte sicher sein, denn sollte kein neuer RAM-Typ mit geringerer Latenz vorhanden sein geht da kein Weg daran vorbei.
Was die RAM Latenzen angeht so gibt es immer noch die Möglichkeit den DRAM auf dem CPU Package unterzubringen. Spätestens wenn man sich von den veralteten DRAM Kommandos und den ganzen Timings verabschiedet dürfte hier einiges an Performance zu holen sein. Aber das wird halt deutlich teurer.
So sehe ich das auch. Leistung kommt aus riesigen Rechenzentren. Alles wandert in die Cloud. Software und die gewünschte Leistung wird gemietet, es wird verschiedene Abo-Modelle geben.Känguru schrieb:...
Ich schätze, dass die Betriebssysteme und insbesondere Microsofts "Windows" sich stark in die Cloud verlagern werden. Der "Desktop" aber auch Laptops werden vermutlich mehr zu einem reinen Terminal degradiert.
...
Lokale Geräte werden voll auf Sparsamkeit getrimmt und dienen nur der Anzeige, also nur so viel Leistung wie für die flüssige Darstellung benötigt wird.
Ob das schon in 15 Jahren soweit ist, wer weiß. Aber langfristig wird es meiner Meinung nach darauf hinauslaufen.
15 Jahre sind eine lange Zeit in CPU Entwicklung. Daher wäre meine erste Frage, wann ist die Grenze in der immer kleiner werdenden Strukturbreite mal erreicht, kann man das überhaupt berechnen, oder wird es da noch Überraschungen geben? Davon hängt sehr viel ab, sollte mal die Grenze erreicht aber keine weiterführende Technologie sofort serienreif sein, könnte diese Lücke genutzt werden um die alten CPU-Codes komplett abzuschaffen.
Aber wenn sich die Fertigungsstrukturen etwa im gleichen Abstand wie gewohnt verkleinern können,
dann wird vlt. in weniger als 10 Jahren schon in Pikometer gemessen. Dann ginge solange das Rennen bis 8 GHZ und mehr P-Cores vermutlich weiter.
Aber alles müßig, Man könnte die Frage auch umkehren, wie hat die Community heute vor 15 Jahren gedacht wie die CPU einmal aussehen sollte?
Aber wenn sich die Fertigungsstrukturen etwa im gleichen Abstand wie gewohnt verkleinern können,
dann wird vlt. in weniger als 10 Jahren schon in Pikometer gemessen. Dann ginge solange das Rennen bis 8 GHZ und mehr P-Cores vermutlich weiter.
Aber alles müßig, Man könnte die Frage auch umkehren, wie hat die Community heute vor 15 Jahren gedacht wie die CPU einmal aussehen sollte?
Bei Notebooks sehe ich da weniger ein Problem, bei recht vielen Modellen ist das RAM ohnehin fest aufs Board gelötet; bei LP-DDRx-RAM geht das gar nicht anders.andr_gin schrieb:Was die RAM Latenzen angeht so gibt es immer noch die Möglichkeit den DRAM auf dem CPU Package unterzubringen.
Bei Desktop-PCs, Workstations und Servern ist die Möglichkeit RAM tauschen oder erweitern zu können aber nicht unwichtig.
P
PC_Peter
Gast
Denke du meinst Entwicklungen wie den Desktop-Modus Samsung DeX? Darum geht's mir gar nicht mal so sehr. Manche die ich kenne verwenden das Smartphone schon für alles Mögliche auch beruflich. Privat kommen dann andere Szenarien dazu. Der Desktop-Modus ist da nur eine Variante.andi_sco schrieb:Da hat sich seit Ende 2015 nicht viel getan, eigentlich überhaupt nichts mehr.
Wenn ich gerade die Nachrichten zu Lunar Lake lese: Ich kann mir vorstellen, dass sich Intel von Apple Silicon inspirieren hat lassen (vielleicht vom M1, vielleicht von etwas davor; wenn's 2024 herauskommt, haben die vielleicht 2019 angefangen), und an einem Kern arbeitet, der mit geringerem Takt arbeitet, aber mit mehr IPC auf die gleiche oder bessere Performance bei weniger Verbrauch kommt. Wenn ihnen das gut gelingt, koennten Lunar-Lake-Nachfolger dann irgendwann die P-Cores in der ganzen Modellpalette ersetzen. Das waere eine Neuauflage der Geschichte, die uns vom Pentium M letztendlich mit dem Core 2 zur Abkehr von heissen Hochfrequenzkernen a la Prescott und Tejas gefuehrt hat.
da!mon
Lt. Commander
- Registriert
- Juli 2006
- Beiträge
- 1.131
Ich denke (und hoffe), dass in 15 Jahren endlich ARM im Desktop Segment Einzug hält. x86-64 ist einfach eine Gesichtsbremse die absolut ineffektiv ist und nur durch SMT am leben gehalten wird.
Vielleicht hat AMD bis dahin auch die Führung im HEDT Bereich übernommen, weil deren Chiplet-Design sich evtl. gut mit ARM und V-Cache kombinieren lässt.
Intel's bisheriges Design mit P- und E-Cores halte ich für einen "guten" Ansatz, wenn es denn mit ARM kombiniert wird, aber aktuell zeigt der Fahrplan: mit der 13. Generation ist es ineffizient und verliert seinen eigentlichen Vorteil (die "effizienten" Kerne für nebensächliche Aufgaben) dadurch, dass einfach mit dem Holzhammer Strom reingepumpt wird um Leistung zu generieren: 300+ Watt für einen 13900K(S) sind einfach nicht verlockend, außer man scheißt auf Stromverbrauch und denkt sich "der Strom wird schon irgendwo herkommen, hauptsache Brontale Leistung!"...
Vielleicht hat AMD bis dahin auch die Führung im HEDT Bereich übernommen, weil deren Chiplet-Design sich evtl. gut mit ARM und V-Cache kombinieren lässt.
Intel's bisheriges Design mit P- und E-Cores halte ich für einen "guten" Ansatz, wenn es denn mit ARM kombiniert wird, aber aktuell zeigt der Fahrplan: mit der 13. Generation ist es ineffizient und verliert seinen eigentlichen Vorteil (die "effizienten" Kerne für nebensächliche Aufgaben) dadurch, dass einfach mit dem Holzhammer Strom reingepumpt wird um Leistung zu generieren: 300+ Watt für einen 13900K(S) sind einfach nicht verlockend, außer man scheißt auf Stromverbrauch und denkt sich "der Strom wird schon irgendwo herkommen, hauptsache Brontale Leistung!"...
- Registriert
- Jan. 2018
- Beiträge
- 18.902
Dex, Continuum, etc.PC_Peter schrieb:Samsung DeX
Alexander2
Fleet Admiral
- Registriert
- Aug. 2014
- Beiträge
- 12.146
Ich hatte tatsächlich Hessische Hochfrequenzkernen gelesen und dachte an ein gewissen Forenmitglied, ob das gemeint war.mae schrieb:die uns vom Pentium M letztendlich mit dem Core 2 zur Abkehr von heissen Hochfrequenzkernen a la Prescott und Tejas gefuehrt hat.
P
PC_Peter
Gast
Jo, da kam dann nicht viel nach.andi_sco schrieb:Dex, Continuum, etc.
Ich denke das genau das ziemlich bald (<10Jahre) passieren wird, RAM upgrades wegen zu wenig Speicher werden immer seltener und RAM direkt im CPU package würde viele der aktuellen Takt/Latenzprobleme lösen. Die CPU wird dann nur noch über PCIe 10 oder USB-D mit dem Rest des Systems verbunden werden.andr_gin schrieb:Was die RAM Latenzen angeht so gibt es immer noch die Möglichkeit den DRAM auf dem CPU Package unterzubringen. Spätestens wenn man sich von den veralteten DRAM Kommandos und den ganzen Timings verabschiedet dürfte hier einiges an Performance zu holen sein. Aber das wird halt deutlich teurer.
Das iGPUs die diskrete GPUs ablösen, ist denk ich schon allein wegen der Abwärme unrealistisch. Allerdings vermute ich, dass GPUs immer weiter zu AI Beschleuniger mutieren werden, die sich allerdings nur noch Enthusiasten leisten. Die große Masse geht wahrscheinlich in die Cloud.