News Die CPU der Zukunft: 10 GHz, 3D V-Cache und 16 P-Cores ohne x86?

v_ossi schrieb:
das ist kein Markt, der groß genug ist um eigene CPUs zu rechtfertigen
In Summe (zusammen mit den Gamern, Enthusiasten und auch dem klassischen "Aldi-PC Käufer" :D) vielleicht aber doch? Aber eventuell stimmt deine Prognose und der Markt schrumpft soweit, dass er so wie heute dann nicht mehr existiert.
 
X86 wird noch lange erhalten bleiben.
Ausführungseinheiten mit Optimierung für 32Bit kann wirklich bald weg.
 
Ich denke mal die Zukunft wird Silicon Photonics. Prozessoren die 2000x schneller mit Licht funktionieren, als momentane CPU. Die werden auch wesentlich leichter zu kühlen sein.
 
  • Gefällt mir
Reaktionen: Relict, Maaaster, LamaTux und eine weitere Person
@SVΞN danke für die Erwähnung und die News. Mittlerweile hat man den dreh raus wie man schnell zum passenden Forenpost kommt. Aber ganz allgemein, das sehe ich auch immer bei Kollegen oder in der Familie, haben sporadische Leser ein Übersichtlichkeits-Problem den Forenbeitrag zu finden. Was dann endet, dass die News gelesen wird und das wars dann leider meistens. Wenn ich dann Nachfrage, heisst es meistens "war mir nicht sicher wo ich hinklicken sollte" oder "hab ja die ganze News gelesen" vllt ist weniger mehr und etwas mehr "in your eyes/face"
 
  • Gefällt mir
Reaktionen: SVΞN und Miuwa
15 Jahre?! Das ist viel zu lang in dem Sektor
VR, AI - das sind dicke Dinger, die PCs in unterschiedliche Richtungen extrem beeinflussen könnten.
Aus 16 Kernen wird dann 2+4+1+2+1+3Kerne (unterschiedliche Beschleuniger, siehe Saphire Rapids)
Weg von Silizium, 3D Stacking usw.
Ich kann mir nichts ausmalen, zu geringe Datenbasis :D
 
  • Gefällt mir
Reaktionen: cloudman, BlinkBlink, electronish und eine weitere Person
Dome87 schrieb:
In Summe (zusammen mit den Gamern, Enthusiasten und auch dem klassischen "Aldi-PC Käufer" :D) vielleicht aber doch?

Vielleicht ^^
Mit Sicherheit kann dir das wohl Niemand sagen, aber deine Umfrage zielt ja direkt auf CPUs ab und genau wie beim Gaming, wird da im Forum unterbewusst immer suggeriert, dass es um 'richtige' Desktop Systeme geht. Oder zumindest interpretiere ich das in solche Fragen irgendwie oft hinein.
Und genau das sehe ich in Zukunft einfach kaum noch.
Ich habe jetzt schon eine 'Gaming Runde' in der unregelmäßig Casual Zeug zusammen gespielt wird. Da sitzen 2 Leute mit nem Desktop, der Rest hat Notebook oder Switch am Start. Und das System interessiert bei Rocket League oder Fall Guys einfach Niemanden.

Humbertus schrieb:
Ich kann mir durchaus vorstellen das in dieser GPU Generation die Verkaufszahlen außerhalb der Enthusiasten-Bubble sehr schlecht ausfallen werden.
Das sollte die Hersteller zwingen mit der nächsten Generation ein wesentlich besseres Preis/Leistungs-Verhältnis anzubieten,
Wobei die Verkaufszahlen auch irrelevant sind, wenn der Umsatz und Gewinn trotzdem stimmen. NVidia und AMD sind einfach nicht mehr primär an Gamern als Zielgruppe interessiert.
Für 'uns' fallen Chips von Servermarkt und den XBOX/Playstation Entwicklungen ab und das ist es dann eben. Gaming als Resteverwertung.
 
  • Gefällt mir
Reaktionen: el_zoido
Die CPUs müssen auf jeden Fall schneller werden, die heutigen GPUs sind einfach zu stark. Ich hoffe sehr dass dies bald nicht mehr der Fall ist
 
  • Gefällt mir
Reaktionen: Icke-ffm
E1M1:Hangar schrieb:
Ich hab aktuell kein einziges Programm oder Spiel, dass die CPU auch nur annähernd auslastet.
Welche Leistungshungrigen Programme nutzt du denn abseits von Spielen? Beim Compilieren kann ich beliebig viele Kerne ausnutzen. Bei Dingen wie Verschlüsselung oder Komprimierung theoretisch auch, allerdings ist der Flaschenhals bei der Verschlüsselung glaub ich meistens die SSD.

Wo ich mich nicht auskenne ist Bildverarbeitung.
 
@v_ossi

Plattformübergreifendes Gaming wird in der Zukunft wohl auch deutlich stärker vertreten sein. Und ja, meine Frage zielt schon auf "richtige" Desktop-PCs ab - im Sinne von stationär. Ob das jetzt ein AiO-System, Thin-Client + Cloud Gaming oder was völlig anderes ist, ist offen.
 
mal unabhänging, ob es die Welt noch in 15Jahren gibt ...

ich frage mich ob es möglich sein wird den RAM auf die CPU zu klatschen :)
 
  • Gefällt mir
Reaktionen: el_zoido und Dome87
Der ComputerBase-Leser möchte wissen: Ich denke, in 15 Jahren werden CPUs vermutlich...
...genau so schlecht und langsam entwickelt werden, weil es dann noch immer Kapitalismus gibt und alles so lange wie möglich zurückgehalten wird!
...so viel Geld kosten wie ein neues Auto
...so viel Strom verbrauchen und Hitze erzeugen wie die Sonne selbst es gerade mal schafft

Ganz ehrlich, denkt mal zurück was sich in den letzten 15 Jahren "geändert hat"...
nahezu NICHTS!
Siehe: https://www.computerbase.de/news/prozessoren/intel-core-2-extreme-qx-9770-test-rueckblick.82723/

3,2 Ghz schon vor 15 Jahren und jetzt mit "Müh und Not" gerade mal 6?! :D

Es wurde nur rumgeschraubt an "schon vorhandenem" und schon vorhandenes einfach multipliziert (multi core).
 
  • Gefällt mir
Reaktionen: BlinkBlink, Ganjaware, Gene Jackman und 3 andere
Die Frage stellt sich doch eher wie lange die Idee der aktuellen Architektur noch funktioniert. Ansätze wie der Transputer sind ja leider gescheitert.

Für mich ist der x86 wie VHS unter den CPUs :D

Weiter ist es für mich unverständlich warum die GPU nicht einfach gesockelt ist und der Speicher entweder aus dem System kommt (was einen Boom und Innovationstreiber sein könnte) oder separat bestückt werden kann.
Ich schmeiß ja auch nicht den ganzen PC weg nur weil z.b. die CPU aufrüsten möchte, doch bei einer GPU scheint es völlig normal zu sein Controller, Board, Ram mit Recheneinheit komplett zu entfernen.
Nicht nur das es eine Ressourcenverschwendung ist auf einem Board Videosignalausgänge bereit zu stellen die bei dedizierter GPU nicht genutzt werden, es wäre auch Nachhaltiger wenn die Recheneinheit der GPU gewechselt werden könnte, so blieben Speicher nebens Kühler und Co. für die GPU erhalten.
 
  • Gefällt mir
Reaktionen: user_xy
@q3fuba

Naja, die CPUs haben ca. 4x mehr Kerne (bezahlbar im "Mainstream") und sind 4x kleiner. Der Takt wurde immerhin verdoppelt. Und man darf nicht vergessen, dass der Takt nach dem GHz-Rennen am Ende der "Netburst-Ära" erstmal wieder abgesenkt wurde. Auch die ersten Phenom takteten relativ niedrig.
 
Zuletzt bearbeitet:
abcddcba schrieb:
15 Jahre vorherzusagen ist natürlich auch sportlich, gibt es hier im Forum eigentlich Ingenieure oder Forscher aus dem Bereich Halbleiter oder Mikroelektronik, die sowas annähernd für die nächsten 5 Jahre absehen können?
nicht so ganz, 5 Jahre in die Zukunft zu gucken ist vielleicht gar nicht so weit hergeholt. was jetzt entwickelt wird bzw Grundlagenforschung betrieben wird, wird wohl in 4-5 Jahren Produktreif sein
 
Ich halte es für nicht unwarscheinlich, dass es durch Stromspargesetze in 15 Jahren nichts so ist, wie wir uns es hier auch nur annähernd vorstellen.
 
  • Gefällt mir
Reaktionen: Relict, BlinkBlink, electronish und 2 andere
Javeran schrieb:
Aber ganz allgemein, das sehe ich auch immer bei Kollegen oder in der Familie, haben sporadische Leser ein Übersichtlichkeits-Problem den Forenbeitrag zu finden.
Danke dir für da Feedback und ja, ich kann das absolut nachvollziehen.

Mir ist das Problem bewusst und ich werde mal schauen, wie wir das besser hinbekommen können.

In erster Linie geht es mir immer darum, den jeweiligen Foren-Member und dessen Arbeit sichtbar(er) zu machen.

Wenn ich jetzt mal das aktuelle Beispiel nehme, dann hatte die Umfrage vor der Veröffentlichung der Meldung ca. 50 Teilnehmer.

Jetzt, nach ca. 3 Stunden, sind es ca. 3x so viele Abstimmungen. Was ich als Erfolg für den Ersteller werte.

Aber dennoch, die Übersichtlichkeit und Zugänglichkeit kann noch deutlich verbessert werden. Da bin ich ganz bei dir.

Liebe Grüße und nochmal danke für die Unterstützung!

Sven
 
Vanoncam schrieb:
Für mich sieht die Zukunft so aus, dass wir das Handy an den Monitor stecken und dort alle 'Standard Office' Programme laufen.
Wer Leistung braucht ruft diese Remote im Rechenzentrum ab.
Du hast es auf den Punkt gebracht.
Ich schätze, in 15 Jahren wird kaum jemand noch einen herkömmlichen Rechner brauchen

Schaut man mal 15 Jahre in die Vergangenheit, so hat sich bis heute nicht allzu viel getan, außer dass immer mehr Leute den Rechenknecht mehr oder weniger durch das Smartphone ersetzen.
 
  • Gefällt mir
Reaktionen: Dome87
SVΞN schrieb:
Danke dir für da Feedback und ja, ich kann das absolut nachvollziehen.
Gerne, meine ersten Gedanken waren, dass in der Einleitung direkt so viele Links zu den CPUs sind und dieser zwei Absätze lang ist. Vielleicht eine kleinere "plain text" Einleitung und dann der eigentliche Beitrag zum Forumpost mit deutlichem Link bevor es dann wie gewohnt weiter geht. Dann hat man augenscheinlich als ersten klickbaren bzw. hervorgehobenen Link den Forenbeitrag und nicht zig andere noch vorher. Das war für mich persönlich sonst so der "Stolperstein", 2-3 mal auf den Falschen link geklickt so zu sagen.
 
  • Gefällt mir
Reaktionen: SVΞN
Ich kann mir auf jedenfall nicht vorstellen das es mit den GPU Leistung- und Preis-Steigerungen so weitergeht.
Wobei ich bei der Leistung immer mehr die Energie sehe die in Wärme umgsetzt wird. So gesehen sind Grafikkarten hochgradig ineffizient.
Aber um beim Thema zu bleiben, bei den CPUs sehe ich einen (logischen) positiven Weg. Man geht in die
die Breite und in die Höhe, da ist viel Spielraum.
Leider hat man zum Thema Blockchain in der letzten Zeit keine negativen Berichte mehr gehört die den Wahnsinn hinsichtlich der Klimaerwärmung ins Visier hätten nehmen können. Ich befürchte hier ein Desaster unglaublichen ausmaßes. Auf der einen Seite drückt man uns die Elektroautos aufs Auge um die Verbrenner
aus dem Verkehr zu ziehen und auf der anderen Seite rüstet die Industrie (in allen denkbaren Bereichen) Blockchain Rechensysteme auf. Da werden unglaubliche Rechnerfarmen augebaut die, da sie auf Grafikkarten basieren, unglaubliche Mengen an Wärmemergie abgeben. Rekuperation Fehlanzeige!?
Von den ganzen Cloudfarmen will ich garnicht erst reden.
So gesehen ist für mich klar wohin die Zukunft gehen muss !
 
...die Umfrage bezieht sich auf zukünftige CPUs, das ist auch völlig ok. Nur glaube ich, das die Technik der CPU dann schlicht irrelevant sein wird.

Warum? Ich denke, für Technologieabschätzungen muss man bei den Konstanten der Benutzungsgewohnheiten anfangen, und die sind überwiegend - leider - 1. Ahnungslosigkeit, 2. Bequemlichkeit und 3. Geiz.

Wohin führt das? Ich vermute:

  • praktisch Alles wird als Web- oder Streamingdienst angeboten werden (SaaS)
  • die Datenhaltung erfolgt entweder bei den Anbietern dieser Dienste oder bei wenigen großen Clouddiensten
  • die Endgeräte müssen nur Webfrontends bendienbar machen und als Streaming-Clients dienen und - und das ist das wenige "neue" - gleichzeitig mobil und fähig sein, die Inhalte ohne viel Federlesens (drahtlos) auf grossen, lokalen Bildschirmen darzustellen
  • Gaming wird ein Streaming-Service der Publisher sein. Das Thema Downloads wird sich erledigt haben, ebenso die Frage nach der Leistungsfähigkeit lokaler Graphik- und CPU-Hardware

-> Long story short: Chromebook-ähnliche Geräte, Tablets und Smartphones werden den Markt dominieren, alle werden ihre Inhalte auf überall präsente billige OLED-Bildschirme streamen können...
 
  • Gefällt mir
Reaktionen: BlinkBlink, electronish und Dome87
Zurück
Oben