News Die CPU der Zukunft: 10 GHz, 3D V-Cache und 16 P-Cores ohne x86?

Wenn ich mir so meine 3 Rechner der letzten 15 Jahre angucke, hat sich da rein vom Aufbau und und den Komponenten nicht so viel geändert. Die Komponenten selbst haben sich im Bezug auf Leistung deutlich weiterentwickelt.
Wünschenswert wäre es natürlich, dass die Prozessoren mit einer hohen Prio auf Effizienz und niedrigen Stromverbrauch hin entwickelt werden. Wie das genau in Architektur übersetzt wird, vermag ich allerdings nicht zu prophezeien. Wir müssen jedenfalls Weg von Gaming PCs, wo 1000 Watt PSUs nötig sind, um die Komponenten abseits des OC zu betreiben.
Darüber hinaus gefällt mir der Gedanke, dass die iGPU leistungsfähiger wird und in einigen Jahren schon dedizierte Einstiegs-GPUs überflüssig machen könnte.

Vanoncam schrieb:
Für mich sieht die Zukunft so aus, dass wir das Handy an den Monitor stecken und dort alle 'Standard Office' Programme laufen.
Wer Leistung braucht ruft diese Remote im Rechenzentrum ab.
Wie es aber im Gaming Bereich damit weitergeht ist schwer zu sagen. Claudgaming habe ich noch nicht ausprobiert und weiß nicht ob dies eine Alternative sein kann.

Deshalb macht der Apple Way (ARM) für mich derzeit am meisten Sinn in der CPU entwicklung.

Ich erinnere mich an das Ubuntu Edge Projekt, wo Canonical ein für damalige Verhältnisse High End Smartphone rausbringen wollte, um damit einen Dual Boot zu ermöglichen. Auch wenn das Projekt selbst gescheitert ist, dürfte die Leistung von Smartphones heute dazu ausreichen, um selbiges zu realisieren.
Die großen Player auf dem Mobile Handheld Markt scheinen solche Projekte jedoch wenig zu interessieren. Die spielen im Moment lieber mit faltbaren Handys rum oder verbesseren ihre Kameras. :D
Am Ende würde es vielleicht sogar ihre Unternehmensstrategie untergraben, dem Menschen fast jährlich ein neues Gerät zu verkaufen. Der Entwicklungsaufwand und die Optimierung für Displays mit anderer Auflösung sowie die Tatsache, dass die Smartphones über längere Zeit stärker beansprucht werden könnten, scheint mir den Herstellern ein Dorn im Auge.
 
Ich hoffe es geht nucht immer weiter mit den Gigahertz nach oben, sondern mit dem Verbrauch nach unten. Effizientere Nutzung der Hardware durch wirklich optimierte Software und einer einheitlichen Unterstützung von Protokollen und Erweiterungen.
Aktuell nutzt die Hardwareindustrie ja eher die Brechstange und der Verbrauch geht gegen exorbitant im Vergleich zur Leistung. Klar sind viel Gigahertz super und Cache ist durch nichts außer mehr Cache zuersetzen. Aber meiner Meinung nach liegt es nicht unbedingt an der Hardware, welche ja ausreichend schnell ist, sondern an der Optimierung seitesn der Software. Jedenfalls sollte im Consumerbereich der Trend zu sparsamer Hardware gehen und eben nicht zu CPUs die jenseits der 200W verbrauchen.

Just my 2 cents.
 
  • Gefällt mir
Reaktionen: BlinkBlink, Javeran, Simonsworld und eine weitere Person
Mal ganz nebenbei:

Ich finde es absolut [sorry] geil, wie hier das Feedback zum Leserbeitrag und die Teilnahme an der Umfrage ausfällt.

Auch [und auch das soll nicht verschwiegen werden] können die Klicks auf solche Leserartikel ohne Weiteres mit den regulären redaktionellen Beiträgen mithalten.

Ganz großes Kino wie die Community die Themen aus dem Forum annimmt und unterstützt.

Danke sehr.
 
  • Gefällt mir
Reaktionen: Phoenix_29021, PietVanOwl, BlinkBlink und 3 andere
@SVΞN

Könnte man nicht die Kommentare welche hier sind rüber ins Forum schieben, die Kommentare hier Sperren und nur den Link auf den Forenbeitrag als einzigstennKommentar ganz oben lassen?

Somit würde jemand der kommentieren möchte zwangsweise auf den Forenbeitrag gestoßen
 
  • Gefällt mir
Reaktionen: Javeran und SVΞN
Weniger Energie bestimmt nicht, siehe damalige CPUs, die hatten 15 - 25 Watt. Heute sind 65 - 170 Watt "normal".

Allerdings kann der Verbrauch auch nicht unendlich steigen, das alles muss gekühlt werden, da wären wir wieder bei Lautstärke und Platzverbrauch, das bremmst den Verbrauch ein.

Natürlich werden CPU Energieeffizienter, weil sie mehr Berechnungen pro Watt anstellen können.

Wenn es in 15 Jahren keine Quantencomputer-Revolution gibt, dann kann ich mir gut vorstellen, dass man seine CPU "selbst" zusammenstellen kann.
Also man bestimmt (in gewissen Rahmen), ob auf einem Package 3 Videodecoder verbaut sind, 4 Power Cores und 128 sparsame Cores, 512 GB Cache oder doch 1TB, 792 CU oder oder oder.

Ich kann mir auch vorstellen, dass dann auch weggeht vom "modularen" PC, wie wir ihn heute kennen, zumindest für 99% der Nutzer. Was verbauen denn die meisten heute in Ihrem PC? CPU, Grafikkarte, NVMe, RAM, das wars. Die 82 anderen Schnittstellen werden von kaum jemandem genutzt, alles viel unnötig verschwendete Ressourcen.
Und das kostet ja auch Geld, siehe doch heutige Mainboardpreise, je komplexer die werden, desto teuer.

Dann darf man auch die Entwicklung des Internets nicht unterschätzen, egal ob über Kabel oder Funk (ok Deutschland ist da nicht gerade ein Vorbild), je besser und schneller die laufen, desto weniger Notwendigkeit wird bei den meisten da sein, überhaupt einen komplexen teuren PC zu haben.
Man hat natürlich Bildschirme, 3D-Headset, whatever, die aber aus der Cloud gespeißt werden. Jeder ordert dann einfach das, was er gerade braucht und das läuft alles automatisch. Warum sollte man sich gedanken über die CPU machen, wenn das Remotesystem einem automatisch 32 oder 128 Kerne, je nach Bedarf, bereitstellt.

Heute ist das alles in den Kinderschuhen und wird von vielen nicht genutzt, weil es noch nicht perfekt läuft, aber in 15 Jahren? Und geht nicht von euch aus, geht von Leuten aus, die damit aufwachsen und für die das vollkommen normal sein wird.

Nicht ohne Grund sind nvidia & Co. in den Bereich schon heute aktiv, obwohl die damit nicht wirklich viel verdienen. Es könnte aber in 15 Jahren ihre Haupteinnahmequelle sein.

Vielleicht werden es auch 30 Jahre sein oder 50, wer weiß.
 
  • Gefällt mir
Reaktionen: BlinkBlink, Naturtrüb und Dome87
7H0M45 schrieb:
Könnte man nicht die Kommentare welche hier sind rüber ins Forum schieben, die Kommentare hier Sperren und nur den Link auf den Forenbeitrag als einzigstennKommentar ganz oben lassen?
Das ist aktuell leider noch nicht möglich.

Ich bin aber bereits mit unserem Admin im Gespräch, dass zukünftige Meldungen dieser Art hinsichtlich der Kommentare direkt ins Forum zum Leserartikel verlinken.

Bei zukünftigen News soll die Kommentarfunktion dann direkt in den Ursprungsthread führen.

Danke dir für dein Feedback.
 
Ich denke das die x86 Dinosaurier früher oder später aussterben werden. Die SOCs die Apple jetzt für seine Produkte raus gebracht hat, wünsche ich mir von AMD und Intel im Notebook Segment.
Dieses Jahr darf ich mir ein neues Gerät für die Arbeit aussuchen. Da es nur Lenovo sein darf, wird es wahrscheinlich ein T14s G3 mit Zen 3+ CPU. Bin schon gespannt auf das Teil und mein Dell Latitude 7490 wird dann privat weiter benutzt.
 
  • Gefällt mir
Reaktionen: SVΞN
In 15 Jahren habe ich einen sehr starken APU in einem DeskMini A300 zuhause, damit kann ich jedem Spiel mit hohen Settings mindestens 100fps in FHD spielen.

FHD reicht mir vollkommen aus, sowohl in Spielen als auch in Filmen/Serien.
 
Ich glaube das in es Zukunft Anwendungs und Gaming CPUs geben wird

AMD hat gezeigt das es keine Monster CPU sein muss zum Gaming
 
  • Gefällt mir
Reaktionen: Dome87
In 15 Jahren werden wir höchstwahrscheinlich im Vergleich zu heute riesige Fortschritte erzielt haben. Ich denke dass es dann immer noch Heimcomputer geben wird. Bis die mal völlig ob obsolet werden wird es mMn noch länger dauern. Aber es werden wohl immer mehr Anwendungen und Einsatzgebiete nach und nach über Cloud Dienste realisiert werden.

CPU seitig erwarte ich dass es noch mehr Kerne werden und es dabei immer mehr spezialisierte Kerne geben wird. Immer noch werden heutzutage Massen an Daten durch CPU und GPU gepresst um tolle Grafiken in Spielen zu erzeugen. Ich bin überzeugt dass dies durch Arbeitsteilung durch spezialkerne viel besser und effizienter realisiert werden könnte. Mal abgesehen davon dass man ja immer noch so gut wie keine KI verwendet weil es viel Leistung benötigt.

Langfristig, und da denke ich eher an 30 Jahre und weiter in die Zukunft, wird wohl die gesamte Infrastruktur durch Rechenzentren realisiert werden. Eigene CPUs und Computer wird man nicht mehr benötigen. Internet ist dann ein beständiger Teil des Lebens und immer da, so wie Tag und Nacht. Dabei kann ich mir vorstellen, dass jeder Mensch grundrechtlich eine lebenslange und kostenfreie Basisversion hat, weil digitales Leben Teil des zukünftigen Lebens sein wird.
 
  • Gefällt mir
Reaktionen: BlinkBlink, Naturtrüb und Dome87
Wenn die Menschheit bald nicht lernt besser mit den Ressourcen umzugehen, dann wird bald die 0Hz Ära kommen^^

Die Entwicklung für den Privatsektor wird stagnieren da die Preise für deutlich mehr überproportional steigen werden was sich immer weniger werden leisten wollen - in der Folge wird es so wir wir es kennen gänzlich verschwinden.
x86 wird auf absehbare Zeit aber bleiben da kaum einer bereit sein wird alles was er hat zu entsorgen um auf ein neues System umzusteigen für das es kaum Software gibt.
 
Dome87 schrieb:
Ob das jetzt ein AiO-System, Thin-Client + Cloud Gaming oder was völlig anderes ist, ist offen.
Die Definition finde ich aber... komisch.
Mein Notebook wird ja keine Desktop CPU bekommen, nur weil er zu 85% am Desktop hängt.
Ein Tablet oder Smartphone ebensowenig, auch beim Cloud Gaming ist das ja nicht der Fall. Der 'Desktop' ist dann ja nur die Schnittstelle.

Precide schrieb:
durch Stromspargesetze in 15 Jahren nichts so ist, wie wir uns es hier auch nur annähernd vorstellen.
Diese Schwarzmalerei finde ich absurd. Vieles wird ganz von alleine effektiver, da braucht es keine Panik vor irgendwelchen Gesetzen.
Ein M2 MacBook verbraucht weniger, als ein 5 Jahre altes Intel Pendant.
Der 55/65er OLED von heute verbraucht weniger, als der 42er Plasma von vor 15 Jahren.
Der Induktionsherd verbraucht weniger als der Ceranfeld Herd von vor 15 Jahren.
Der Kühlschrank ebenso.

Wenn dann großflächig Großverbraucher wie Wärmepumpen und Elektroautos dazukommen, werden ein paar hundert KWh in Consumer Elektronik den Braten auch nicht mehr fett machen.

Vlt. will man auch einfach nicht mehr so viel Energie Rausblasen...
 
Ich kann mich noch sehr gut daran erinnern, als Intel laut posaunte, dass die MHz nicht so wichtig wären, sondern nur die Architektur der CPU.
Scheinbar hat man (Intel) sich da (gewaltig) geirrt 🤣
 
  • Gefällt mir
Reaktionen: Accutrauma
Das Problem sind nicht eher die Bürger, eher die Industrie die massen an Produkten auf den Markt werfen. Die Bürger sollen Sparen und die Industrie macht genau das gegenteil. Wie zum Beispiel die Grafikkartenindustrie, mehr GHz auf kosten von immer größeren Nertzteilen mit 1000 Watt und mehr. Das eine wo die Industrie scheinbar auch zu gestimmt hat zu sparen, gilt nicht für alle.

Der Weg müste eigentlich sein mehr GHz durch weniger Energie Einspeisung. Dann wird das in 15 Jahren vieleicht was. Aber so wird es nur teuer.
 
Theoretisch eröffnet ein Markt, auf dem etablierte Hersteller den Konsumer aus den Augen verloren haben, die Möglichkeit diese Lücken von anderen neuen Mitbewerbern zu schliessen.

Es läuft zwar gerade alles andere als gut aus Konsumentensicht, aber das wird sich in den Umsätzen rächen und es findet entweder ein Umdenken statt oder ein neuer Player macht das Geschäft. Wer nicht mit der Zeit geht, geht mit der Zeit.

Das ist im Hardware-Sektor schwer da es "high-tech" ist und nicht mal eben ein Start-Up oder ein unbekannter Player etwas tolles von einem Jahr aufs andere herausbringt, aber im Wandel ist das Geschäft trotzdem.

Es bleibt einfach spannend. Wie man bei diesen beiden Threads zum Thema sieht, ist in Zukunft so vieles denkbar und nichts scheint unmöglich. :)
 
  • Gefällt mir
Reaktionen: SVΞN
Da die Welt sich am 2 Teilen ist, kann man da nichts Prognostizieren ob es die eine Entwicklungsrichtung geben wird. X86 wird im Serverbereich weiter Bestand haben. Die Desktops, Mobilgeraete werden aus der Cloud gefuettert und bekommen schrittweise verschaerfte Energielabel welche unterschiedliche Rechenknechte etablieren wird. Ob dabei X86 auf dem Desktop nicht das Rennen macht kann man nicht vorhersagen, wir haben ja noch die Weichware. Auch DLSS,FSR sind Anzeichen fuer diese Entwicklung, die Preise welche fuer Grafikhardware aufgerufen werden zeigen ebenfalls in diese Richtung.
Ich tendiere, RiscV wird es machen, da das Konzept bestens in den persoenlichen CO2 Fussabdruck passt. Freigeschaltete Konfiguration, Power je nach Geldbeutel, vorlieben. Ein ideales Instrument neue Maerkte zu generieren und Rechenleistung kontrollieren.
( bin nicht Paranoid).
 
  • Gefällt mir
Reaktionen: Dome87
Nero2019 schrieb:
FHD reicht mir vollkommen aus, sowohl in Spielen als auch in Filmen/Serien.
In 15 Jahren noch Full HD? Naja, man kann seinem Auge auch mal was gutes tun ;)
 
Vitali.Metzger schrieb:
Ich denke das die x86 Dinosaurier früher oder später aussterben werden.

Das ist ein sehr spannender Aspekt aber ich glaube fast dass uns x86 noch lange begleiten wird. Zu groß die Legacy (besonders durch das Windows Ökosystem) zu ineffizient die emulierung. Das ist glaube ich fast wie weltweit Linksverkehr oder in USA das metrische System einzuführen. Wäre von Anfang an schlau gewesen es so zu machen, aber jetzt zu umfangreich umzusetzen. Meine Meinung, passe mich aber gern überzeugen.

Zudem habe ich (die vielleicht irrationale) Angst dass mit einem wechsel zu z.B. ARM auch der Trend zum SOC in den Desktop kommt. Ohne Upgrade und individuelle Konfigurationsmöglichkeiten von CPU RAM Grafik, Unterbau und alles drum rum, was wir Selbstbauer ja so lieben. Das wäre mega Schade.
 
  • Gefällt mir
Reaktionen: BlinkBlink, bad_sign, Dome87 und eine weitere Person
Ich glaube dass sich an ehesten was an den instruction sets ändern wird, dass x86 irgendwann verschwindet und dadurch gewisse Altlasten entfallen, die die Effizienz hemmen. Bei den Taktraten wird sich wahrscheinlich nicht sehr viel ändern, ich denke man wird da mehr auf Effizienz schauen müssen. Langfristig denke ich, dass auch die durchschnittliche Zahl der Kerne steigen wird, ich denke 16 Kerne werden der neue Standard sein, wahrscheinlich mit verschiedenen Kernen die jeweils mehr spezialisiert sind, etwa wie bei Intel mit Performance und Economy Lernen.
 
  • Gefällt mir
Reaktionen: Dome87
Zurück
Oben