In Summe (zusammen mit den Gamern, Enthusiasten und auch dem klassischen "Aldi-PC Käufer" ) vielleicht aber doch? Aber eventuell stimmt deine Prognose und der Markt schrumpft soweit, dass er so wie heute dann nicht mehr existiert.v_ossi schrieb:das ist kein Markt, der groß genug ist um eigene CPUs zu rechtfertigen
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Die CPU der Zukunft: 10 GHz, 3D V-Cache und 16 P-Cores ohne x86?
- Ersteller SVΞN
- Erstellt am
- Zur News: Die CPU der Zukunft: 10 GHz, 3D V-Cache und 16 P-Cores ohne x86?
schmalband
Banned
- Registriert
- Juni 2014
- Beiträge
- 579
X86 wird noch lange erhalten bleiben.
Ausführungseinheiten mit Optimierung für 32Bit kann wirklich bald weg.
Ausführungseinheiten mit Optimierung für 32Bit kann wirklich bald weg.
@SVΞN danke für die Erwähnung und die News. Mittlerweile hat man den dreh raus wie man schnell zum passenden Forenpost kommt. Aber ganz allgemein, das sehe ich auch immer bei Kollegen oder in der Familie, haben sporadische Leser ein Übersichtlichkeits-Problem den Forenbeitrag zu finden. Was dann endet, dass die News gelesen wird und das wars dann leider meistens. Wenn ich dann Nachfrage, heisst es meistens "war mir nicht sicher wo ich hinklicken sollte" oder "hab ja die ganze News gelesen" vllt ist weniger mehr und etwas mehr "in your eyes/face"
15 Jahre?! Das ist viel zu lang in dem Sektor
VR, AI - das sind dicke Dinger, die PCs in unterschiedliche Richtungen extrem beeinflussen könnten.
Aus 16 Kernen wird dann 2+4+1+2+1+3Kerne (unterschiedliche Beschleuniger, siehe Saphire Rapids)
Weg von Silizium, 3D Stacking usw.
Ich kann mir nichts ausmalen, zu geringe Datenbasis
VR, AI - das sind dicke Dinger, die PCs in unterschiedliche Richtungen extrem beeinflussen könnten.
Aus 16 Kernen wird dann 2+4+1+2+1+3Kerne (unterschiedliche Beschleuniger, siehe Saphire Rapids)
Weg von Silizium, 3D Stacking usw.
Ich kann mir nichts ausmalen, zu geringe Datenbasis
v_ossi
Commodore
- Registriert
- Juni 2011
- Beiträge
- 4.791
Dome87 schrieb:In Summe (zusammen mit den Gamern, Enthusiasten und auch dem klassischen "Aldi-PC Käufer" ) vielleicht aber doch?
Vielleicht ^^
Mit Sicherheit kann dir das wohl Niemand sagen, aber deine Umfrage zielt ja direkt auf CPUs ab und genau wie beim Gaming, wird da im Forum unterbewusst immer suggeriert, dass es um 'richtige' Desktop Systeme geht. Oder zumindest interpretiere ich das in solche Fragen irgendwie oft hinein.
Und genau das sehe ich in Zukunft einfach kaum noch.
Ich habe jetzt schon eine 'Gaming Runde' in der unregelmäßig Casual Zeug zusammen gespielt wird. Da sitzen 2 Leute mit nem Desktop, der Rest hat Notebook oder Switch am Start. Und das System interessiert bei Rocket League oder Fall Guys einfach Niemanden.
Wobei die Verkaufszahlen auch irrelevant sind, wenn der Umsatz und Gewinn trotzdem stimmen. NVidia und AMD sind einfach nicht mehr primär an Gamern als Zielgruppe interessiert.Humbertus schrieb:Ich kann mir durchaus vorstellen das in dieser GPU Generation die Verkaufszahlen außerhalb der Enthusiasten-Bubble sehr schlecht ausfallen werden.
Das sollte die Hersteller zwingen mit der nächsten Generation ein wesentlich besseres Preis/Leistungs-Verhältnis anzubieten,
Für 'uns' fallen Chips von Servermarkt und den XBOX/Playstation Entwicklungen ab und das ist es dann eben. Gaming als Resteverwertung.
Welche Leistungshungrigen Programme nutzt du denn abseits von Spielen? Beim Compilieren kann ich beliebig viele Kerne ausnutzen. Bei Dingen wie Verschlüsselung oder Komprimierung theoretisch auch, allerdings ist der Flaschenhals bei der Verschlüsselung glaub ich meistens die SSD.E1M1:Hangar schrieb:Ich hab aktuell kein einziges Programm oder Spiel, dass die CPU auch nur annähernd auslastet.
Wo ich mich nicht auskenne ist Bildverarbeitung.
q3fuba
Lieutenant
- Registriert
- Jan. 2009
- Beiträge
- 937
Der ComputerBase-Leser möchte wissen: Ich denke, in 15 Jahren werden CPUs vermutlich...
...genau so schlecht und langsam entwickelt werden, weil es dann noch immer Kapitalismus gibt und alles so lange wie möglich zurückgehalten wird!
...so viel Geld kosten wie ein neues Auto
...so viel Strom verbrauchen und Hitze erzeugen wie die Sonne selbst es gerade mal schafft
Ganz ehrlich, denkt mal zurück was sich in den letzten 15 Jahren "geändert hat"...
nahezu NICHTS!
Siehe: https://www.computerbase.de/news/prozessoren/intel-core-2-extreme-qx-9770-test-rueckblick.82723/
3,2 Ghz schon vor 15 Jahren und jetzt mit "Müh und Not" gerade mal 6?!
Es wurde nur rumgeschraubt an "schon vorhandenem" und schon vorhandenes einfach multipliziert (multi core).
...genau so schlecht und langsam entwickelt werden, weil es dann noch immer Kapitalismus gibt und alles so lange wie möglich zurückgehalten wird!
...so viel Geld kosten wie ein neues Auto
...so viel Strom verbrauchen und Hitze erzeugen wie die Sonne selbst es gerade mal schafft
Ganz ehrlich, denkt mal zurück was sich in den letzten 15 Jahren "geändert hat"...
nahezu NICHTS!
Siehe: https://www.computerbase.de/news/prozessoren/intel-core-2-extreme-qx-9770-test-rueckblick.82723/
3,2 Ghz schon vor 15 Jahren und jetzt mit "Müh und Not" gerade mal 6?!
Es wurde nur rumgeschraubt an "schon vorhandenem" und schon vorhandenes einfach multipliziert (multi core).
Die Frage stellt sich doch eher wie lange die Idee der aktuellen Architektur noch funktioniert. Ansätze wie der Transputer sind ja leider gescheitert.
Für mich ist der x86 wie VHS unter den CPUs
Weiter ist es für mich unverständlich warum die GPU nicht einfach gesockelt ist und der Speicher entweder aus dem System kommt (was einen Boom und Innovationstreiber sein könnte) oder separat bestückt werden kann.
Ich schmeiß ja auch nicht den ganzen PC weg nur weil z.b. die CPU aufrüsten möchte, doch bei einer GPU scheint es völlig normal zu sein Controller, Board, Ram mit Recheneinheit komplett zu entfernen.
Nicht nur das es eine Ressourcenverschwendung ist auf einem Board Videosignalausgänge bereit zu stellen die bei dedizierter GPU nicht genutzt werden, es wäre auch Nachhaltiger wenn die Recheneinheit der GPU gewechselt werden könnte, so blieben Speicher nebens Kühler und Co. für die GPU erhalten.
Für mich ist der x86 wie VHS unter den CPUs
Weiter ist es für mich unverständlich warum die GPU nicht einfach gesockelt ist und der Speicher entweder aus dem System kommt (was einen Boom und Innovationstreiber sein könnte) oder separat bestückt werden kann.
Ich schmeiß ja auch nicht den ganzen PC weg nur weil z.b. die CPU aufrüsten möchte, doch bei einer GPU scheint es völlig normal zu sein Controller, Board, Ram mit Recheneinheit komplett zu entfernen.
Nicht nur das es eine Ressourcenverschwendung ist auf einem Board Videosignalausgänge bereit zu stellen die bei dedizierter GPU nicht genutzt werden, es wäre auch Nachhaltiger wenn die Recheneinheit der GPU gewechselt werden könnte, so blieben Speicher nebens Kühler und Co. für die GPU erhalten.
@q3fuba
Naja, die CPUs haben ca. 4x mehr Kerne (bezahlbar im "Mainstream") und sind 4x kleiner. Der Takt wurde immerhin verdoppelt. Und man darf nicht vergessen, dass der Takt nach dem GHz-Rennen am Ende der "Netburst-Ära" erstmal wieder abgesenkt wurde. Auch die ersten Phenom takteten relativ niedrig.
Naja, die CPUs haben ca. 4x mehr Kerne (bezahlbar im "Mainstream") und sind 4x kleiner. Der Takt wurde immerhin verdoppelt. Und man darf nicht vergessen, dass der Takt nach dem GHz-Rennen am Ende der "Netburst-Ära" erstmal wieder abgesenkt wurde. Auch die ersten Phenom takteten relativ niedrig.
Zuletzt bearbeitet:
Jasmin83
Admiral
- Registriert
- Nov. 2012
- Beiträge
- 7.613
nicht so ganz, 5 Jahre in die Zukunft zu gucken ist vielleicht gar nicht so weit hergeholt. was jetzt entwickelt wird bzw Grundlagenforschung betrieben wird, wird wohl in 4-5 Jahren Produktreif seinabcddcba schrieb:15 Jahre vorherzusagen ist natürlich auch sportlich, gibt es hier im Forum eigentlich Ingenieure oder Forscher aus dem Bereich Halbleiter oder Mikroelektronik, die sowas annähernd für die nächsten 5 Jahre absehen können?
Danke dir für da Feedback und ja, ich kann das absolut nachvollziehen.Javeran schrieb:Aber ganz allgemein, das sehe ich auch immer bei Kollegen oder in der Familie, haben sporadische Leser ein Übersichtlichkeits-Problem den Forenbeitrag zu finden.
Mir ist das Problem bewusst und ich werde mal schauen, wie wir das besser hinbekommen können.
In erster Linie geht es mir immer darum, den jeweiligen Foren-Member und dessen Arbeit sichtbar(er) zu machen.
Wenn ich jetzt mal das aktuelle Beispiel nehme, dann hatte die Umfrage vor der Veröffentlichung der Meldung ca. 50 Teilnehmer.
Jetzt, nach ca. 3 Stunden, sind es ca. 3x so viele Abstimmungen. Was ich als Erfolg für den Ersteller werte.
Aber dennoch, die Übersichtlichkeit und Zugänglichkeit kann noch deutlich verbessert werden. Da bin ich ganz bei dir.
Liebe Grüße und nochmal danke für die Unterstützung!
Sven
Donald Duck
Lieutenant
- Registriert
- Jan. 2022
- Beiträge
- 892
Du hast es auf den Punkt gebracht.Vanoncam schrieb:Für mich sieht die Zukunft so aus, dass wir das Handy an den Monitor stecken und dort alle 'Standard Office' Programme laufen.
Wer Leistung braucht ruft diese Remote im Rechenzentrum ab.
Ich schätze, in 15 Jahren wird kaum jemand noch einen herkömmlichen Rechner brauchen
Schaut man mal 15 Jahre in die Vergangenheit, so hat sich bis heute nicht allzu viel getan, außer dass immer mehr Leute den Rechenknecht mehr oder weniger durch das Smartphone ersetzen.
Gerne, meine ersten Gedanken waren, dass in der Einleitung direkt so viele Links zu den CPUs sind und dieser zwei Absätze lang ist. Vielleicht eine kleinere "plain text" Einleitung und dann der eigentliche Beitrag zum Forumpost mit deutlichem Link bevor es dann wie gewohnt weiter geht. Dann hat man augenscheinlich als ersten klickbaren bzw. hervorgehobenen Link den Forenbeitrag und nicht zig andere noch vorher. Das war für mich persönlich sonst so der "Stolperstein", 2-3 mal auf den Falschen link geklickt so zu sagen.SVΞN schrieb:Danke dir für da Feedback und ja, ich kann das absolut nachvollziehen.
Ich kann mir auf jedenfall nicht vorstellen das es mit den GPU Leistung- und Preis-Steigerungen so weitergeht.
Wobei ich bei der Leistung immer mehr die Energie sehe die in Wärme umgsetzt wird. So gesehen sind Grafikkarten hochgradig ineffizient.
Aber um beim Thema zu bleiben, bei den CPUs sehe ich einen (logischen) positiven Weg. Man geht in die
die Breite und in die Höhe, da ist viel Spielraum.
Leider hat man zum Thema Blockchain in der letzten Zeit keine negativen Berichte mehr gehört die den Wahnsinn hinsichtlich der Klimaerwärmung ins Visier hätten nehmen können. Ich befürchte hier ein Desaster unglaublichen ausmaßes. Auf der einen Seite drückt man uns die Elektroautos aufs Auge um die Verbrenner
aus dem Verkehr zu ziehen und auf der anderen Seite rüstet die Industrie (in allen denkbaren Bereichen) Blockchain Rechensysteme auf. Da werden unglaubliche Rechnerfarmen augebaut die, da sie auf Grafikkarten basieren, unglaubliche Mengen an Wärmemergie abgeben. Rekuperation Fehlanzeige!?
Von den ganzen Cloudfarmen will ich garnicht erst reden.
So gesehen ist für mich klar wohin die Zukunft gehen muss !
Wobei ich bei der Leistung immer mehr die Energie sehe die in Wärme umgsetzt wird. So gesehen sind Grafikkarten hochgradig ineffizient.
Aber um beim Thema zu bleiben, bei den CPUs sehe ich einen (logischen) positiven Weg. Man geht in die
die Breite und in die Höhe, da ist viel Spielraum.
Leider hat man zum Thema Blockchain in der letzten Zeit keine negativen Berichte mehr gehört die den Wahnsinn hinsichtlich der Klimaerwärmung ins Visier hätten nehmen können. Ich befürchte hier ein Desaster unglaublichen ausmaßes. Auf der einen Seite drückt man uns die Elektroautos aufs Auge um die Verbrenner
aus dem Verkehr zu ziehen und auf der anderen Seite rüstet die Industrie (in allen denkbaren Bereichen) Blockchain Rechensysteme auf. Da werden unglaubliche Rechnerfarmen augebaut die, da sie auf Grafikkarten basieren, unglaubliche Mengen an Wärmemergie abgeben. Rekuperation Fehlanzeige!?
Von den ganzen Cloudfarmen will ich garnicht erst reden.
So gesehen ist für mich klar wohin die Zukunft gehen muss !
...die Umfrage bezieht sich auf zukünftige CPUs, das ist auch völlig ok. Nur glaube ich, das die Technik der CPU dann schlicht irrelevant sein wird.
Warum? Ich denke, für Technologieabschätzungen muss man bei den Konstanten der Benutzungsgewohnheiten anfangen, und die sind überwiegend - leider - 1. Ahnungslosigkeit, 2. Bequemlichkeit und 3. Geiz.
Wohin führt das? Ich vermute:
-> Long story short: Chromebook-ähnliche Geräte, Tablets und Smartphones werden den Markt dominieren, alle werden ihre Inhalte auf überall präsente billige OLED-Bildschirme streamen können...
Warum? Ich denke, für Technologieabschätzungen muss man bei den Konstanten der Benutzungsgewohnheiten anfangen, und die sind überwiegend - leider - 1. Ahnungslosigkeit, 2. Bequemlichkeit und 3. Geiz.
Wohin führt das? Ich vermute:
- praktisch Alles wird als Web- oder Streamingdienst angeboten werden (SaaS)
- die Datenhaltung erfolgt entweder bei den Anbietern dieser Dienste oder bei wenigen großen Clouddiensten
- die Endgeräte müssen nur Webfrontends bendienbar machen und als Streaming-Clients dienen und - und das ist das wenige "neue" - gleichzeitig mobil und fähig sein, die Inhalte ohne viel Federlesens (drahtlos) auf grossen, lokalen Bildschirmen darzustellen
- Gaming wird ein Streaming-Service der Publisher sein. Das Thema Downloads wird sich erledigt haben, ebenso die Frage nach der Leistungsfähigkeit lokaler Graphik- und CPU-Hardware
-> Long story short: Chromebook-ähnliche Geräte, Tablets und Smartphones werden den Markt dominieren, alle werden ihre Inhalte auf überall präsente billige OLED-Bildschirme streamen können...
Ähnliche Themen
- Antworten
- 91
- Aufrufe
- 8.197
- Antworten
- 172
- Aufrufe
- 20.237
- Antworten
- 47
- Aufrufe
- 6.975
- Antworten
- 624
- Aufrufe
- 71.925
- Antworten
- 147
- Aufrufe
- 21.799