News Die CPU der Zukunft: 10 GHz, 3D V-Cache und 16 P-Cores ohne x86?

..deutlich sparsamer werden

lediglich im Bezug auf Performance/Watt. Laptop CPUs werden wohl weiterhin in den 15W, 35W usw. Klassen existieren, weil den Kühllösungen physikalische Grenzen gesetzt sind, aber aber bei High-End CPUs ist dem Wahnsinn keine Grenzen gesetzt. 400W Verbrauch werden in 5 Jahren der Standard sein.
...mit 8 oder mehr Gigahertz takten
Also Turbo von 8Ghz in ~10 Jahren kann ich mir das durchaus vorstellen, auch wenn sich Moores Law verlangsamt.
Denn von 4 auf 6 GHz sind es 50% mehr Takt. Von 6 auf 8 GHz aber nur noch 33%

...iGPUs haben, die für AAA-Titel ausreichen
Wenn damit AAA-FullHD-niedrige Details gemeint sind. Ja absolut. Denn bereits AMDs Phönix wird hier einen neuen Maßstab setzen. Für AAA-Ultra Settings machen IGPUs einfach keinen Sinn. Denn der Enthusiast ist nie zu Kompromissen bereit und kauft sich lieber ne Dedizierte GPU.
...herstellerübergreifend 16+ "P"-Cores haben
Eher gibt es 2 Super-"P"-Cores als 16+ P-Cores. Es lassen sich schlichtweg nicht alle Workloads unendlich parallelisieren.
...fast ausschließlich eine Art "V-Cache" haben
Nein. Schon der 7950X3D zeigt: 8 Kerne mit Vcache sind genug. Würde Vcache für die anderen 8 Cores auf dem zweiten Die einen erkennbaren Nutzen ergeben, hätte AMD das bereits gemacht.
Ich kann mir eher vorstellen, dass die Zukunft so aussieht: 3 Core Dies. Das eine 8 P-Cores mit stacked VCache. Das zweite 8 "normale P-Cores". Das Dritte 16-32 E-Cores für parallelisierte Anwendungen
...mehr Strom brauchen, um mehr Leistung zu erzeugen
Aber hallo! Nodes wie N3X von TSMC zeigen wo die Reise hingeht.
...ausnahmslos nach dem big.LITTLE-Prinzip funktionieren
Ausnahmslos nicht. Aber 80% aller CPUs denke ich schon.
...von mehr Herstellern als Intel, AMD (und Apple) angeboten
Nicht für den Massenmarkt
...keine große Bedeutung mehr in Desktop-PCs haben
Desktop-CPUs werden nie aussterben, denn Leistung benötigt Strom und Strom benötigt Kühlleistung und Kühlleistung benötigt Platz.
...durch neue Architekturen wieder niedriger takten
Ja, aber nur Wellenartig. Siehe Bulldozer > Zen1, Aber Zen 2 > Bulldozer
...immer fest mit dem Mainboard verlötet sein
Ne, wieso denn?
...im Desktop nicht mehr auf x86 basieren
Sehe ich in naher Zukunft ebenfalls nicht.
...durch eine völlig neue Technik ersetzt
Wenn Neu = Alles, was nicht auf Silizium-Halbleitern, die belichtet werden ist: Nein, nicht in den nächsten 25 Jahren.
 
  • Gefällt mir
Reaktionen: BlinkBlink, SVΞN und Dome87
In 15 Jahren kaufe ich mir einen gebrauchten Intel Core i9-13900KS und eine gebrauchte 4090 Ti für meinen Retro Rechner.
 
  • Gefällt mir
Reaktionen: Maaaster, Tuetensuppe, SVΞN und eine weitere Person
@Accutrauma

Wenn ich dich richtig verstehe sollen dann Sachen verkauft werden für einen geringeren Preis wo trotzdem Sachen aus HighEnd integriert sind nur nicht frei gegeben. Das ist doch auch nur murkx und verschwendung. Es ist vorhanden, kann aber nicht genutzt werden da nicht bezahlt. Dann verbauen wir dem nächst Hardware die wir nicht voll nutzen können da wir sie nicht voll bezahlt haben. Die Recourcen wurden aber trotzdem verbraucht, ohne nutzen.
 
Also wenn man sich mal anschaut wie viele Unternehmen gerade in die Entwicklung von RISC-V Architekturen investieren, und das so bleiben wird dann werden RISC-V CPU bereits in wenigen Jahren mit x86-64 CPU gleichziehen.

Um mal auf den CPU-Architektur-Guru Jim Keller zu verweisen. Er ist gerade an der Entwicklung einer richtig leistungsstarken RISC-V CPU-Architektur beteiligt, namens Ascalon.

https://tenstorrent.com/research/hi...ation-acceleration-and-server-w-wei-han-lien/
 
  • Gefällt mir
Reaktionen: Dome87
Ich möchte ein Bild außerhalb der PC / NERD Bubble zeichnen. Springen wir dazu ins Jahr 2006 bis 2008. Mehrere Bekannte sind Tischlermeister oder Zimmermänner und haben als "EDV" irgend einen PC von der Stange von Medion / Aldi, oder die etwas besseren, von Mediamarkt. Alles Geräte eher am unteren Rand der Nahrungskette, C2D 4400 und 4 gb Ram waren schon die besseren Geräte.

Nun im Jahr 2023 haben jeder dieser Betriebe eher zwei als eine CNC Fräse, oder Computergesteuerte Maschinen zum Aufschnitt, Vierkantprofilfräsen für Holzfenster etc. Durch den gestiegen Autocatanteil ist mindestens eine Fachkraft Vollzeit nur für die Planung / Vorbereitung der Software dieser Geräte eingesetzt. Gebäudegrundrisse kommen direkt vom Architekten, aber bis daraus das Fertige Werkstück als Datei auf der Maschine liegt und man Start drücken kann, dauert das ewig. Der Workflow ist mühselig und nervig.

Hier muss die Industrie dringend etwas tun. Es kann nicht sein, dass z.B. Layer im Autocat und in der Maschine anders interpretiert werden. Will ich z.B. eine Tasche fräsen und gebe im Autocat ein, dass ich 1cm in 5 Durchgängen fräsen will, brauche ich 5 Layer. Im Autocat ist Layer1 der erste von Oben, auf der Maschine von z.B. Weke der erste von Unten. Jeder der das nicht weiß wird den Fräser abbrechen, die Maschine, oder sich selber beschädigen. Hier muss umständlich über eine Zwischensoftware das Programm konvertiert werden, damit die Layer auch von der Maschine gelesen und richtig interpretiert werden können. Und ja, dieses Programm kostet extra.
Es muss folgerichtig also heißen, nicht die GPU hinkt der CPU nach, sondern die Software der Hardware.


Aktuell sind aus den ehemals Büropcs eher Workstations mit 8 Kerne+, zwei Monitoren und Nas oder größer als Netzwerkspeicher geworden und wir Sprechen immer noch von Handwerksbetrieben mit 1 bis 8 Mitarbeitern. Also keine Industrielle Serienfertigung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign und Gene Jackman
Ich denke, das die Zukunft sich eher in Richtung RISC CPUs entwickeln wird und auf Dauer von x86 Abstand nimmt.
Was auf Tablets und Smartphones heutzutage möglich ist, beweisen Apple oder Qualcomm sehr deutlich und wenn man einen Blick über Intel, AMD und die mobile Sparte hinaus wirft, sieht man da doch sehr beeindruckende Technologien, zB den SPARC M8 von Oracle (ehemals Sun), der 2017 schon mit 5Ghz Taktfrequenz und 8-fachem Multithreading daher kam und bei 32 Kernen imposante 256 Threads geboten hat und das in "langweiligen" 20nm.

Es würde allerdings ein sehr großes Umdenken und Umstrukturieren auf Seiten der Software erfolgen müssen, auf lange Sicht halte ich RISC aber für die bessere Lösung, vor allem die Abwärtskompatibilität ist ein großer Pluspunkt in meinen Augen.
 
  • Gefällt mir
Reaktionen: BlinkBlink und Dome87
Die CPU der Zukunft sitzt sicher in der Cloud. Und im Metaverse. Die Zukunft wird glorreich sein!
 
Kotzkroete schrieb:
@Accutrauma

Wenn ich dich richtig verstehe sollen dann Sachen verkauft werden für einen geringeren Preis wo trotzdem Sachen aus HighEnd integriert sind nur nicht frei gegeben. Das ist doch auch nur murkx und verschwendung. Es ist vorhanden, kann aber nicht genutzt werden da nicht bezahlt. Dann verbauen wir dem nächst Hardware die wir nicht voll nutzen können da wir sie nicht voll bezahlt haben. Die Recourcen wurden aber trotzdem verbraucht, ohne nutzen.
Loese dich von dem Highend von Heute. Breche Rechenzentren runter auf eine CPU Architektur, welche aehnliche Vermarktungs- und Kontrollmoeglichkeiten generiert. Eine politische Komponente laesst sich so bei Bedarf auch hinzu fuegen. Win Win. Mit einem SOC RiskV kann man auch mal einen Tag das Netz ausknipsen ohne das ein Provider involviert ist. Fuer die Vermarkter spielen Recourcen nicht immer die erste Geige.
 
Jede leistungsfähige 4-Kern-CPU von 2012 kann heute noch jede 0815-Aufgabe eines DektopPC/Notebook-Durchschnittsanwenders sehr schnell lösen. Die SSDs haben damals schon aufgezeigt, dass Flaschenhälse in der Leistung nicht immer bei der CPU zu suchen sind.
Das CPU-Leistungsrennen ist damit eigentlich heute schon für die Mehrzahl der Nutzer beendet, was man begrenzt auf gewisse Faktoren auch in der Mehrnutzung von Smartphones sehen kann.
Die Prozessoren der lokal genutzten Rechner der Zukunft werden das Rennen auf einem anderen Schlachtfeld austragen: NPU, Stromverbrauch und Effizienz.
Vor allem die NPU-Leistung wird in Zukunft die Leute dazu bringen ihre Systeme aufzurüsten, weil

Das kann man heute schon sehr schön an den M-SoCs von Apple sehen bzw. beim Vergleich der NPU-Leistung von M1 und M2. GPT-x, LaMDA und Co. werden in den nächsten Jahren unsere Art zu mit Technologie zu kommunizieren maßgeblich verändern und deshalb braucht es auch nicht viel Fantasie nach dem Microsoft-AI-Deal für Bing in der Zukunft ein Windows AI zu sehen.

Die CPU wird meiner Meinung nach also nicht mehr die eierlegende Wollmilchsau für alle Aufgaben, sondern wird wie damals beim Wechsel auf 3D-Beschleunigerkarten auch in anderen Punkten ihre Aufgaben an andere technische Komponenten abgeben.
 
bad_sign schrieb:
15 Jahre?! Das ist viel zu lang in dem Sektor
VR, AI - das sind dicke Dinger, die PCs in unterschiedliche Richtungen extrem beeinflussen könnten.
Aus 16 Kernen wird dann 2+4+1+2+1+3Kerne (unterschiedliche Beschleuniger, siehe Saphire Rapids)
Weg von Silizium, 3D Stacking usw.
Wenn ich so drüber nachdenke: In den letzten 15 Jahren ist im PC-Markt erstaunlich wenig passiert (Wenn man damit nur Standrechner meint und nicht Laptop). Im wesentlichen überall schneller/ mehr/ effizienter/kleiner etc., aber an wirkliche Neuerungen kann ich mich nicht erinnern. APUs sind glaube ich irgendwann zu dem Zeitpunk aufgekommen, aber davor gabs schon Mainboards mit Grafikchips.

Edit: SSDs hab ich vergessen. Das war tatsächlich ne kleine Revolution.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RogueSix
Rock Lee schrieb:
Eher gibt es 2 Super-"P"-Cores als 16+ P-Cores. Es lassen sich schlichtweg nicht alle Workloads unendlich parallelisieren.
Eher werden es 3 Ebenen wie Qualcomm es schon vormacht. 1-2 richtig dicke Kerne mit entsprechendem Cache, bis zu 8 'P'-Kerne und dann halt die entsprechende Menge an 'E'-Kernen die Benötigt werden um entweder die Hintergrundlasten abzufangen im Mobilbereich (also eine Handvoll) oder um Software die gut skaliert dann mit einer großen Menge an kleinen Kernen zu beglücken. Die nächste Ausbaustufe wäre dann noch mit einer entsprechenden GPU + RAM/VRAM Kombination als entweder iGPU oder Radeon Instinct mega APU.
Laptop CPUs bleiben dann monolithisch und klein während Desktop CPUs ev. durchgängig auf Chiplets setzt.

In 5 Jahren wird das schon im Massenmarkt angekommen sein. Was danach kommt weiß nur die Glaskugel.
In 5 Jahren könnte Apple ev. auch schon MacOS auf den iPads laufen lassen oder Samsung Dex halbwegs brauchbar sein.. dann landen die Meisten sowieso bei Tablets bzw. Telefonen + Docking.
 
Da sich die Menschheit ja aktuell rückentwickelt, wirds bald wieder nen Abakus.. Mam im Ernst, zweistellige GHz halte ich für ausgeschlossen, mehr Kerne und Parallelisierung wirds werden
 
  • Gefällt mir
Reaktionen: Dome87
Kotzkroete schrieb:
Wenn ich dich richtig verstehe sollen dann Sachen verkauft werden für einen geringeren Preis wo trotzdem Sachen aus HighEnd integriert sind nur nicht frei gegeben. Das ist doch auch nur murkx und verschwendung. Es ist vorhanden, kann aber nicht genutzt werden da nicht bezahlt. Dann verbauen wir dem nächst Hardware die wir nicht voll nutzen können da wir sie nicht voll bezahlt haben. Die Recourcen wurden aber trotzdem verbraucht, ohne nutzen.

Ich glaube es ist ein Irrglaube, die verbaute Menge an Material wäre bei CPU, GPU etc relevant für die Menge an verbrauchten Resourcen. Mal davon ab, dass während der Produktion und Entwicklung viel Resourcen (und sei es nur Energie) verbraucht werden, die nicht im finalen Chip landen ist ja z.B. ebenfalls Verschwendung, wenn 100 verschiedene Versionen Produziert werden und dann von einer Version, die sich schlecht verkauft hunderttausende Chips weggeschmissen werden müssen. Da ist es sinnvoller nur eine Version zu haben und die dann je nach Bedarf zu konfigurieren.
 
Meine 5 cents,

bezüglich zur aktuellen Marktlage und Interesse aller Hersteller usw. an Abos (u will own nothing and u will be happy)

Wird es in 15-20 Jahren keinen Desktop PC Gaming Markt wie wir es kennen geben. Ich denke es geht in die drei Richtungen:
  • Konsolen
  • Cloud Gaming, Cloud PC, Remote Desktop (Smart TV, Monitor, Irgendein Smart Stick)
  • Mobile

Wieso? Habe Geforce Now auf meinem 300€ Notebook auf einem Monitor ausprobiert, lief ganz gut, Stromverbrauch praktisch irelevant. In 15 Jahren? Wird es noch viel besser laufen...

Remote Desktop? Ja es ist möglich. Meine Frau arbeitet Remote auf einem Server in der Architekturbranche. Nix mehr hochleistungs PCs vor Ort. 3D Bimx Cloud....

Haben wir auch probiert Home office mit Remote desktop. Alles was ich dafür gebraucht habe, war ein Handy mit USB-C docking an einem Monitor angeschlossen, Maus+Tastatur und fertig.

Ich bin mittlerweile echt am überlegen ob ich einen 3000€ Desktop PC überhaupt brauche. Office mache ich auf meinem Handy und Geforce Now oder ähnliches würde mir auch ausreichen um gelegentlich zu Spielen.
 
  • Gefällt mir
Reaktionen: BlinkBlink, Naturtrüb und Meister1982
dualcore_nooby schrieb:
mehr als 7GHz scheint wohl eher schwierig zu werden. Mehr Kerne und höhere IPC sind aber sicher.
IPC sind instructions per cycle - Programmcode ist aber sequentiell. Sprich es ist nicht möglich beliebig weit die IPC zu steigern. Wenn! dann löst man sowas über Befehlserweiterungen. Also wo es für Aufgaben, die man heute über logisch aneinander gekettete Einzelschritte löst, einfach nen dedizierten Befehl gibt, der das in einem Rutsch macht.

Der Nachteil der Nummer ist nur, die Software muss mitspielen und es dauert vergleichsweise lange, bis sich das in der Masse durchsetzt. Man bedenke bspw. den Aufschrei bei SSE4.2 oder AVX und Co. wo Leute mit ihren alten Phenom/Bulldozer Modellen aus dem Raster fallen und wie können die Entwickler nur und bla...

Die Kunden habe über die Zeit die Flexibilität sehr schätzen gelernt - anders als bspw. bei Apple, damals war die Ansage, ihr baut 64Bit oder fliegt aus dem Store, ihr baut ARM zusätzlich zu x86 oder fliegt raus usw.
Aufschrei im Apple Universum? ;) In jedem Windows 11 Thread wird darüber gestritten wie MS alte CPUs ausschließen kann...
Solange der Markt dort unflexibel ist und bleibg, wird das krampfig mit dem Fortschritt.
AVX (1) ist heute immernoch nicht unbedingt Standard - das kam ~2011. Häufig geht Software auf SSE2 bzw. SSE4 zurück. SSE4.2 gibts seit Penryn/Bulldozer.
WinnieW2 schrieb:
Also wenn man sich mal anschaut wie viele Unternehmen gerade in die Entwicklung von RISC-V Architekturen investieren, und das so bleiben wird dann werden RISC-V CPU bereits in wenigen Jahren mit x86-64 CPU gleichziehen.
Gleichziehen reicht aber nicht.
Es benötigt handfeste Vorteile. Man vergisst bei der privaten Denke in der Regel immer die Marktwirtschaftlichen Anforderungen.

Um es mal ganz platt zu sagen, das beste Produkt nutzt dir nichts, wenn es keiner haben will, weil das verwendete alle Anforderungen abdeckt. "nur" gleich gut/schlecht erzeugt beim Wechsel oder im Mixbetrieb Aufwende, die zu zahlen sind, es drückt also bei 1:1 dem gleichen Output die Wirtschaftlichkeit. Unternehmerisch also wird das nicht aufgehen ;)

Der größte Vorteil von nicht x86 Entwicklungen ist die tendentiell geringere Abhängigkeit der USA. Gerade in der heutigen Zeit gibt es da natürlich Interesse von so einigen Stellen. Ob das für den gemeinen zentral-europäher aber auch so ist? Die Ammis sind ja unsere "Freunde" ;)
mykoma schrieb:
..., zB den SPARC M8 von Oracle (ehemals Sun), der 2017 schon mit 5Ghz Taktfrequenz und 8-fachem Multithreading daher kam und bei 32 Kernen imposante 256 Threads geboten hat und das in "langweiligen" 20nm.
Aber was soll das bringen?
Abseits der großen Zahlen geht es doch darum etwas zu entwickeln, was die Marktanforderungen am Besten abdeckt.

Leider wird in den Foren immer der Fokus verdreht. Gerade Marktanalysen wie die im Artikel genannte bestätigen den seit 10+ Jahren anhaltenden Trend, primär Mobile Produkte abgesetzt zu bekommen anstatt Desktop Produkte.
Die Forenmenschen haben daraus Intel ein absichtlich eingelegtes Ausruhen auf einem Vorsprung unterstellt. Auch damals schon war Mobile first der Entwickler Fokus. Der Mainstream Desktop bekam 1:1 das Mobile Design und HEDT wurde mit einem abgespeckten Server Ableger bedient.

256 Threads braucht kein Mensch heute und auf absehbare Zeit im Clientbereich. Einfach weil die Anforderungen nach viel viel Peak Performance gieren und paralleles Arbeiten eben nicht die Stärke des Menschen ist, der den Koffer bedient. Solange die Software in der Lage ist, über die Threadbreite mit zu skalieren, ist das alles OK, aber das fällt eben nicht vom Himmel.
 
  • Gefällt mir
Reaktionen: Miuwa
fdsonne schrieb:
Gleichziehen reicht aber nicht.
Es benötigt handfeste Vorteile. Man vergisst bei der privaten Denke in der Regel immer die Marktwirtschaftlichen Anforderungen.
Ich wollte damit nicht sagen dass die Entwicklung mit einem Gleichstand beendet sein wird sondern dass RISC-V CPUs an x86-64 CPUs vorbeiziehen können, die Frage ist eben wieviel Entwicklungsaufwand investiert werden muss.
Was nicht vergessen werden darf ist der Aufwand der Softwareentwicklung, gerade was bereits etablierte Bereiche wie Arbeitsplatzrechner oder Laptops betrifft. Im Bereich Server sehe ich da weniger ein Problem was eine Migration (x86-64 -> RISC-V) betrifft.
 
Miuwa schrieb:
Ich glaube es ist ein Irrglaube, die verbaute Menge an Material..

Kotzkroete schrieb:
@Accutrauma

Wenn ich dich richtig verstehe sollen dann Sachen ...
Ihr dürft nicht vergessen, dass es seit sehr vielen Generationen schon normal ist, dass nur der big chip gefertigt wird und je nach Güte wird dieser dann per Laser Cut zugeschnitten auf die unteren Modelle. Es wird also ohnehin das gleiche Material verwendet von i9 bis i5 z.b. aber eben nach bearbeitet. Wenn die Fertigung so gut wäre und alles i9 sein könnten. Wäre es auch möglich per Software zu sperren und du kannst als Kunde deinen i5 per DLC direkt zu einem i9 Upgraden. Wäre das nicht umweltfreundlicher und man spart sich den laser cut? Nur so als denkanstoss.
 
  • Gefällt mir
Reaktionen: Accutrauma
Miuwa schrieb:
Wenn ich so drüber nachdenke: In den letzten 15 Jahren ist im PC-Markt erstaunlich wenig passiert

Sehe ich ähnlich. 15 Jahre sind eigentlich bei den durch die Komplexität kleinerer Strukturen verursachten Entwicklungszyklen eine relativ kurze Zeit. Ich erwarte in den nächsten 15 Jahren keine Wunder, es sei denn es findet tatsächlich jemand völlig neue Ansätze (wie optisches/photonenbasierendes Computing) oder es gibt einen Durchbruch beim Quanten-Computing oder ähnliches.

Solche Wunder mal außen vor, wird wohl nicht allzu viel passieren. Laut Gelsinger braucht Intel ca. 5 Jahre von Design bis Marktreife einer neuen CPU-Architektur. 15 Jahre sind also drei Generationen. Lunar Lake soll ja vermutlich 2025 am Markt ankommen und wurde dementsprechend mutmaßlich im Jahre 2020 begonnen.
In 15 Jahren sind wir demnach ca. 2,5 bis maximal knapp 3 "Lakes" weiter als Lunar Lake.

Da wird es keine Kühlschränke regnen bis dahin. Klar werden CPUs noch mal schneller, ob nun durch mehr Takt oder MOAR COARS oder eine Mischung aus beidem. Gähn.

Als Endanwender würde ich das Pferd eventuell auch eher von der anderen Seite her aufziehen wollen: Welche Anwendungen gibt es denn, wo man von brachial mehr CPU Leistung profitieren würde?
Beim Gaming träumen wir nun schon seit Jahr(zehnt)en von besserer KI, aber getan hat sich effektiv leider sehr wenig. Ich fürchte, dass das so bleiben wird, da das Problem eher auf Softwareseite liegt. Solange es nicht so etwas wie ein "DirectAI" oder "OpenAI" SDK gibt, wird das wohl auch nie den großen Durchbruch geben.

Interessanter finde ich da schon, was man mit mehr Prozessorleistung möglicherweise im Automobilbereich oder generell im Bereich Robotics wird erreichen können. Wer träumt nicht von einer automatisierten Haushaltshilfe, die 24/7 zur Arbeit parat steht?
Das wären doch endlich mal praxisnahe Innovationen, die die Welt wirklich braucht... :D
 
  • Gefällt mir
Reaktionen: Dome87
Hab mir gerade ein neues System zugelegt, 13700k, 64GB, 4090, komme von 6700k, 32GB, 2070S , das sind CPU technisch 7 Generationen, wirkt bei meine IPC lästigen Anwendung ( DCS World) Wunder, ich hoffe mal das das jetzt für weitere7 Generationen langt bis wieder was neues her muss.
 
  • Gefällt mir
Reaktionen: Dome87
10 GHz, 3D V-Cache und 16 P-Cores ohne x86
@SVΞN
und kostet 5000€.
Der Preis mach den PC auf lange Sicht, TOT.
Das sieht man auch im Forum, viele habe alte Hardware und kein Bock, keine Geld oder nicht bereit solche Summen zu bezahlen.
Wie aber AMD, nVidia und Intel, das auf lange Sicht durchhalten, ist fraglich.
Denn die extremen hier im Forum, die immer neuste Hardware haben, sind nicht die Zielgruppe, der Unternehmen.
Der Mainstream ist das Ziel und die wenden sich immer mehr vom PC ab, es gibt ja mittlerweile sehr gute alternativen, die Tablets.
 
Zurück
Oben