Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Ok, das ist interessant. Für mich sah es bisher immer eher so aus, als wenn der Desktop privat schon bei Office Sachen nur noch selten vertreten ist.
Da wurde dann immer eher ein Laptop genutzt, oder gar ein Tablet.
Ergänzung ()
Ich denke das ein nicht unwesentlicher Teil der Laptops zum arbeiten aber vom Arbeitgeber kommt und privat dann vielleicht eher das Tablet oder so genutzt wird.
Diesen Thread habe ich mal als Anlass genommen hier wieder zu posten. @Dome87 du hattest eine gute Idee, aber ich würde das Thema nicht nur auf CPUs begrenzen.
Um mal hier meine Gedanken für die Zukunft mal wieder zusammenfassen:
Desktop PC
In 13 Jahren wird es nur wenige klassische Desktop PCs (Tower) geben. Vielleicht eher noch im Arbeitsumfeld.
Es wird aber noch neue Hardware, in der Regel für Spezialverwendungen verfügbar sein, vielleicht auch für Spieler. Im Privat Umfeld wird es kaum noch Tower normal zu kaufen geben, auch nicht als Komponenten, da der Use Case der Privatperson schon mit Tabletartigen Geräten gedeckt sein wird.
Selbst Leute die heute noch eine dicke Workstation haben, brauchen das zunehmend weniger, da vieles auch einfach per Hardwarenbeschleunigung durch En- und Decoderchips für das jeweilige Format umgesetzt werden kann, siehe Apple.
Im Businessumfeld wird sicher am ehesten die X86 Architektur beibehalten, aber es kann auch sein das es vielleicht dann sehr spezialisierte Geräte, ähnlich wie Supercomputer sein können, vielleicht Chips mit X86 oder einer anderen Architektur als Basis, aber dann mit speziellem Design was auf die darauf laufende Software angepasst ist.
Die mechanischen Anschlüsse könnten dann auch zunehmend nicht mehr standardisiert sein, weil der Computer ja nur für einen speziellen Use Case gebaut wurde.
Notebook PC
Ich denke das die Laptops immer mehr von Tablets ersetzt werden, wo man dann bei Bedarf eine Tastatur anschließen kann. Auch kann es sein das diese auch nicht zwingend klassische X86 Rechner sein werden. Aufrüsten von RAM und permanentem Speicher wird dann auch nicht/kaum mehr gehen. Ich habe ja schon heute kaum mehr Laptops mit SO DIMMs, Akkus eh so gut wie immer intern und nur per Stecker am Board. Selbst das könnte angelötet werden.
Anschlüsse könnte es vielleicht dann auch nicht mehr viele verschiedene geben, da es vielleicht eine Buchsenart für alles was meistens gebraucht wird gibt.
Vielleicht kann das USB C sein, aber ich denke das da vielleicht noch ein anderer Steckertyp kommen kann.
USB Sticks &Co.
Ich denke das auch diese Art von mobilem Speicher zunehmend ausstirbt, da viele Sachen online mit Cloud Services gelöst werden und auch die USB-A Buchse für sehr schmale Geräte zu dick sein kann. Ich habe auch kaum bisher USB C Sticks gesehen, meistens waren das auch nur Dual Sticks, die dann am anderen Ende noch normal USB A hatten. Ich vermute das hier bei USB C die Gefahr des Abbrechens zu groß ist.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich habe gerade diese Video gesehen und finde es auch sehr gut.
Da gibt es nämlich noch einen Aspekt, den ich nicht so bedacht hatte:
Einer der Vorteile der X86 Desktop PCs --> man kann einfach (fast) alles zusammenbauen, weil es viel Standards gibt, die bestimmte Vorgaben für die einzelnen Komponenten machen. Das geht auch bei Laptops noch so, zumindest beim Speicher. Aber auch irgendwelche Funkmodule, meistens mit M2 Anschluss kann man tauschen, früher hatten Laptops sogar noch gesockelte CPUs.
Diese Modularität ist aus meiner Sicht auch ein Grund für die niedrigen Preise, da viele Hersteller im Wettbewerb stehen können.
Und genau hier befüchte ich das in Zukunft, wenn irgendwelche großen Tower PCs eher für Spezialfälle genutzt werden, dass dann alles drunter leidet.
Es könnten das entsprechende auch nur noch die erforderlichen Anschlüsse für genau den Use Case auf das Board gemacht werden oder Spezialanschlüsse des Herstellers. Den Anfang sieht man ja heute schon in den Pre-Built Desktops, die vor allem im Businessumfeld genutzt werden. Da sind spezielle Stromstecker normal, man kann da nicht einfach bei einem Defekt ein normales ATX Netzteil reinschrauben. Ist zum Beispiel bei bei Fujitsu Esprimo PCs so.
Oder das Bios kann dann kein Legacy mehr, nur noch UEFI.
Ergänzung ()
Und genau da wird der Hund begraben liegen, das die Desktop PCs, die ja eigentlich von der Servertechnik abstammen für uns bezahlbar sind kommt nur über die Masse.
Wenn diese Masse aber wegbricht, weil man die benötigte Leistung auch auf dem Tablet erreicht, dann werden weniger PCs verkauft, es wird teurer.
Schon heute sind es doch zu einem wesentlichen Anteil die PCs die im Businessumfeld im Büro genutzt werden, die überhaupt den Desktop noch (halbwegs) bezahlbar sein lassen. Aber schon jetzt lässt sich der Preisanstieg wahrnehmen.
Im Privat Umfeld haben nur noch wenige, ich würde sagen maximal 1/3, eher weniger einen Tower stehen, auch Laptops sind immer seltener zu finden und werden auch durch Tablets (und Convertibles) abgelöst.
Den klassischen Gamer, der sich seinen Desktop selber gebaut hat, gibt es kaum noch. Es wird vermehrt zur Konsole gegriffen.
Ich denke, wenn die Stützpfeiler des Gamings und des Büroeinsatzes vom Desktop noch wegbrechen, dann war es das so langsam mit dem (bezahlbaren) Computer zum selber zusammenschrauben.
Ich finde es erstaunlich wie wenig Aufmerksamkeit dieses Thema hier hat. Eigentlich wäre es auch gut, wenn die Redaktion von CB hier mal das Thema aufgreifen würde und einen Artikel "in eigener Sache" dazu schreiben würde.
Vielleicht mal noch eine Umfrage dazu, wie die CB Leser das so sehen.
Ich finde das Thema nach wie vor spannend:
Wer wie ich das Thema PC von Anfang an erlebt hat, kann ermessen wie rasend schnell sich das alles entwickelt hat und wie schnell sich das weiter entwickeln wird.
vor 40 Jahren waren die Monitore noch so schwer ein kleines Klavier und heute kann man sie sogar zusammenfalten.
Die ersten PC habe ich auch auch noch selbst zusammengeschraubt und habe mich gefreut wenn Pacman lief.
Die ersten Festplatten hatten 40MB und waren so schwer wie ein Ziegelstein, heute gehen 1TB auf einen chip so groß wie ein Fingernagel.
Ich schreibe dies hier auf einem notebook, dem ich den Text diktieren kann und ich werde auch meinen alten desktop PC, wenn win10, ausläuft mit Sicherheit nicht mehr ersetzen.
Negativ empfinde ich die rasende Verbreitung der "Klotzofone", selbst meine Enkel starren den ganzen Tag in so ein Ding und lesen keine Bücher mehr.
Aber wir haben jetzt die sog. künstliche Intelligenz, da braucht keiner mehr selbst denken, das übernimmt nun der Computer, selbst eine Doktorarbeit kann man so ohne jegliche eigene Gedankenarbeit schreiben lassen und die lückenlose Erstellung eines Quellenverzeichnisses beherrscht er auch ohne Fehler.
"Schöne neue Welt"...............
Mir ist noch eingefallen, zur Demonetaisierung bei YT sobald Schimpfworte usw. erkannt werden;
Ich kann mir aber vorstellen das in vielleicht gar nicht mehr so ferner Zukunft diverse Computerprogramme intelligent genug sein können und dann sich einfach weigern wenn etwas erkannt wird. Also Zum Beispiel der Harold Faltermeyer Soundtrack ist dann nicht mehr einzufügen, Fehlermeldung wegen Urheberrechtsverstoß.
Netflix hat ja jetzt auch das Acoount Sharing verboten. YouTube wird auch so langsam unerträglich mit der Werbung.
Aber das automatische erkennen von solchen Material in Eigenproduktionen stelle ich mir durchaus realistisch vor. Wird ja schon heute bei YT gemutet.
Bis das Programm am, vermutlich dann eher Tablet, das kann wird es vielleicht nicht mehr lange dauern.
Am Ende kann man dann auch eigene Sound und Videodateien vielleicht nicht mehr nutzen weil man nicht beweisen kann das man die gekauft hat.
Ich halte intelligente Media Player für gar nicht so unrealistisch. Ich erinnerre mich das man einen IPod auch nur an dem Computer wo er registriert war mit Daten bespielen konnte. iTunes Mediathek und so. Musst man sychronisieren, war schon arg nervig.
Bei DAT Kassetten wurde ja (bei europäischen) Geräten die digitale Kopie bei 44,1Khz gesperrt. Und das war schon ende der 80er anfang der 90er.
Die Nützlichkeit von Computern steht und fällt mit den Anwendungen. Es zeigt jetzt schon eine Tendenz hin zu Cloud-Abo-Modellen. Künftige Technologien wie ChatGPT wird es gar nicht mehr als Programm-Code geben, der auf "persönliche Computer" geladen werden kann - egal welche Bauform die nun haben. Gibt es keine App-Downloads mehr, verschwinden auch die dazugehörigen Computer - mangels Bedarf.
Am Ende wird wohl nur noch die Benutzerschnittstelle bleiben und hintendran die Cloud. Ohne permanente Internetverbindung geht nichts mehr.
Bei Privatleuten ist jetzt schon absehbar, daß das Phablet gewandelte Smartphone im ca-7"-Format neben dem "Fernseher" das einzig übrigbleibende Bildschirm-Interface sein wird, ggf. ergänzt durch Controller. Tastatur und Maus sind in dem Bereich bereits obsolet, deren Bedienung wird künftig gar nicht mehr erlernt. Der Desktop hat bereits heute keinerlei Bedeutung mehr, und mit Notebooks sind vorrangig Leute unterwegs, die das sowieso beruflich brauchen, also in der Regel einen Bildschirmarbeitsplatz haben, dessen Bedienung Teil ihrer Berufsausbildung war.
Zum gewerblichen Einsatz möchte ich mich nicht äußern, weil das sehr stark branchenabhängig ist. Es ist einfach albern ganz pauschal von "Office-PCs" zu sprechen, wenn der IT-Einsatz zum Beispiel in der Automobilindustrie ein ganz anderer sein kann, als beispielsweise im Finanzwesen, und damit auch völlig unterschiedliche Gestalt annehmen kann. Klar ist jedoch: Was bei sog. "Influencern" (und dazu zählt diese Webseite) passiert, ist in keiner Weise repräsentativ für das Geschäftsleben, denn Werbung und Medien zeigen eine naturgemäße deutliche Überrepräsentanz im allgemein Bewußtsein.
Eins ist aber klar: Die Zahlen von sog. "Marktforschern" wie IDC und Gartner haben diese sich meistens aus der Nase gezogen und mit ihren Prognosen liegen sie immer garantiert falsch. Das kann man sich einfach anschauen, wenn man auf ältere äußerst fantastische Meldungen dieser Heißluft-Buden klickt.
er Desktop hat bereits heute keinerlei Bedeutung mehr, und mit Notebooks sind vorrangig Leute unterwegs, die das sowieso beruflich brauchen, also in der Regel einen Bildschirmarbeitsplatz haben, dessen Bedienung Teil ihrer Berufsausbildung war.
Das meinte ich ja, der Desktop und Notebook fast auch sind im Privatumfeld kaum noch vertreten und bereits heute sind es eigentlich die Firmen PCs die da den Löwenanteil ausmachen.
Hier war jetzt in einem Artikel zu sehen wie stark ARM in den letzten Jahren im Serverbereich gewachsen ist. Möglicherweise kann da X86 schneller abgelöst werden als gedacht.
Edit:
Ich habe jetzt mir die Tests der neuen X3D CPUs angeschaut. Nette Teile, aber irgendwie kommt da wenig habenwollen auf. Der Markt ist aktuell da schlecht, viel zu teuer
Ich bin froh das ich jetzt keinen neuen PC brauche, der X4 860K reicht eigentlich noch für Office locker aus.
Und mein Thinkpad L15 ist ja mit dem R7 5875U noch sehr neu.
Ich hoffe noch mir vor dem Ende der X86 (kompatiblen) Rechner mir nochmal einen Desktop kaufen zu können.
Interessant ist in dem Zusammenhang, das eine RAM Bestückung mit 128GB recht problematisch bezügl. der Stabilität sein kann.
Roman hatte mal ein Video gemacht zu den E Cores der Intel CPUs.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich habe hier im Forum auch in einem Thread gelesen das die E Cores dem mangelnden Platz auf dem Die geschuldet sind. Das würde auch Sinn machen, wenn man bedenkt, das Smartphones ja sowas schon lange haben, da ist ja auch nicht viel Platz.
Also zusammengefasst heißt das, man kann Hochfrequenzkerne (@zeedy ) nicht einfach beliebig klein auf einem Die machen, wenn eine hohe Taktfrequenz erreicht werden soll.
Weil aber der Platz begrenzt ist und man bei den E Cores mehr Leistung pro Fläche bekommt werden E Cores gemacht anstatt weniger mehr P Cores.
Das würde bedeuten, das P Cores nicht zwingend im Idle mehr Strom verbrauchen. Sondern das da die mehr Energie vor allem durch den höheren Takt kommt und vielleicht auch zu einem (kleinen) Teil durch die höhere Fläche.
Ist das halbwegs richtig oder habe ich da einen Denkfehler?
Dieser hat mich zum Nachdenken gebracht. Ich habe mir schon seit einer Weile gedacht, das irgendwann der klassische (Tower) Desktop am Ende ist. Und das es dabei auch darauf hinausläuft, das diese Computerart immer teurer wird. Nur dacht ich nicht, das es so schnell gehen kann. Ich dachte, das die Preisschwelle, bei der ein Tower PC für den Amateur oder auch den semiprofessionellen Einsatz unattraktiv wird. wird erst vielleicht so Ende der 2020er Jahre erreicht. Aber ich stelle zunehmend fest, dass ich für 3 Jahre alte Hardware (erstaunlich das man das sogar neu kaufen kann) auch nahezu die gleichen Preise zahle wie zur Markteinführung.
Einen kleinen Office PC zu bauen macht aktuell aus meiner Sicht keinen Spaß, da es (vor allem bei AMD) keine Einsteigerhardware gibt. Jedenfalls keine aktuelle (mit DDR5). Sicher ist es nicht sinnvoll funktionsfähige Chips zu kastrieren, aber wenigstens einen einzigen könnte man doch vielleicht anbieten. Von mir auch gerne ein als AM5 gesockelter Mobile Chip.
Aber auch wegen der hohen Neupreise ist der Gebrauchtmarkt auch sehr teuer geworden.
Möglicherweise gibt es vielleicht auch die Zielgruppe für einen Budget-Desktop nicht mehr. Kann das sein?
Also das die Personen, die sich einen Tower bauen auch ausschließlich Enthusiasten sind oder so ähnlich.
Edit; Kann es sein das eine iGPU mit DDR5 RAM die Grafikkarten von unten soweit kannibalisieren könnte, das man nur noch die gro0en Grafikkarten (ab RTX 4060 oder gar 4070) herstellen müsste?
Was ich so nicht habe kommen sehen die zukünftigen "KI-PCs", bzw. vielmehr Notebook oder irgendwie mobile Geräte.
Gerade hat AMD seine neuen Prozessoren auf der Computex 2024 vorgestellt, die Mobilchips gibt es nun wohl nur noch mit KI-Recheneinheiten.
Bei den Desktop Chips habe ich es so verstanden das Ryzen 9000 im Desktop keine KI-Recheneinheiten vorhanden sind.
Fragen die ich mir bisher nicht beantworten konnte sind folgende:
Was macht die KI-Einheit, warum kann man das nicht auf der iGPU wenn erforderlich laufen lassen?
Zu was könnte die KI-Einheit in der Lage sein?
Was macht die KI-Einheit bei einem Betriebssystem, das bisher diese nicht unterstützt, zum Beispiel Ubuntu?
Kann man unter Ubuntu oder einem anderen Linux dennoch irgendwie auf diese KI-Einheiten zugreifen und wenn ja wie?