(gefühlte) Geschwindigkeit des PCs; Sinn/Unsinn eines Upgrades.

sz_cb

Lieutenant
Registriert
Jan. 2020
Beiträge
709
Hallo in die Runde!

In den folgenden Zeilen geht es eher um rhetorische Fragen, vielleicht sogar philosophische ;) Es geht weniger ums Technische.

Vor nun schon einiger Zeit habe ich mir aus der Not heraus einen neuen PC zusammengestellt. Mein alter PC hatte nach > 8 Jahren mitten beim Arbeiten (keine extreme Last, nur eine VM offen, vielleicht 10 Visual-Studio-Tabs und ein paar Browser-Instanzen) plötzlich und unerwartet einen Blackscreen. Das heißt, er lief noch, zeigte aber nix mehr an und reagierte auf nix mehr. Nach einem Druck auf den Reset-Knopf kam ich nicht einmal mehr ins BIOS, er hängte sich direkt im Post-Screen oder spätestens im BIOS auf. Da es bereits 4 Uhr morgens war, ging ich erstmal schlafen. Am nächsten Morgen startete der PC zwar, als sei nie etwas passiert, aber für mich war der Entscheidung getroffen, nun doch mal auch das eigene System aufzurüsten - immerhin ist es mein Arbeitsgerät und ich sitze nicht selten 15 Stunden pro Tag davor. Nötig wäre es ohne den Zwischenfall eigentlich nicht gewesen, denn mit der Leistung für meine Anwendungszwecke war ich ziemlich zufrieden. Ich habe zwar in der Zeit zwischen altem und neuem PC auch viele PCs zusammengebaut und eingerichtet, aber eben nie für mich, sodass ich kein wirkliches Gefühl dafür bekam, ob die neuen Systeme im Alltag ihre Aufgaben schneller erledigen können. Nunja, das Bastelfieber hatte mich wieder gepackt und so habe ich mir ein komplett neues System zusammengestellt.

Alter PC:
  • i7 2600K (undervolted, übertaktet), P67A-B3-Chipsatz, Prolimatech Megahalems
  • 16 GB RAM
  • Samsung 840 Pro SATA-SSD als Boot-Laufwerk und noch 2 ältere SSDs (die meisten Daten lagen/liegen auf meinem File-Server)
  • Stock GTX 1050 Ti (bis Anfang 2017: übertaktete GTX 470 "Thermi" mit Arctic-Kühler und 3 bequiet-Lüftern :love:)

Neuer PC:
  • Ryzen 5 3600, X470, Noctua NH-D15s ("stark" undervolted, Power-Limit 75 Watt, aber hoch optimiert, dadurch leicht bessere Leistung als Stock :smokin:)
  • 32 GB RAM (3200er CL16, 1,22 Volt)
  • Corsair Force MP600 (PCIe 4.0-SSD an PCIe 3.0 des Ryzen-Prozessors); war mal kurz im Angebot und daher recht günstig
  • bei knapp 1 Volt nah ans Limit übertaktete GTX 1660 Super (mit 2 Noctua-Lüftern)

Prinzipiell läuft die neue Kiste sehr gut. Sie ist im Idle nicht hörbar und unter absoluter Volllast (Prime95 Small FFT + Furmark) leiser als jeder "Silent"-Rechner, der mir bisher unterkam. Und: Alle Komponenten bleiben kühler als bei vergleichbaren Systemen. Also im Grunde genau wie beim alten PC: alles etwas schneller als im Werkszustand, trotzdem leiser und kühler.

Soweit zur Vorgeschichte. Kommen wir zum eigentlichen Thema: Die Geschwindigkeit des Systems.
Ja, der PC ist schneller......... in Benchmarks. Mal davon abgesehen, dass Spiele durch die neue GPU nun deutlich besser laufen, ist das System gefühlt keinen Deut schneller als vorher. Photoshop ist keinen Wimpernschlag schneller (der einzige Vorteil: mehr RAM, dadurch wird später ausgelagert). Ich habe eine recht komplexe Tabelle, die ich mehrmals täglich öffne - die Ladezeiten sind unverändert hoch (knapp 11 Sekunden). Die Datenbanken in den VMs laufen annähernd gleich schnell.

Wenn ich sehe, wie viel schneller spezielle Anwendungen (Rendering und Spiele bspw.) sein können, warum erfahren dann nicht auch weniger rechenintensive Anwendungen einen Schub in der Performance? Was ist denn aus Moore's Law geworden? Intels Tick Tock? Alles Augenwischerei? Früher war spätestens jede zweite Generation der CPU auch ein deutlich spürbarer Performancesprung. Oder gehöre ich schon zur (Groß-)Elterngeneration, die den Zug verpasst hat und nicht mehr versteht, dass es doch viel besser ist, statt 11,3 Sekunden nur noch 10,9 Sekunden auf die Ausführung einer Alltagsoperation zu warten? Rein vom Papier her müsste sich bspw. die Tabelle jetzt in deutlich weniger als der Hälfte der Zeit öffnen, stattdessen sind es weniger als 4 Prozent "Boost".

Ernüchtert muss ich deshalb fragen: Ist das der Fortschritt nach 8 Jahren? Gibt es heute nur noch "Content Creators", die tagein tagaus Videos rendern? Wozu um Himmels Willen brauchen Leute 8/12/16-Kerne? SSDs sind toll und um Längen besser als HDDs, aber PCI-E-SSDs? In der Praxis gibt es für den normalen Nutzer überhaupt keinen Geschwindigkeitsvorteil gegenüber SATA-SSDs, es sei denn, er kopiert ständig große Datenmengen hin und her. Der einzige, praktisch relevante Vorteil ist m.E., dass man den Riegel einfach ins Board klemmt, anstatt die SATA-SSD in 'nem Laufwerksschacht mit Strom- und Datenkabel zu versehen. Aber ansonsten? Hmmm. Bei besagter Tabelle ist es übrigens vollkommen egal, ob ich sie von der PCI-E-SSD, oder der SATA-SSD, oder via GB-LAN von einer HDD meines etwa 10 Jahre alten File-Servers lade, die Ladezeiten bleiben bis auf 1-2 Zehntelsekunden gleich.

Die einzigen Vorteile, die ich jetzt konkret habe, sind, dass Spiele etwas schöner aussehen, der neue PC unter Volllast fast nicht mehr hörbar ist und im Leerlauf etwas weniger Strom verbraucht. Die Spieleleistung hätte ich aber wahrscheinlich auch gehabt, wenn ich nur die GPU getauscht hätte. So hat mich diese Erfahrung etwa 1300 Euro gekostet. Naja, zumindest bin ich nun um die Gewissheit reicher, dass auch dieser PC für einige Jahre vollkommen ausreichend sein wird 🙄
 
  • Gefällt mir
Reaktionen: areiland, frozenCube und redlabour
Da du bereits eine SSD hattest, hast du den wirklich eklatanten Leistungssprung der jüngeren Vergangenheit bereits vorher genießen können.

Es hat sich sehr viel getan im Bereich der Miniaturisierung - Netbooks, Laptops und Smartphones haben sehr deutlich in der Leistung gegenüber einem klassischen Desktop aufgeholt. Bei deutlich optimierter Energieeffizienz. Darüber hinaus gibt es mittlerweile auch für Endkunden die Möglichkeit, sich eine bezahlbare Workstation mit 16 oder 32 Kernen hinzustellen. Das ist jedoch abermals eine Nische - nämlich für Software, die darauf skaliert.

Sandy Bridge war ein extrem großer Sprung in der IPC und gleichzeitig der Übertaktbarkeit sowie in der Anzahl der Threads. Ein Ryzen 3000 ist da jetzt nicht so gewaltig viel besser. Du kannst dein og. System spielend und weitestgehend unhörbar auf Mini-ITX aufbauen. Das war 2011 nicht so einfach möglich.

Seitdem dachte man, Intel habe absichtlich Innovationen verschleppt. Offenbar hat man tatsächlich keine gehabt bzw. ag. nicht marktreifer Fertigungsverfahren nicht liefern können. Letztlich lebt der Großteil der Innovation von Shrinks und mehr Kernen - was natürlich nicht unendlich fortführbar ist und auch softwareseitig an klare Grenzen stößt.
 
  • Gefällt mir
Reaktionen: sz_cb und Baal Netbeck
Wo soll den bitte genau der Vorteil sein wenn es um reine Ladezeiten geht?
Da hat die CPU ja kaum etwas zu tun sondern es kommt auf den Speicher an, Zeitgewinn würde da maximal die M.2 SSD bringen wenn du die Daten aber auf dem File Server oder der alten SSD hast ändert sich nichts.
Die CPU in ein Power Limit zu zwingen versteh ich auch nicht ganz.
 
Ich muss gestehen, dass ich subjektiv empfinde das der "uralt" Rechner meiner Freundin (i5 3570K, 16GB DDR3 2400, 128GB MSATA SSD) beim reinen Handling von Windows, öffnen eines Browsers usw., schneller agiert als mein Rechner. (Ryzen 5 3600X, 16GB DDR4 3933 CL 17, 256GB NVME).

Rein Objektiv ist mein Rechner natürlich wesentlich schneller.

Es gibt halt leider auch die Softwareebene auf der optimiert werden muss (müsste)...
 
  • Gefällt mir
Reaktionen: sz_cb und shaggy86
Beim laden von Dateien usw. wirst du kaum einen Unterschied merken, SSD zu SSD ist nur in speziellen Szenarien besser. Der Rest: hängt von der Software ab wie gut die optimiert ist und mehr Kerne, neue Befehlssätze usw auch ausnutzen kann.
 
sz_cb schrieb:
DEIN KOMPLETTER BEITRAG!

Du sprichst mir sowas von aus der Seele. Made my Day. ;) Die Hardware ist seit einigen Jahren jeglicher Software voraus - wenn es nicht um Rendering und Gaming geht. Und auch beim Gaming merkt man diesen Stillstand. Der nächste grosse Sprung wird erst wieder spürbar werden wenn 4k bei 144 FPS erfahrbar wird.

So lange hypen die Kids WQHD und anderen Zwischenlösungs-Schmarn und verbrennen ihr Geld.
 
  • Gefällt mir
Reaktionen: sz_cb und areiland
@sz_cb ist alles überbewertet, ob mobile Endgeräte die relativ schwachbrüstig waren da mit eine Ursache waren?,
Für den Grundbetrieb hat sich seit ca 15 Jahren wenig getan , einzige Treiber sind Internet Werbung und Auflösungen gewesen, aber da kann man auch einen alten Monitor nehmen, wenn man seine Video Aufnahmen auf 720p h264 lässt kann man auch heute noch altes Equipment gut nutzen . selbst Bildauflösungen jenseits 2MP sind eigentlich uninteressant.
Internet Bandbreiten wurden hochgetrieben doch gleichzeitig Bandbreite sparende Video Codecs rausgebracht. die angestiegene Größe der Datenträger ist in Anbetracht der Kompirmierung von Video Codecs auchetwas was sich beißt .
Games und Programme sind teils explodiert, ein Wunder dass deren Entwicklung noch managebar ist.
Allerdings sehe ich die Gaming Konsole hier als die bessere Alternative statt immer wieder Hardwaree Upgrades am heimischen Rechner zu machen..
Prinzipiell würden sich die Anbieter aber auch immer mehr ins Netz oder die Vloud holen, also weg vom heimischen Rechner
 
  • Gefällt mir
Reaktionen: sz_cb und areiland
redlabour schrieb:
So lange hypen die Kids WQHD und anderen Zwischenlösungs-Schmarn und verbrennen ihr Geld.
Zudem sind die Grafikkarten drastisch teurer geworden und Bildschirme haben 1-2 Kernfeatures verbessert und dafür gefühlt bei ihren Schwächen eklatant zugelegt. Der Markt für Videospiele hat sich allgemein stark verändert, sodass man sich fragen kann, ob man die 3000€ investieren wollen würde, die ein Rechner für 4k so kostete. (Nicht zuletzt skaliert Windows10 mangelhaft in 4k)

Raytracing braucht sicherlich noch seine 3 Jahre.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und areiland
Für einen wirklichen Vergleich würde ich CPU des gleichen Herstellers vergleichen.
 
@ShmaZen warum rennt dein ram auf 3933? kannst mir nie und nimmer erzählen, dass dein ryzen n if von 1966 mitmacht.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Was hat das mit dem Thema zu tun?

Was mir noch eingefallen ist:
sz_cb vergleicht einen i7 für über 300€ mit einem Ryzen für unter 200€. Insofern wäre ein Vergleich, der fair ist, wohl eher einen i5 2500k gegenüber zu stellen. Somit wären wir dann immerhin beim Unterschied von 4 zu 12 Threads im Mainstream.
Die Frage danach, inwieweit heutige Software damit umzugehen weiß, ist bereits gestellt worden.
 
Grundsätzlich haben hier alle recht. Der Fortschritt der Hardware geht nicht einher mit dem Fortschritt der Software. Da wird mit allen Mitteln die Hardware bis auf den letzten nm ausgereizt und auch wenns schön ist, aber die CPU ist bei Foto-und Videobearbeitungssoftware vielleicht 20-30% ausgelastet. Da hapert es am Ende woanders und viel machen kann man da glaube nicht, oder? Wenn man wie oben beschrieben nicht 24/7 größere Datenmengen von A nach B und zurück nach A kopiert, hat man von ner 1000€ CPU und 64GB RAM nicht wirklich viel. Da bekommt man die Arbeit mit ner 200-300€ CPU und 16-32GB RAM auch locker hin. Oder steh ich jetzt (auch) aufm Schlauch? ^^
 
  • Gefällt mir
Reaktionen: sz_cb und areiland
Tja, es sollte mehr "to the metal" programmiert werden allerdings ist das nicht mehr so wie damals auf dem amiga, c64 oder den alten PS1 und Xbox Systemen wo noch am letzten Ende was rausgezaubert werden konnte.
Indeed denke ich aber auch wenn die Hardware zum Halt kommt dass durchaus die Softwaregemeinde langsam mal aus dem Quark kommt weil es dann nunmal nicht mehr anders geht.
 
  • Gefällt mir
Reaktionen: sz_cb
Destyran schrieb:
@ShmaZen warum rennt dein ram auf 3933? kannst mir nie und nimmer erzählen, dass dein ryzen n if von 1966 mitmacht.
Boah jetzt hast du mich aber erwischt, bin mir zu 99,9% sicher gewesen. Ist 4400er, die macht er natürlich nicht, aber 3933 oder 3866 sollten es gewesen sein. Ich verifizier das gerne noch mal mit nem Foto. ;)
 
Ich hatte seinerzeit einen Wechsel von AMD Phenom 1090T auf Intel i7 3770K und das waren gefühlt Welten. Das System lief gefühlt ohne Last viel flüssiger. Ganz zu schweigen vom Systemstart.

Heute merkt man kaum Unterschiede bei Normalanwendungen.
 
  • Gefällt mir
Reaktionen: sz_cb und shaggy86
Vielen Dank für euer Feedback :)

@Zwirbelkatz
Auch die IPC hat sich seither um den Faktor 1,5 verbessert. Der RAM ist etwa doppelt so flink. Wo also geht die Performance flöten, wenn alle Komponenten theoretisch deutlich schneller sind? Warum wird Software nicht optimiert? Wir reden hier von einem Zeitraum von 8, ja, fast 9 Jahren - eigentlich eine Ewigkeit im IT-Sektor.
Du hast natürlich vollkommen Recht dahingehend, dass die gleiche Leistung heute mit weniger Platz und weniger Energie erreichbar ist. Meinen kleinen NUC im Wohnzimmer will ich nicht mehr missen ;)
Mein 2600K hat damals zwar "nur" ca. 260 Euro gekostet und prinzipiell hast Du völlig recht - dennoch liegt hier fast eine Dekade dazwischen. Man würde wohl auch nicht meckern, wenn man einen kleinen Sandy Bridge i3 mit einem High End Pentium IV vergleicht.

@TheTrapper
Im neuen PC ist eine andere SSD - wie ich schrieb - via PCI-E 3.0 angebunden, nicht SATA.

@ShmaZen
Vielen Dank für die Bestätigung ;) Ja, die Software-Optimierungen scheinen wohl die Ursache zu sein. Allgemein habe ich den Eindruck, dass es heute deutlich weniger um Code-Sparsamkeit und -Effizienz geht als das früher der Fall war. Bestes Beispiel hierfür sind m.E. Webseiten. Meine Güte, da wird ein Haufen Schrott geladen, der überhaupt nicht notwendig wäre.

@nitech
Ja, genau das ist der Punkt. Ich habe eine neue PCIe-SSD, die an PCIe3.0 theoretisch ungefähr 7 Mal so schnell sein sollte wie die alte SATA-SSD. Man könnte also eine gewisse Steigerung erwarten. Praktisch ist von dieser Steigerung aber überhaupt nix vorhanden.

@redlabour
🙂

@Pitt_G. & @Jossy82
Was auch immer man von den Geräten halten mag, aber es gibt eine Sache, die sowohl Apple als auch Konsolenhersteller besser machen: Die Optimierung der Software an das vorhandene System. Beim PC geht man seit jeher äußerst schlampig mit Ressourcen um. Prinzipiell ist das ja (im Sinne des "Fortschritts" 😱) auch ok - nur dass es eben keinen Fortschritt gibt. Wenn dieselbe Software auf PC "Alt" genauso schnell ist wie auch PC "Neu", und dazwischen fast eine Dekade liegt, ist das irgendwie keinen Penny wert und irgendwie traurig.

@shaggy86
Genau so ist es. Daher meine Frage, wofür sich die Leute diese fetten CPUs holen? Es gibt - bis auf ein paar wenige spezialisierte Ausnahmen - keinerlei Vorteile gegenüber den "kleinen" CPUs.
 
  • Gefällt mir
Reaktionen: ShmaZen
fellkater schrieb:
Ich hatte seinerzeit einen Wechsel von AMD Phenom 1090T auf Intel i7 3770K und das waren gefühlt Welten. Das System lief gefühlt ohne Last viel flüssiger. Ganz zu schweigen vom Systemstart.

Heute merkt man kaum Unterschiede bei Normalanwendungen.

Ja, leider. Ich würde das auch nicht als schlimm empfinden, wenn es bei bestimmten, sehr einfachen und tatsächlich alltäglichen Aufgaben darum ginge, ob es 0,29 oder mit der neuen Plattform 0,28 Sekunden dauert. Da würde ich denken: Ist ok, behindert mich nicht, es ist bereits so stark optimiert, dass ein minimaler oder gar kein Performance-Zuwachs durchaus nachvollziehbar erscheint und einen deutlichen Performance-Zuwachs würde ich wahrscheinlich nicht mal wahrnehmen. Aber wenn eine simple Aufgabe mit aktueller Software auf einer rundum modernisierten Plattform genauso lahm ist wie bei einer 9 Jahre alten, dann stelle ich mir schon die Frage, welchen Mehrwert die Investition in die neue Plattform hat.

Ich will mal bei der oben erwähnten Tabelle bleiben. Alle Voraussetzungen für ein schnelleres Öffnen sind gegeben: Die neue SSD kann die 3 MB große (oder eher: kleine) Tabelle ein klein wenig schneller über den deutlich schnelleren Bus in den deutlich schnelleren RAM laden, wo sie von dem deutlich schnelleren Prozessor verarbeitet werden kann und dann über den deutlich schnelleren Bus an die deutlich schnellere Grafikkarte gesendet wird, um sie mir am Monitor darzustellen. Ich verstehe schon, dass in diesem Beispiel die SSD und die Grafikkarte keine tragende Rolle spielen, aber ich sehe auch keinen Flaschenhals, der mir erklären würde, warum die Tabelle nicht im selben Maße wie die verantwortlichen Komponenten deutlich schneller vor mir liegt. Die werden ja wohl nicht bei der Tabellenkalkulation eine "Jetzt warte 10,5 Sekunden"-Routine eingebaut haben.

@fellkater
Warum sollte ich nur Intel mit Intel bzw. AMD mit AMD vergleichen? Es geht um rudimentäre, nicht um Spezialaufgaben, die auf dem einen Prozessor wegen bestimmter firmeneigener Instruktionen besser laufen als auf anderen.

@redlabour
So ungern ich das sage, aber Ich denke, da werden wir den Konsolen danken müssen, wenn das eintritt ;)
 
sz_cb schrieb:
@fellkater
Warum sollte ich nur Intel mit Intel bzw. AMD mit AMD vergleichen? Es geht um rudimentäre, nicht um Spezialaufgaben, die auf dem einen Prozessor wegen bestimmter firmeneigener Instruktionen besser laufen als auf anderen.
Dein Thema und meine damalige Erfahrung sind Gründe, warum ich nicht(noch) auf AMD umsteige.
Ich habe das Gefühl, das die Intel Systeme einfach flotter reagieren. Aber wenn du erwartest, das deine neue Anschaffung flotter reagiert, dann hättest vielleicht nen Intel nehmen sollen für den Vergleich. Obwohl die AMD`s im Moment sehr zu empfehlen sind aus Leistungssicht.
 
  • Gefällt mir
Reaktionen: M001 und shaggy86
sz_cb schrieb:
Der RAM ist etwa doppelt so flink. Wo also geht die Performance flöten, wenn alle Komponenten theoretisch deutlich schneller sind?
DDR3 2400 CL12 ist in Summe nicht langsamer als DDR4-3600 CL18. Es kommt auf das Produkt aus Takt und Latenz an. Da seit Jahren beides steigt, ist eben genau die Frage, ob der Ram real schneller ist.

sz_cb schrieb:
Aber wenn eine simple Aufgabe mit aktueller Software auf einer rundum modernisierten Plattform genauso lahm ist wie bei einer 9 Jahre alten, dann stelle ich mir schon die Frage, welchen Mehrwert die Investition in die neue Plattform hat.
Womöglich dass du locker 32 oder 64GB Ram verbauen und bezahlen kannst und genug Kerne und Threads in Reserve hast. Die Idee dürfte also lauten, die Gewohnheiten zu verändern und Prozesse im Hintergrund einfach gar nicht zu schließen.
In dem Zusammenhang kann mit schnellem Booten oder einem Energiesparmodus den Rechner halb auf Standbye betreiben und Windows10 merkt sich sogar, was zuletzt offen gelassen wurde. Vollständiges, mühevolles Herunterfahren mit HDDs war eine absolute Qual.

sz_cb schrieb:
Auch die IPC hat sich seither um den Faktor 1,5 verbessert.
Der i7 2600k ist für mein Dafürhalten der beste Prozessor aller Zeiten gewesen. Natürlich fällt es da besonders schwer, eine Verbesserung zu erhalten. (Habe selbst noch einen laufen)

Mit den beiden letzten Punkten möchte ich keine Rechtfertigung für schlampige Software aussprechen.

Noch was:
Wirkt vllt. anmaßend, aber womöglich hast du einfach den falschen Energiesparmodus verwendet ...
 
  • Gefällt mir
Reaktionen: Baal Netbeck
fellkater schrieb:
Dein Thema und meine damalige Erfahrung sind Gründe, warum ich nicht(noch) auf AMD umsteige.
Ich habe das Gefühl, das die Intel Systeme einfach flotter reagieren. Aber wenn du erwartest, das deine neue Anschaffung flotter reagiert, dann hättest vielleicht nen Intel nehmen sollen für den Vergleich. Obwohl die AMD`s im Moment sehr zu empfehlen sind aus Leistungssicht.

Vielleicht stehe ich gerade etwas auf dem Schlauch 🙂
Das System arbeitet absolut flüssig und reagiert auch so, wie ich es erwarten würde. Es gibt keine "Lags" o.ä.. Es geht mir um diejenigen "alltäglichen" Dinge, die früher schon wegen ihrer Komplexität lange gedauert haben und es jetzt noch immer tun, obwohl jede einzelne Faser des Systems modernisiert wurde. Auch wenn ich es aus vorhin genannten Gründen nicht manifestieren kann und auch kein aktuelles Intel-System vorrätig habe, aber ich denke nicht, dass es diese Aufgaben schneller lösen würde. Aber ich werde das bei Gelegenheit mal prüfen.

Zwirbelkatz schrieb:
DDR3 2400 CL12 ist in Summe nicht langsamer als DDR4-3600 CL18. Es kommt auf das Produkt aus Takt und Latenz an. Da seit Jahren beides steigt, ist eben genau die Frage, ob der Ram real schneller ist.

Es war 1600 CL9. Also durchaus etwas langsamer. Aber prinzipiell ist es natürlich richtig.


Zwirbelkatz schrieb:
Womöglich dass du locker 32 oder 64GB Ram verbauen und bezahlen kannst und genug Kerne und Threads in Reserve hast. Die Idee dürfte also lauten, die Gewohnheiten zu verändern und Prozesse im Hintergrund einfach gar nicht zu schließen.

Ohje, dieses zweifelhafte Verhalten wurde uns von Smartphones eingetrichtert und stammt aus Zeiten, in denen es bedeutend schneller war, die App schon im RAM zu haben, als sie vom Flash-Speicher zu lesen. Ich halte es für absoluten Nonsens, Prozesse dauerhaft im Hintergrund laufen zu lassen, ohne dass sie benutzt werden. Prozesse, die so gehandhabt werden, verbrauchen völlig nutzlos Energie. Wenn das Programm im Hintergrund Dinge erledigen soll, lasse ich es offen, ansonsten wird es geschlossen. Das mag vielleicht ein altbackenes Konzept sein, aber m.E. ist aktuell kaum eine Software (egal, ob PC oder Smartphone) auf dem Markt, die es schafft, sich im Hintergreund still zu verhalten, sich also von selbst vollumfänglich parkt. Mein Smartphone gibt mir dahingehend recht, weil es durch einige Optimierungen jetzt je nach Nutzungsintensität 4-6 Tage durchhält (bei ca. 12 Stunden Display On), bevor es an die Steckdose muss. Aber zurück zum Thema. Nehme ich bspw. die Tabellenkalkulation: Standardmäßig ist sie so eingestellt, dass sie alle 10 Minuten zwischenspeichert. Bei besagter Tabelle führt das dazu, dass sie im Moment des Speicherns (was fast genauso lang dauert wie das Öffnen) nicht mehr reagiert. Macht sie das alle 10 Minuten im Hintergrund, stört das zwar nur minimal den Vordergrundprozess, aber das Zwischenspeichern war vollkommen sinnfrei, weil die Tabelle u.U. über Stunden nicht angerührt wurde (Stichwort Software-Optimierung). Zeigen mehrere Programme im Hintergrund dieses Verhalten, wird sich das eben leider doch auf die Performance des Vordergrundprozesses auswirken. Im Netz (ich glaube, es war auf dem youtube-Kanal von Gamers Nexus) gibt es bereits einen netten Test dieser Software-Produkte, mit der man die RGB-Beleuchtung der PC-Komponenten steuern kann. Es gibt signifikante Verschlechterungen der Leistung - wer hätte das gedacht?! ;) Wenn ich von manchen Leuten gefragt werde, warum ihr PC so langsam sei oder der Lüfter ständig hochtourt, zeige ich einfach erst auf die ca. tausend Taskleistensymbole und öffne danach den Task Manager, um ihnen zu zeigen, was da im Hintergrund permanent Ressourcen verschleudert. Auf die dann gestellte Frage meinerseits "Wie oft nutzt Du Programm xy?" kommt dann meist nur sowas wie "ich wusste gar nicht, dass das auf meinem Rechner ist". Naja, wenn dann alle Übeltäter deinstalliert bzw. bis zum manuellen Start deaktiviert sind, ist das System plötzlich wieder fit.


Zwirbelkatz schrieb:
In dem Zusammenhang kann mit schnellem Booten oder einem Energiesparmodus den Rechner halb auf Standbye betreiben und Windows10 merkt sich sogar, was zuletzt offen gelassen wurde. Vollständiges, mühevolles Herunterfahren mit HDDs war eine absolute Qual.

Das, was Du als Feature anpreist, ist für mich eine der Funktionen, die mich Stunden gekostet haben, um sie Windows 10 auszutreiben ;) Wenn ich will, dass alle Programme wieder da sind nach dem Einschalten, fahre ich den PC in den Ruhezustand. Wenn ich den PC neu starte, will ich nicht, dass Windows die zuletzt geöffneten Programme öffnet, sondern: neu startet - und neben den notwendigen, systemrelevanten Dingen nur das lädt, was im Autostart steht. Mir geht dieses "Mitdenken" von Windows 10 gehörig auf den Keks, weil es für mich mehr Arbeit bedeutet (ich muss erst alle Programme schließen, bevor ich neu starte, weil sie ansonsten nach dem Neustart wieder geöffnet werden, was aber nicht dem (bzw. meinem) Sinn eines "Neustarts" entspricht). Wenn ich den PC herunterfahre und wieder einschalte, soll er einen sauberen Neustart machen, für alles andere gibt es Stromsparmodi wie Standby oder Ruhezustand. Der Zug, auf den Microsoft mit Windows 10 aufgesprungen ist, ist für viele sicherlich ein super bequemer, für mich jedoch tatsächlich einfach nur ein nervtötender und bevormundender. Aber auch das führt an dieser Stelle zu weit ;)


Zwirbelkatz schrieb:
Der i7 2600k ist für mein Dafürhalten der beste Prozessor aller Zeiten gewesen.

Ja, großartige IT-Schmiedekunst :)


Zwirbelkatz schrieb:
Noch was:
Wirkt vllt. anmaßend, aber womöglich hast du einfach den falschen Energiesparmodus verwendet ...

Wenn der PC gefordert wird, liefert er auch, siehe hier. Und es ist jetzt auch nicht so, dass das System ansonsten schleppend reagierend würde oder so. Die CPU taktet fröhlich rauf und runter, wie man es von den Ryzens kennt. Es läuft auch alles gut und flüssig. Nur bei einigen Programmen, die ich nutze, ist der praktische Leistungsgewinn quasi nicht vorhanden, obwohl er es theoretisch sein müsste, wenn man sich die Spezifikationen der neuen Hardware ansieht.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz und shaggy86
Zurück
Oben