Allgemeine Frage zu: Prozesse die lange dauern obwohl Hardware nicht ausgelastet ist

Status
Für weitere Antworten geschlossen.

multipilz5

Cadet 1st Year
Registriert
Dez. 2014
Beiträge
10
Hi zusammen,

ich war mir nicht sicher, in welchem Thread das hier richtig ist. Hab irgendwie nichts passendes gefunden. Falls jemand einen besseren Thread weiß, kann man den Beitrag gerne verschieben.

Jetzt zu meiner Frage:
Wie kann es sein, dass Prozesse lange dauern, die keine Netzwerkanbindung benötigen, obwohl weder Prozessor, noch Datenträger auch nur annähernd ausgelastet sind.

Kontext:
Es ist mir schon öfter aufgefallen, dass vor allem bei Installationsprozessen, obiges Verhalten auftritt. Ich bin gerade beim update von Win10 auf Win11 (kann ja jeder davon halten was er/sie/divers möchte) und mir ist dabei aufgefallen, das nach dem Download, der Installationsprozess selber auch recht lange dauert. Mein Taskmanager zeigt mir aber, dass der Datenträger nur zu 1-2% und mein CPU nur so 3-5% ausgelastet ist. Wenn der Download abgeschlossen ist, sollten doch die Einzigen Bottlenecks der Prozessor, der BUS zwischen Prozessor und Datenträger und der Datenträger selber sein können. Wieso passiert es dann aber schon auch öfter mal, dass nichts davon ausgelastet ist und der Prozess trotzdem lange braucht?

Beste Grüße und danke schon mal für Antworten (bin ich mal gespannt)
Martin :)
 
Je nach Prozessor können auch 5% Auslastung komplette Auslastung bedeuten (Kerne/Threads). Zum Anderen wird bei Installationen oft auf Ereignisse gewartet, also z.B. dass DLLs registriert werden, was eben eine gewisse Zeit dauert.
 
  • Gefällt mir
Reaktionen: Alexander2
1-2% auf dem Datenträger und CPU 3-5% bei einem InPlace Upgrade. Da hast Du einen sehr schlechten Moment erwischt. Oder Du hast sehr viele Kerne und einer steht unter Vollast. Da passiert viel und für das, was da gemacht wird, geht der Vorgang sehr schnell.
 
Wie kann es sein, dass eine Frau neun Monate für ein Baby braucht, obwohl acht andere nicht Schwanger sind? Könnten die das nicht auch zusammen in einem Monat schaffen?

So ist das auch mit CPUs, nicht alles lässt sich (gut) parallelisieren und wenn einer deiner X Threads am Limit läuft, sieht man das nicht unbedingt in der Gesamtauslastung.

Bei einer CPU mit 8 Kernen / 16 Threads, zeigt die Auslastung nur 6,25 % an, wenn ein Thread am Limit läuft.
 
  • Gefällt mir
Reaktionen: multipilz5, Deathangel008, kachiri und 4 andere
@Nilson Den Vergleich muss ich mir merken!
 
  • Gefällt mir
Reaktionen: Skudrinka, Nilson und metallica2006
Es gibt sehr viele Programme/Vorgänge, die nur einen Kern belasten so wie sie Programmiert sind, dadurch scheint dann bei einem Mehrkernprozessor noch viel Rechenleistung frei zu sein, was ja auch Richtig ist .. aber das Programm/Vorgang wo das eben so ist, der kann nur einen von allen Kernen auslasten.

Manche habe n auch andere Limits, wie eben nur 2 Kerne Auslasten können oder oder...

Bei festplatten und auch SSD kommt es dann auch darauf an wie die Zugriffe sind, sequentiell oder Zufällige kleine Blöcke, die durcheinander abgefragt werden. das beeinflusst massiv in beiden Fällen die tatsächliche mögliche maximale Lese/Schreibrate. Es gibt nicht nur die eine immer geltende Geschwindigkeit, es hängt von der Art der Belastung ab.

Manchmal dreht es sich auch darum, was berechnet wird, ob spezielle Einheiten in der CPU/GPU genutzt werden. der rest liegt dann manchmal halt trotzdem brach..

Kein so einfaches Thema, da alles zu erfassen. Die Tendenzi ist aber so simpel erklärt.
 
Alexander2 schrieb:
Bei festplatten und auch SSD kommt es dann auch darauf an wie die Zugriffe sind, sequentiell oder Zufällige kleine Blöcke, die durcheinander abgefragt werden. das beeinflusst massiv in beiden Fällen die tatsächliche mögliche maximale Lese/Schreibrate. Es gibt nicht nur die eine immer geltende Geschwindigkeit, es hängt von der Art der Belastung ab.
Es ist der Geschwindigkeit auch nicht zuträglich, dass bei Windows das Filesystem so lahm ist. Da gibt es sehr viel Verwaltungs-Overhead, was insbesondere bei Operationen mit vielen kleinen Dateien im Vergleich mit Linux immer wieder krass auffällt.
 
Dann hab ich aber neun Babies, die trotzdem neun Monate brauchen. Hilft mir also nicht, wenn ich schnell ein Baby will :baby_alt::baby_alt:
 
  • Gefällt mir
Reaktionen: aronlad
Nilson schrieb:
Dann hab ich aber neun Babies, die trotzdem neun Monate brauchen. Hilft mir also nicht, wenn ich schnell ein Baby will :baby_alt::baby_alt:
Aber an die Dreifach-Backup-Regel denken!
 
Hundebabys? Aber ich glaube auch die kann man nicht "Mieten" aber die muss man nicht selbst austragen.
 
Danke erst mal für die Zahlreichen Antworten.

Mir ist klar, dass sich nicht alles parallelisieren lässt und vor allem nicht auf 24 logische Kerne ^^. Ich lasse mir im Taskmanager die logischen Kerne anzeigen und da sehe ich natürlich, dass nicht alle verwendet werden. Es sind vielleicht 4-5.

Ich wollte nur noch hinzufügen, dass ich einerseits ja auch einen Verlauf im Taskmanager sehe und da waren die Kerne nie komplett ausgelastet, maximal kurze Lastspitzen.

Das mit dem Filesystem macht natürlich Sinn, da habe ich gar nicht dran gedacht. Woran ich auch nicht gedacht habe, waren die DLLs die registriert werden müssen.

Noch eine Randnotiz: Ich wollte nicht sagen, dass es mir zu langsam vorkommt und dass da sehr viel passiert ist mir natürlich auch bewusst.

Cool, danke für die vielen Infos.
(Muss man hier Threads schließen?)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben