Tanzmusikus schrieb:
Ich würde sagen, Du hast damit völlig Recht, dass Core0 (inkl. Core1 bei HT-fähigen CPUs) eine Sonderstellung einnehmen. Die Frage ist, was alltagstauglicher ist bzw. wofür sich der Programmierer der PES entscheidet.
Nicht jeder PC-/NB-Nutzer stellt bei allen möglichen hohe MC-Last verursachenden Programmen den Core0 (+evtl. Core1) ab. Bei z.B. DualCore-Prozessoren macht es wahrscheinlich weniger Sinn 50% der Kerne vom Prozess abzuziehen. Bei mind. 3 Kernen widerum macht es wahrscheinlich schon mehr Sinn.
Danke für das Teilen Deiner Erfahrungen!
PES ist ein Skript, es ist von Cinebench abhängig ;-)
Das ist natürlich soweit richtig, mit einem DualCore bringt dir das garnichts, mit einem QuadCore allerdings schon, solange eben die Transistoren ausreichen für die Aufgaben.
Immer gerne,
hier auch mal was Windows so macht, 10 Sekunden mit einem Video vom Firefox, pausiert, minimiert
Einfach mal Screenshot, nach 10 Sekunden :-)
Da kann man mal sehen was mit dem Scheduling passiert, Windows-Kernel und Treiber, im Prinzip ist das das was man dann nun "IDLE" schimpfen würde, da die Kiste nunmal quasi keine Aufgabe hat.
Nun stelle man sich als weiteres Beispiel mal vor, man beansprucht die DoxBox mal gewaltig, man halt sicherlich lieber auf irgendeinem und einen weiteren Core, sehr konstante Last bei umd die 80 bis 90%, bei einem weiteren so 15 bis 30 nebst bis zu 20% Last auf dem 1. Kern, anstelle von quasi alles auf dem ersten Kern und der ist dann ersichtlich im Overlay vom MSI Afterburner dann quasi festgenagelt auf 100% :-)
Das wir in der Situation mit quasi nur 100% last auf dem ersten Kern, dann auch deutlich weniger von unseren Schaltfunktionen nutzen können als wir nutzen könnten, ist wohl offensichtlich.
Prozentual ist nunmal prozentual und 100% ist nunmal Volllast, also immer soviele Schaltfunktionen von einem Kern wie es eben nun gerade möglich ist.
Deswegen auch mal "LatencyMon" dazu zu Rate gezogen, was das für die Reaktionszeit des Gesamtsystems bedeutet, wenn ich eine Limitierung hinnehme anstatt einzugreifen, dürfte einleuchten und man kann das ja eben nunmal auch sogar reproduzierbarbar Benchmarken.
@TheCrazyIvan
Nimm es mir bitte nicht persönlich und oder böse oder so, das PES ist schon ne feine Sache, es liesse sich aber eben nunmal unter gewissen Vorraussetzungen immens Verbessern.
Was den "Skript" angeht ist es nunmal an dieser Stelle auch Cinebench was quasi von Haus aus ja falsch läuft.
Der MT-Test okay, aber der ST ist völlig banane
Man hat es ja aber auch schon zu genüge erlebt auch hier im Forum das man mit "Timerbench" zwecks HPET, von wegen RAM-OC einfach nicht wahrhaben will , weil man wiedermal die verkehrten Messergebnisse vergleicht
Es sollte an dieser Stelle dann nämlich klar sein, das minimum sowie maximum völlig egal sind wenn man sich in 99th percentile Verbessert, also das was man zu 99% schafft die ganze Zeit, zumal dann wenn in aktuellen Games, aktuelle oder halbwegs aktuelle Hardware quasi wortwötlich aus dem allerzten Transistor noch Saft lutscht der irgendwie noch zur Verfügung steht.
Die Devise ist nunmal soviel FPS produzieren wie man braucht und nicht hauptsache soviel wie nur irgendwie geht aufs max zu achten und selbst das ändert sich positiv durch die Benches bemerkbar, in Benches die auch irgendwie alltagsrelevant sind.
Also selbst wenn ich in CS:GO beispielsweise ohnehin FPS rausgehauen bekomme die weit über dem liegen was der Bilschirm auch wirklich schafft wiederzugeben, wenn ich mich dort dennoch verbessere, es dann im Alltag aber passend laufen habe, VSync und oder FPS Limit eben, kann ich mir aber sicher sein, das es wenn ich es nunmal richtig mache, selbst wenn die Reaktionszeit nicht mehr weiter verbessert werden kann dadurch, die Kiste aber auf jeden Fall effizienter läuft dabei.
Und wenn ein paar Dienste und ein paar Netzwerkprotokolle, die eh ungenutzt sind zudem sogar noch Sicherheitslücken aufweisen, 15FPS in einem Average-Ergebnis das Ding verbessern, dann nehme ich das halt mit, ganz einfach :-)
Man merke, das was immer irgendwie aktiv ist, obwohl ungenutzt, wenn das deaktivieren die Performance verbessert, wird es logischischweise auch Transistorfunktionen nutzen, die dann eben nicht mehr genutzt werden, so wird also selbst der IDLE effizienter.
Was einfach daran liegt, das man das was man IDLE nennt, so garnicht existiert und auch nie existieren wird, nur weil der Task-Manager da mal quasi keine Last anzeigt, oder auch ein Overlay kaum Last anzeigt, heisst es ja nicht das da nicht so irgendwo eine Last anliegt, so gering diese auch sein mag.
Das was mindestens läuft, ist das Bios und Windows sowie Treiber, wie man sehen kann, es ist ja keine Zauberrrei, sondern nunmal Mathematik, mit Schaltfunktionen (Transistoren/-Funktion/-en)
Gruss HL