jbauer schrieb:
Das ist falsch. Jeder Tab läuft in einem eigenen Prozess, Prozess != Thread.
.
Dann erkläre mal! Welchen Unterschied gibt es am Ende für den Nutzer? Ob Prozess mit mehreren Threads oder mehrere Prozesse. Jedes davon kann auf jeweils unterschiedlichen Kernen laufen und somit beliebig skalieren. Vorausgesetzt die Anwendung ist nich nur auf x Threads/Prozesse beschränkt.
jbauer schrieb:
Auch das ist falsch. Ob ein, zehn oder hundert Kerne, der Prozess in einem Tab wird dadurch nicht beschleunigt.
Natürlich kannst du mehrere Tabs aufmachen, die alle in ihrem eigenen Prozess laufen, aber Chrome selbst parallelisiert da nichts..
Wo habe ich was anderes geschrieben?
jbauer schrieb:
Wieder falsch. Nicht aktuell sondern spezielle Software muss es heißen. Ich streite nicht ab, dass es Software gibt, die von mehreren Kernen profitiert, aber die findest du hauptsächlich in speziellen Bereichen, wie Simulationen, wissenschaftliche Anwendungen, Videoschnitt u.a. Das ist aber wohl kaum, was Otto Normaluser tut.
Ich wiederhole meine Frage gerne nun zum fünften mal. Dann nenne mir eine x-beliebige halbwegs aktuelle Software die irgendwas berechnet oder CPU lästig ist die KEINE zusätzlichen Kerne nutzt. Deine Behauptung ist schlichweg Quatch und hat bestenfalls vor 10 Jahren noch bestand gehabt.
Oder mal anders gefragt... Was tut denn Otto Normaluser so?
Surfen - Beliebig viele Kerne werden unterstützt wenn er mehrere Tabs gleichzeitig nutzt.
Virenschutz - Profitiert von zusätzlichen Kernen.
Bildchen bearbeiten - Selbst paint.net ist ausdrücklich für mehrere Kerne optimiert.
Videos/Bilder schauen - so ziemlich jede Software die IRGENDWAS mit Multimedia zu tun hat unterstützt mehrere Kerne oder die GPU.
Office - Wie verlinkt werden AUSDRÜCKLICH mehrere Kerne unterstützt.
Komprimieren - keine Frage
Spiele - Ehrlich? soll ich noch weiter aufzählen?
Du behauptest es wären Ausnahmen. Dabei fällt mir so ziemlich gar nichts mehr ein, was eben NICHT von mehreren Kernen profitieren würde außer Tools wie Notepad und Co. die sowieso keine Ressourcen benötigen.
jbauer schrieb:
Es gibt keine "4 Kerne Barriere".
Oh doch!
Ich weiss nicht woraus du deine Weisheiten ziehst, aus Mangel von Quellenangaben vermutlich aus dem Finger. Sämtliche Spieleengines älter als 1-2 Jahre haben bisher maximal 4 Kerne genutzt. Die Grenzen hatten auch weniger mit den Möglichkeiten zu tun, man optimiert nur nicht etwas für Hardware die schlichtweg nicht existiert oder nicht im Einsatz ist. Erst mit den neuen Konsolen MUSSTE man plötzlich 8 Kerne unterstützen.
Vor dem Jahr 2010 waren noch schnelle Dualcore CPUs schick.
http://www.bit-tech.net/hardware/cpus/2010/07/05/how-many-cpu-cores-do-games-need/1
In den vergangenen Jahren haben die Spiele häufiger mal auch mehr Kerne genutzt jedoch nur äußerst selten mehr als 4 Kerne. Unter anderen deswegen hat AMD auch keinen Erfolg mit den Bulldozer Architektur gehabt.
http://www.tomshardware.com/reviews/game-performance-bottleneck,2737.html
http://www.tomshardware.com/reviews/game-performance-bottleneck,2738.html
Anders ausgedrückt, ältere Engines haben oft schlichtweg eine möglichst hohe Singlethread Leistung verlangt und haben nur Nebenaufgaben wie Sound oder Kommunikation auf zusätzliche Threads ausgelagert. Hier war man mit einem schnellen Intel Quadcore immer am besten bedient.
Heutzutage sieht die Welt anders aus und aktuelle Engines sind eben nicht mehr eingeschränkt.
https://www.computerbase.de/forum/threads/wie-viele-kerne-cores-unterstuetzen-eure-games.1380999/
DirectX12 bringt hier auch noch zusätzliche Möglichkeiten. Interessant wird es aber vor allem erst dann wenn 8 oder mehr Kerne der Standard sind und man sie wie im Fall von F1-2015 zusätzlich zur Grafikkarte zur Berechnung nutzen kann. Der Flaschenhals ist hier nur Intel, dass sich den Joker für später aufspart.