Raucherdackel! schrieb:
Warum sollte man nicht beide Architekturen vergleichen? Wird doch in jedem Prozessor-Review gemacht...
Klar, ist auch sinnvoll. Aber dann muss man schon mehr bringen als einfach nur den Takt allein zu betrachten. Deshalb wird in Prozessor-Reviews ja auch die Leistung betrachtet und nicht einfach nach anliegendem Takt sortiert...
Du betrachtest bei den Motoren ja auch nicht die Drehzahl und sagst dann hey, die hatten schon voll früh mehr Drehzahl, was für eine Leistung.
@Topic Parallelisierung
Mir geht das ja entschieden auf die Nerven, dass ständig alle rumheulen, die Software sei allgemein nicht gut parallelisiert.
Tatsache:
Es lohnt sich einfach nicht!
Nicht wegen des Programmieraufwandes, nicht weil die Entwickler einfach faul sind, sondern weil es sich nicht lohnt etwas zu parallelisieren, was schon schnell genug ist.
Die absolute Mehrheit der beim Endkunden verwendeten Software führt einfach so triviale Sachen aus, dass sich großartig parallelisieren auch allein von der gewonnen Leistung nicht lohnt. Ob das nun sofort fertig oder "noch soforter" fertig ist, hat einfach null Relevanz.
Und ob ihr es glauben wollt oder nicht: Da wo es sich lohnt zu parallelisieren, ist es tatsächlich in den aller meisten Fällen auch schon gemacht.
Klar nutzt sehr viel Software nur einen bis wenige Threads. Aber ich fahre doch auch nicht mit dem 9-Sitzer, wenn ich nur mit 4 Leuten unterwegs bin, nur weil es geht und wir dann weiter auseinander sitzen können.
Es wird ständig darüber gemeckert, dass Software nur so wenige Threads verwendet, ohne sich zu fragen, ob diese denn von mehr als 4 Threads nennenswert profitiert.
Ich selbst sitze in diesem Moment daran, ein sehr simples Programm für einen Xeon Phi schrittweise zu parallelisieren. Erst thread-parallel, dann mit SIMD und zuletzt über mehrere Knoten eines Super-Computers hinweg. Es bringt viel. Sehr viel. Ist aber auch aufwändig. Aber: Wenn man "kleine" Datengrößen auf einem (so ein einzelnen Phi-Kern ist nicht besonders stark) und auf mehreren Kernen betrachtet, fällt einem auf, dass selbst die schlechte Einkernvariante noch im Millisekundenbereich liegt. Die Parallelisierte Variante ist bei diesen Größen schon schneller (bei noch kleineren ist man teils langsamer). Bei der Benutzung merken würde den Unterschied aber keiner. Es sei denn man benutzt das Ganze mit größeren Daten oder mehrfach hintereinander. Wo benutzt man so große Daten mehrfach hintereinanden? Video/Bild-Verarbeitung z.B.... Alles heute schon gut parallelisiert, teils sogar mit Support für GPUs...