Bigeagle
Lt. Commander
- Registriert
- Nov. 2008
- Beiträge
- 1.530
Kurz: Linpack als Leistungstest, da Anspruchsvoll, Vergleichbar und sehr Aktuell wenn es darum geht neue Hardwarefeatures zu nutzen.
Länger: Würde auch als Test zur Leistungsaufnahme taugen, zumindest für den Linuxtest habt ihr ... Blender drin. Ein 'Prime95' gibt es in Form von mprime auch für Linux, das wäre natürlich noch besser da gleichmäßig hohe Last, während Linpack eher eine Podestartike Leistungskurve durch die Initialisierung und die Prüfung nach den Berechnungen erzeugt. Blender ist sicher nett als Alltagsbeispiel, taugt aber offenkundig nicht als Test für Maximallast.
Zu den Vorteilen:
Anspruchsvoll - Es lastet die CPU wirklich aus. Cinebench tut das offensichtlich nicht und auch in den Anwendungsbenchmarks vermisse ich etwas das eine 'trockene' Aussage über die Rohleistung trifft. Ohne eine Diskussion über die Praxisrelevanz vom Zaun brechen zu wollen, ein einfaches Multiplizieren in einer Schleife genügt eben nicht um CPUs mit SIMD Erweiterungen auf ihre Leistungsfähigkeit zu testen.
Vergleichbar - Dadurch dass Supercomputer seit inzwischen einigen Jahren mithilfe von Linpack verglichen werden existieren glaubwürdige Zahlen vieler Systeme und Prozessoren. Ebenso stellt das in gewisser Weise eine gute Pflege des Codes sicher da stets Optimierungen für neue Features einfließen. Es gibt sogar Linpack Zahlen für nicht mehr ganz frische CPUs wie einen 386er DX
Aktualität - Eben schon Ausgeführt, die Hardwarehersteller habe ein Eigeninteresse Linpack (bzw inzwischen genaugenommen Lapack) aktuell zu halten.
Motivation:
Der Grund warum ich dies Vorschlage ist relativ simpel. Frust. Ich wollte gerade eine Notebook CPU mit meiner eigenen vergleichen und fand keine Zahlen zu beiden. Also ließ ich einfach Tests laufen die ich dazu fand und musste feststellen dass keiner der Benchmarks (Cinebench, Passmark, Geekbench) Vergleichstauglich sind da sich meine CPU bei denen eher einen abfriert, statt Warmzulaufen. Eine kalte CPU tut nichts, wenn dabei ein Benchmark läuft funktioniert er nicht. Als Referenz habe ich die Temperaturen wenn durch BOINC wissenschaftliche Berechnungen (WCG) laufen die gegenüber eines Benchmarks zumindest den Nachteil haben dass sie sinnvolle Ergebnisse liefern müssen und nicht nur auf Auslastung optimiert werden können. Ein Benchmark sollte also mindestens in den gleichen Bereichen arbeiten. Praktisch liegen da 5-10 °C dazwischen. Muss ich mehr dazu sagen?
Außerdem habe ich bei Computerbase Hoffnungen da zumindest mir die meisten Tests gut gefallen. Da hier auch schon mit Windows und Linux getestet wird wäre Linpack dazu vergleichsweise leicht unterzubringen, da man sich sogar das OS aussuchen kann. Da hier auch nur Shared Memory Systeme getestet werden muss man sich auch nicht mit den Parameteroptimierungen des MPI Linpack herumschlagen.
Ich denke ein Linpack Test wäre eine Bereicherung für alle technikaffineren User, während die weniger technikaffinen einfach vergleichbare Zahlen bekommen die eine Einordnung vereinfachen.
Das einzige Gegenargument (Zeit, Aufwand etc mal außen vor) das mir sofort einfällt wäre dass Linpack als hochoptimierter Code kaum von Hyperthreading profitiert, was in der Natur von HT liegt, was aus Marketingsicht natürlich eher schlecht ist um i7 zu bewerben. Doch wenn Computerbase für die Leute die sich die realen Anwendungen nicht ansehen noch anmerkt dass dies eben nur bei hochgradig Optimierten Anwendungen und passenden Problemstellungen so ist dürfte das nicht mal von der Intel Marketingabteilung böse Blicke geben, wenn die das überhaupt stört. Denn als Gegengewicht verpasst Linpack keine IPC Steigerung, wo in den letzten Jahren ja die primären Fortschritte lagen (neben Energieeffizienz).
PS: Richtig toll wäre übrigens eine laufend aktualisierte Liste der GFlops aller getesteten CPUs mit kleiner Angabe der Arbeitsspeichergeschwindigkeit. Sowas habe ich bisher nicht für mehr als eine Handvoll CPUs gefunden. Grafisch hübsch (ja, ich zähle auch das neue CB Design dazu auch wenn es mir zu Smartphoneoptimiert ist, aber die Charts sind super) wäre das ein Alleinstellungsmerkmal wenn ich nicht etwas übersehen habe.
Länger: Würde auch als Test zur Leistungsaufnahme taugen, zumindest für den Linuxtest habt ihr ... Blender drin. Ein 'Prime95' gibt es in Form von mprime auch für Linux, das wäre natürlich noch besser da gleichmäßig hohe Last, während Linpack eher eine Podestartike Leistungskurve durch die Initialisierung und die Prüfung nach den Berechnungen erzeugt. Blender ist sicher nett als Alltagsbeispiel, taugt aber offenkundig nicht als Test für Maximallast.
Zu den Vorteilen:
Anspruchsvoll - Es lastet die CPU wirklich aus. Cinebench tut das offensichtlich nicht und auch in den Anwendungsbenchmarks vermisse ich etwas das eine 'trockene' Aussage über die Rohleistung trifft. Ohne eine Diskussion über die Praxisrelevanz vom Zaun brechen zu wollen, ein einfaches Multiplizieren in einer Schleife genügt eben nicht um CPUs mit SIMD Erweiterungen auf ihre Leistungsfähigkeit zu testen.
Vergleichbar - Dadurch dass Supercomputer seit inzwischen einigen Jahren mithilfe von Linpack verglichen werden existieren glaubwürdige Zahlen vieler Systeme und Prozessoren. Ebenso stellt das in gewisser Weise eine gute Pflege des Codes sicher da stets Optimierungen für neue Features einfließen. Es gibt sogar Linpack Zahlen für nicht mehr ganz frische CPUs wie einen 386er DX
Aktualität - Eben schon Ausgeführt, die Hardwarehersteller habe ein Eigeninteresse Linpack (bzw inzwischen genaugenommen Lapack) aktuell zu halten.
Motivation:
Der Grund warum ich dies Vorschlage ist relativ simpel. Frust. Ich wollte gerade eine Notebook CPU mit meiner eigenen vergleichen und fand keine Zahlen zu beiden. Also ließ ich einfach Tests laufen die ich dazu fand und musste feststellen dass keiner der Benchmarks (Cinebench, Passmark, Geekbench) Vergleichstauglich sind da sich meine CPU bei denen eher einen abfriert, statt Warmzulaufen. Eine kalte CPU tut nichts, wenn dabei ein Benchmark läuft funktioniert er nicht. Als Referenz habe ich die Temperaturen wenn durch BOINC wissenschaftliche Berechnungen (WCG) laufen die gegenüber eines Benchmarks zumindest den Nachteil haben dass sie sinnvolle Ergebnisse liefern müssen und nicht nur auf Auslastung optimiert werden können. Ein Benchmark sollte also mindestens in den gleichen Bereichen arbeiten. Praktisch liegen da 5-10 °C dazwischen. Muss ich mehr dazu sagen?
Außerdem habe ich bei Computerbase Hoffnungen da zumindest mir die meisten Tests gut gefallen. Da hier auch schon mit Windows und Linux getestet wird wäre Linpack dazu vergleichsweise leicht unterzubringen, da man sich sogar das OS aussuchen kann. Da hier auch nur Shared Memory Systeme getestet werden muss man sich auch nicht mit den Parameteroptimierungen des MPI Linpack herumschlagen.
Ich denke ein Linpack Test wäre eine Bereicherung für alle technikaffineren User, während die weniger technikaffinen einfach vergleichbare Zahlen bekommen die eine Einordnung vereinfachen.
Das einzige Gegenargument (Zeit, Aufwand etc mal außen vor) das mir sofort einfällt wäre dass Linpack als hochoptimierter Code kaum von Hyperthreading profitiert, was in der Natur von HT liegt, was aus Marketingsicht natürlich eher schlecht ist um i7 zu bewerben. Doch wenn Computerbase für die Leute die sich die realen Anwendungen nicht ansehen noch anmerkt dass dies eben nur bei hochgradig Optimierten Anwendungen und passenden Problemstellungen so ist dürfte das nicht mal von der Intel Marketingabteilung böse Blicke geben, wenn die das überhaupt stört. Denn als Gegengewicht verpasst Linpack keine IPC Steigerung, wo in den letzten Jahren ja die primären Fortschritte lagen (neben Energieeffizienz).
PS: Richtig toll wäre übrigens eine laufend aktualisierte Liste der GFlops aller getesteten CPUs mit kleiner Angabe der Arbeitsspeichergeschwindigkeit. Sowas habe ich bisher nicht für mehr als eine Handvoll CPUs gefunden. Grafisch hübsch (ja, ich zähle auch das neue CB Design dazu auch wenn es mir zu Smartphoneoptimiert ist, aber die Charts sind super) wäre das ein Alleinstellungsmerkmal wenn ich nicht etwas übersehen habe.
Zuletzt bearbeitet:
(Ergänzung)