y33H@ schrieb:
Der Cinebench auch. Unter x64 schneller, mit nur 128 MB RAM sacklahm und mit schnellerem RAM mehr Punkte. Auch hier spielen andere Faktoren hinein.
Du solltest schon zu Ende lesen und nicht einfach wiederholen, was bereits gesagt wurde.
Und wie ich bereits sagte, sind die Auswirkungen hier wesentlich geringer, da es lediglich EINE Leistungskomponente gibt, die CPU. Bei Spielen gibt es immer mindestens ZWEI, CPU und GPU. Zusätzliche Komponenten wie RAM können die Ergebnisse darüber hinaus beeinflussen. Das gilt für Anwendungen genauso wie für Spiele.
Krautmaster schrieb:
@ Leistung / Takt Diskussion
Was haltet ihr davon, wenn bei zukünftigen CPU Tests folgendes unternommen wird:
- Man deaktiviert im Bios alle Kerne bis auf einen
- Man nimmt 2,5 Ghz als BenchTakt, der Multi wird also darauf hin angepasst
- Falls der Takt nicht genau erreicht wird, so nimmt man den nächst kleineren Multi und passt den Referenztakt auf die 2,5 Ghz an.
- Turbo aus.
- selber Ram Speed + Timings
So einfach ist das nicht. Es gibt mehrere Metriken für Performance pro Takt (IPC). Im Endeffekt sind zwei am interessantesten, ILP IPC und TLP IPC. ILP (Instruction Level Parallelism) IPC beschreibt, wie viele Instruktionen eines Code-Streams, also eines Threads, innerhalb einer bestimmten Zeit abgearbeitet werden können. Um dies zu messen, müsste man eine Anwendung mit lediglich einem Thread, welcher Last erzeugt, einem einzigen logischen Prozessor zuweisen. Also kein Multi-Core, kein SMT oder ähnliches hardwareseitiges Multithreading. TLP (Thread Level Parallelism) IPC beschreibt, wie viele Instruktionen die gesamte CPU innerhalb einer bestimmten Zeit abarbeiten kann. Hierfür braucht es eine Anwendung, die Last-Threads für jeden einzelnen logischen Prozessor der CPU erzeugen kann. Alles weitere, wie identischer RAM, gleiche Taktfrequenz, kein Turbo, keine Übertaktung des Uncore-Bereiches, etc.pp sollte obligatorisch sein. Und wie Schaffe89 schon sagt, das ist alles ein interessanter Ansatz bezüglich des technischen Aspekts. Wie sich die CPU letztendlich in der Praxis schlägt aufgrund des Taktes, ist nochmal eine andere Geschichte. Die Formel der Hardware-Designer lautet schliesslich nicht
IPC * Takt, sondern
IPC * Takt * Watt.
Krautmaster schrieb:
Nun realitätsnahe Benchmarks:
- Windows Bootzeit (selbe HDD, selbes OS, frische Install -> 5 mal und berechnet den Schnitt (erstes Windows Bootlogo erscheinen bis fertigen Öffnen einer Word Datei im Autostart)
- Windows Installationszeit
- Winrar
- Applikationsladezeiten (wie bei SSD Test)
- Cinebench und paar theroetisches Gedöhns
- Spiele (bei einer CPU sollte nun oft die CPU auch limitieren)
Ehrlich gesagt halte ich nicht viel davon. Das sind zwar weitestgehend praxisnahe Szenarien. Nur spielt die CPU hier eine untergeordnete Rolle, da viel an der Peripherie hängt. Zudem hat Cinebench einen recht zweifelhaften Ruf (hat sich glücklicherweise mit Version 11.5 etwas gebessert). Spiele, wie schon gesagt, sollte man separat benchen. Der Rest sollten reine Applikationen sein, die sich nach Anforderungsprofil zusammenstellen, zB:
- wissenschaftliche Berechnungen (wPrime)
- Rendering / 3D-Modelling (POV-Ray)
- Verschlüsselung (TrueCrypt)
- Komprimierung (7-Zip)
- Bildverarbeitung (Paint.NET)
- Codec (x264)
- Virtualisierung (specjvm)
...
(Die Anwendungen in Klammern sind lediglich Beispiele und können pro Profil natürlich erweitert bzw durch bessere ersetzt werden.)
Krautmaster schrieb:
ähm... was juckt mich als Endbenutzer auf was der ein oder andere seine Architektur optimiert hat bzw welche "Schalter" AMD im Weg liegen. 98% benutzen Windows, AMD wäre schön doof auf Linux zu optimieren oder? Das können sie bei ihren Opteron wegen mir gerne machen.
>50% der Server nutzen sicherlich kein Windows. Und AMD entwickelt CPUs nicht explizit für Windows. Ihr Grunddesign ist seit dem K8 (Hammer) auf Server ausgerichtet. Das war auch bei Barcelona, Shanghai und Istanbul so. Also bitte nicht alles über einen Kamm scheren. Und nochmal, wenn man sich über Hardware unterhält, dann sollte man auch wissen und verstehen, was Softwareoptimierungen ausmachen. Niemand hat verlangt, dass es dich als Endbenutzer jucken soll. Nur sollte man sich dann auch nicht zu so oberflächlichen und allgemeinen Aussagen hinreissen lassen wie CPU A bla bla CPU B bla bla 20-30% bla bla und ruhig mal die Füsse stillhalten bzw das ganze differenzieren und in den richtigen Kontext setzen. Es sind immer mehrere Faktoren, die zusammenkommen. Und solche Pauschalisierungen anhand eines speziellen Szenarios helfen da nicht weiter.