Kommentar: Ein genauer Blick auf AMD vs. Intel
Als Intel am 14. November 2002...
... die Hyper-Threading-Technologie mit dem Pentium 4 3,06 GHz einführte, war uns klar, dass ein Feature, welches die parallele Bearbeitung mehrere Aufgaben begünstigt, nicht konventionell getestet werden kann.
Neben einem herkömmlichen Leistungsvergleich veröffentlichten wir am selben Tag einen Artikel, der mit einer Fülle von Benchmarks versuchte, die Vorteile der HT-Technologie bei paralleler Bearbeitung zweier Programme zu ermitteln: „Intel Pentium 4 im Hyperthreading Spezial“, hieß der Artikel, in dem Archive gepackt oder Spiele gespielt wurden, während im Hintergrund Seti@Home, der Mediaplayer, Flask oder der McAfee-Virenscanner lief. Nicht gerade praxisnah aber es erfüllte den Zweck sehr effektiv.
Über den gesamten Benchmarkparcours zog sich ein einheitliches Bild: Zwar brach der Prozessor mit und ohne Hyper-Threading unter paralleler Belastung gegenüber der Bearbeitung ohne zusätzliche Hürde ein. Mit Hyper-Threading fiel dieser Leistungsverlust jedoch spürbar geringer aus. Das Problem: Das Aufsetzen einer solchen Testumgebung, die oftmals vom Zufall behaftet ist, der Zufall in aussagekräftigen Benchmarks jedoch nichts zu suchen hat, erfordert einen erheblichen Mehraufwand gegenüber der klinisch aufgesetzten Testumgebung, in der Programm nach Programm herunter gespult wird. Die direkte Vergleichbarkeit ist hier ohne Zweifel gegeben. Doch was wird verglichen?
In den letzten zwei Jahren beschränkten wir uns somit nach unserem ersten Ausflug in die Welt der parallelen Benchmarkumgebung wieder auf die seriellen Tests, nicht zuletzt die immer kurzfristigere Bereitstellung der Testprodukte seitens der Hersteller verhinderten effektiv eine Rückkehr zu umfangreicheren Testmethoden. Auch wenn wir uns im wahrsten Sinne des Wortes tatsächlich immer wieder komisch vorkamen, wenn vor Benchmarks das System neugestartet wurde, lästige System-Tools deaktiviert wurden und man auf seinem privaten Rechner ein paar Minuten später aus der mit Programmen überladenen Windowsumgebung mit ICQ, MSN, Outlook, mIRC, Virenscanner und Firewall ein Spiel startete, vergaßen oder verwarfen wir unsere damals gewonnenen Erkenntnisse letztendlich wieder - die Zeit ließ keine andere Testmethode zu.
Und so zogen wir Test für Test das Fazit, dass AMDs CPUs in Spielen derzeit ungeschlagen an der Spitze stehen und selbst in Multimedia-Anwendungen, einer ewigen Pentium-Paradedisziplin, teilweise vor dem blauen Riesen landeten und gingen mit praktisch jeder Web- und Printpublikation weltweit konform.
Die Kollegen der HardTecs4U, denen dieses Vorgehen ebenfalls zuwider war, waren es nun, die die finale Idee hatten, sich die Mühe gemacht, die Zeit genommen und ausgewählte AMD- und Intel-Prozessoren durch einen Benchmarkparcours gejagt haben, der versucht, die realen Einsatzbedingungen, die bei einem Großteil der Leser und Kunden vorzufinden sein sollten, nachzuempfinden. Neben dem eigentlichen Benchmarks liefen somit mIRC, Norton Antivirus 2003, ICQ Lite, ZoneAlarm, Firefox und Outlook Express auf dem Testsystem. Darüber hinaus hat man die sonst übliche 1024er-Auflösung durch das nächstgrößere Pendant mit 1280 ersetzt und auch auch AF und FSAA zurück gegriffen, wie es mit aktuellen High-End-Karten heutzutage kein Problem mehr ist. Dass viele Spieler immer noch den Bildwiederholraten im dreistelligen Bereich nacheifern, könnte man dieser Entscheidung entgegen halten.
Auf den ersten Blick sehen die gewonnenen Ergebnisse beachtlich aus und man ist dazu geneigt, das Fazit der HardTecs4U, dass derzeit wohl doch eine Intel-CPU der bessere Desktop-Porzessor sei, zu unterschreiben. Insbesondere Hyper-Threading verhelfe dem Pentium 4 in der Arbeitsumgebung zu einem Sieg gegenüber dem AMD-Gegenstück. Letztendlich obliegt diese Beurteilung dann jedoch - wie so oft - dem Blickwinkel, aus dem man die Resultate betrachtet.
So kann sich Intel im Parcours der HardTecs4U in einigen Spielen einen knappen Sieg vor AMD retten und somit die Ergebnisse aus unseren klinischen Tests mit 1024x768 komplett auf den Kopf stellen. Letztendlich liegen jedoch alle getesteten CPUs innerhalb weniger Frames-per-Second. Ausschlaggebend für den Patt scheint abseits der Hintergrundanwendungen viel eher die hohe Grafikpracht zu sein, die die Grafikkarte mit Mühe und Not auf den Bildschirm zaubern muss und klar zum Flaschenhals wird. Praxisnah? Hier ja, dort nein. Wie die Intel-CPUs dank Hyperthreading in niedrigeren Auflösungen abgeschnitten hätten, wurde leider nicht betrachtet.
In den folgenden Anwendungstests kann Intel die Konkurrenz anschließend fast überall zum Teil deutlich dominieren und der 570J schlägt den 4000+ ebenso klar wie der 530 den 3000+. Wirft man jedoch einen Blick in unser letztes Leistungsrating, war dies - wenn auch nicht ganz so deutlich - in einer klinischen Umgebung ebenfalls der Fall. Ein Vorteil dank Hyper-Threading ist nicht von der Hand zu weisen, auf den Kopf gestellt wurden alte Auswertungen jedoch ebenso wenig und dass der P4 gefühlt runder lief, lässt sich - oh Graus - so gar nicht in einem Graphen festhalten.
Am Ende bleibt nur die vertrakte Frage, wie man die praxisrelevante Leistung eines Prozessors nun definiert und einen Benchmarkparcours erstellt, der dieser Definition gerecht wird. „Soll man die Prozessoren in Spielen durch hohe Auflösungen ausbremsen, weil der Durchschnittsnutzer diese Einstellungen fährt und die Leistung daraufhin als gleichwertig bezeichnen?“, dürfte eine speziellere Frage sein. Sollte man am Ende Leistung und Nutzen dieser Leistung trennen? Wahre Massen an Vergleichswerten verschiedenster Auflösungen und im Endeffekt auch Grafikkarten, Speicherkonstellationen und Mainboards (insbesondere bei Prozessoren, die keinen integrierten Speichercontroller besitzen, variiert die Geschwindigkeit von Chipsatz zu Chipsatz) müssten für einen solchen Zweck herangezogen werden. Man merkt, der perfekte, praxisnahe Test scheint unmöglich, denn die Praxis ist viel zu vielfältig und man wird immer nur einen Teilaspekt in einem noch so ausführlichen Review abdecken können, welches zu einem Fazit führt, das nur so gut ist, wie es der Weg dorthin zulässt. Doch aufgeweckt durch den Artikel der Kollegen und in Erinnerung an unsere eigenen Versuche mit einem komplexeren Benchmarkparcours werden auch wir uns nichtsdestotrotz noch einmal Gedanken zu diesem Thema machen, das insbesondere zur Vorstellung der ersten Dual-Core-CPUs an Brisanz gewinnen wird.
Eine Tatsache scheint abseits der vielen Spekulationen heute jedoch bereits sicher zu sein: Sollte sich das Zeitfenster zwischen Bereitstellung der Testsample und Fall der Sperrfrist nicht zu Gunsten der Redaktionen ändern und die Flut der monatlichen Neuankündigungen nicht abebben, dürften viele der Überlegungen und Lösungsansätze in der Praxis nur schwer Anwendung finden. Ob dies im Interesse der Hersteller ist, darf - gerade mit Blick auf die werbewirksamen und prestigeträchtigen Dual-Core-CPUs - bezweifelt werden. In anderen Bereichen scheint es seit je her gern gesehen. Lösungen werden sich mit Sicherheit nur in Kooperation finden lassen. Einen ersten Ansatz bzw. eine Erweiterung des traditionellen Ansatzes haben die HardTecs4U gemacht, betonen aber ebenfalls, dass ein solcher Aufwand auf Dauer nicht zu realisieren ist. Letztendlich führen wohl alle Wege ob ihrer ihn eigenen Definition zum Ziel und keiner wird den perfekten praxisnahen Test verkörpern. Fragt sich nur, ob man den besten Weg herausfischen kann oder sich ein komplexes Bild am Ende nur durch Beschreiten aller Wege zeichnen lässt.
Abschließend sei gesagt, dass wir unsere in den letzten Monaten getroffenen Schlussfolgerungen aus den genannten Gründen an dieser Stelle nicht revidieren und über den Haufen werfen wollen. Wir sind uns allerdings bewusst, dass ein jedes Fazit eben nur in seiner Nische uneingeschränkte Gültigkeit besaß.
Hinweis: Der Inhalt dieses Kommentars gibt die persönliche Meinung des Autors wieder. Diese Meinung wird nicht notwendigerweise von der gesamten Redaktion geteilt.