Floletni schrieb:
Ich komme bei den ganzen Rechnungen nicht ganz hinter her.
Laut AMD ist ein Bulldozermodul 20% langsamer als eine fiktive Variante eines Dualcorebulldozer. (100%+80% durch CMP vs. 2*100% echte Kerne) 200-180=20
Mit anderen Worten: x=y-20%
Was die Leistung angeht:
4*200%=800%
4*180%=720%
Es sind insgesamt 80% weniger Leistung als ein fiktiver Dualcore dieser Architektur.
Sie verbauen aber nur 12% mehr Transistoren als ein Kern brauchen würde: 200%-112%=88%
Es wird 88% weniger Fläche die belegt, bei 20% weniger Leistung. Oder 88%*4=352% weniger Fläche bei 80% weniger Leistung.
Geht mir ähnlich, wobei das Aussagen des Herstellers sind und die werden alles andere als akkurat sein, um der Konkurrenz nicht zuviele Informationen frei Haus liefern zu wollen.
Bei AMD ist der architektonische Schwerpunkt ganz klar auf der INTEGER-Seite, was die CPU-Architektur gut in den Konsummarkt passen läßt - oder eher kaufmännische Anwendungen, deren Anforderungen an doppelt genaue Fließkommaarithmetik eher tertiär ist. Das ist bedauerlich. Ich lese die Designangaben so, daß sich je zwei im eigentlichen Sinne vollwertigen Integerkerne (ALUs) eine Arbiterlogik teilen müssen - also Prefetch, fetch und Pipeline und das, was mir in puncto terminus technicus nicht ganz geläufig ist. Aus diesem Grunde verfügen die Kerne auch nicht über die volle Bandbreite. Noch kritischer scheint mir die Teilung der FPU zu sein, die allerdings einen Bypass besitzen soll, der sie autonom vom Datenholen über die ALU-Arbiterlogik macht - in der c't war darüber einmal etwas zu lesen.
Intel hat den Engpaß der Kerne zu den Caches ja bei Sandy Bridge via Ringbus etwas entschärft. Das macht den Prozessor bei rechenintensiven Anwendungen sehr schnell, wie wir hier vor Ort festgestellt haben. In einigen speziellen Anwendugen, die hochgradig parallelisiert sind und Filter auf große Bilddatenmengen applizieren (Satellitendaten), kann ein Notebook Core-i5 (2,26 GHz, 4 Kerne, 8 Threads, Sandy Bridge, genaue Typenbezeichnung kenne ich nicht, ist aber ein Dell Latitude E6520), 8 GB RAM, mit einem Core-i7 930 mit 9,80 GHz und 12 GB RAM in der gleichen Anwendung gleichziehen. Das Modell läuft über nacht mehrere Stunden (ca. 12), der Core i7-930 ist knappe 45 Minuten schneller. Das sind weniger als 10% Vorsprung bei knapp 20% Taktvorsprung. Dazu kommt, daß der Speicher massiv beansprucht wird, weil die Software große Bildkacheln ständig hin und her schieben muß.
Im Umkehrschluß befürchte ich, daß es bei hoher Last bei AMDs Bulldozer zu ähnlichen Phänomenen kommen wird. Aber genau das ist ja das, was derzeit im Reich der Spekulationen angesiedelt ist. Bis auf die Aussagen der Hersteller über Vorteile und Einsparungen haben wir nichts und die ersten Benchmarker haben eher Kindergartentest als echte Vermessungen durchgeführt.
Was für mich von großem Interesse ist: wie wird sich Bulldozer in reinen 64Bit Anwendungen schlagen? Bei Intels Core-Architektur der neuesten Generation ziehen sich ja die winzigen L1 und L2 Caches wie ein roter Faden hindurch, was erst mit Haswell eine Revision erfahren dürfte. Bekanntermaßen sind die Intelschen Prefetch Buffer mit, ich glaube 16 Bytes auch nicht gerade 64Bit-freundlich, vor allem, wenn der selbe Prefetcher quasi zwei Threads bedienen muß. AMD scheint das Nadelöhr aufgeweitet zu haben. Deshalb sind die bisherigen Benchmarks möglicherweise auch schlecht für das AMDsche Image, da die CPU vielleicht noch mehr 'kann' als gezeigt. Ich bin deshalb sehr auf einen ausführlichen SPEC-test gespannt, den man wohl von c't erwarten können wird.
Auch wenn einige hier der Ansicht sind, daß theoretische Benchmarks unsinnig sind: sie sind die einzigen, die eine echte Tendenz zeigen. Denn Anwendungssoftware des Hier und Jetzt, die neue Eigenschaften der neuen Architektur gar nicht nutzt, wird mit Software von Morgen vielleicht schon mehr aus der CPU holen können - meist reicht ja schon ein Neuübersetzen mit entsprechenden Compilern. Das war ja sehr deutlich beim P4 zu sehen, der entgegen allen Unkenrufen dann doch sehr performant sein konnte - vorausgesetzt, man hat Software, die den prozessor nutzt. Im professionellen Umfeld ist das allerdings eher wahrscheinlich.