FoxMcCloud schrieb:
Was hat das mit Software zu tun
oder stehe ich gerade auf dem Schlauch? Der Geschwindigkeitsschub ist aber in der Tat sehr dürftig geblieben... Außerdem habe ich jetzt keine Glaskugel mehr, die mir bei meiner Meinungsbildung hilft, sondern einen Schamanen, da mir gesagt wurde, dass diese eine höhere Erfolgsquote als Glaskugeln haben würden und dieser hat mir soeben gesagt, dass IB schlecht wird. Also wird das leider wohl auch so sein.
Du stehst auf dem Schlauch. ich will Dir nur ein Beispiel nennen - aus meinem Erfahrungsschatz. Wir schreiben in der Regel unsere Software für numerische Modellierungen selber. Das sind keine schönen Klicki-Idioti-Bunti-Anwendungen, sondern in der Regel spezielle, auf den rohen Kern (und ohne "Wolkendecke") Programme. Man könnte sie durchaus mit einem GUI versehen (was derzeit getan wird), aber der Einsatzzweck ist, über wochen und Monate Laufzeit hochpräzise Daten zu errechnen oder Filter und Ausgleichsrechnungen auf Satellitendaten anzuwenden. Die Bilddaten sind meistens gigantisch, mehrere zehner-GB groß, müssen also "gekachelt" werden und verschlingen enorm Speicherbandbreite sowohl bei CPU<->RAM und RAM<->E/A-Subsystem. In der Regel wird UNIX oder Linux eingesetzt inklusive moderne Compiler, welche die Eigenschaften einer CPU auch auszunutzen verstehen. Die Software wird auf der jeweiligen Zielmaschine übersetzt, mit entsprechenden Compileroptimierungen (Mit LLVM ist man theoretisch in der Lage auch hier weniger Arbeit investieren zu müssen, ist aber noch nicht ausgereift). Nun ja, ein Beispiel:
ein Core i7-930 mit 12 GB RAM, einer 80GB SSD wird von einem Core i7-2720QM mit gleicher Software, aber per compiler auf SB optimiert, in vielen Fällen ausgestochen! Der 930 rennt mit 2,8 GHz, der SB nur mit 2,2. Dem 930 stehen drei schnelle Speicherkanäle zur Verfügung, der SB hat nur derer 2. Der Compiler optimiert definitiv NICHt auf AVX! Wir verwenden aber intrinsische Assemblerfunktionen zur direkten SIMD programmierung und versuchen den Compiler (ICC oder Pathscale, aber auch gcc4.7) dazu zu bringen, automatisch auf die Ziel-CPU zu optimieren. Bei den Vektoroperationen ist der neue SB trotz geringerem Takt schneller als sein Nehalem-Vorgänger. Ansonsten ist das Notebook etwa gleichauf mit der Desktop-Workstation. Nur wenn es exzessiv zu Speichertransfers kommt (große Bilddatenblöcke laden oder speichern) verliert das Notebook oder wenn die 4 GB Mehrspeicher in der Desktopmaschine ausschlaggebend sind.
Das meine ich mit Software! Die Spielzeugtests mit Spielen oder dem Kinderkram für den "Enthusiastenmarkt" sind mehr als lächerlich und regen nur die Tränendrüsen zur Arbeit an. Man weiß bei vielen "professionellen" Tests meist gar nicht, wie sie zustandekommen, weshalb sie nach ethischen Gesichtspunkten wertlos sind. Die ganze Wintel-Welt bedient sich eines gemeinsamen Nenners, der größtmögliche Kompatibilitat will. Deshalb wird es schwierig sein, hier auch Software für die Massen zu finden, die neue Eigenschaften nutzen wird. Bis heute tun sich viele Programmierschmieden damit schwer, SIMD Einheiten zu nutzen, man kann sie so schön einsetzen, wenn man viel zu filtern, zu errechnen hat ...
Vor 15 Jahren wurden viele Tests noch mit ingenieruswissenschaftlicher Akribie durchgeführt, die Ergebnisse selbst in populären Publikationen hatten nahezu Referenzcharakter und es war keine Schande, diese auch in wiss. Publikationen zu zitieren. Heute würde ich das nicht mehr wagen, das Niveau der "Tests" ist oftmals nicht über jenem einer Tupperware-Sitzung und Vergleiche unmöglich. Das ist gewiß durch üppige Sponsorengeschenke auch so gewollt oder durch subtile indirekte Knebelverträge über Werbeschaltungen. So wie gewisse Stuttgarter Motorsport-fachpublikationen die Benz-und-Porsche-Brille aufhaben, sitzt auf so mancher Redakteursnase in diesem Metier die Intel-Brille.
Tests mit verkapselter Software, von der man nicht weiß, mit welchem Compiler mit welchen Optionen sie erstellt wurde, sollte spätestens seit Bekanntwerden der Intelschen massiven behinderung AMDs durch Compilerschikanen indiskutabel geworden sein. Sind sie aber nicht.
Kurzum: Die Software ist entscheidend (und damit auch das Anwendungsfeld). Aber wenn wir uns über die absolute Leistungsfahigkeit einer CPU im Vergleich zu einem Konkurrenzprodukt oder einem Vorgänger streiten, müssen wir das eben sehr genau betrachten. und ich weiß eben, daß ein SB in einigen für mich sehr wichtigen Fällen sehr viel schneller arbeiten kann als sein Westmere- oder Nehalem-Vorgänger. Nur wenn ein i7-990X oder dessen XEON Derivat mit zwei Kernen mehr oder vier Threads mehr aufwarten kann, gewinnt dieser. Leider sind auch noch PCIe Lanes und die Peripherie enorm wichtig, weshalb in vielen Fällen dann doch eine LGA1366/X58 Plattform besser geeignet ist als eine LGA1155.
@Thanok: Feiert Larrabee nicht gerade seine Reinkarnation in Form von Evaluationsplatinen für die Multi-Kern-Entwicklung, oder? Als geplante Graphikkarte war Larrabee im Vergleich zu weitaus weiter entwickelten nVidia- oder AMD-GPUs sicherlich ein "Flop", aber wenn ich mir überlege, wie nah die Kerne an der aktuellen x86-Architektur sind und wie einfach es möglich wäre, bei einem weiteren "Shrink" eine klassische FPU komplett durch ein Larrabee-Gebilde zu ersetzen, ist Intel auf einer breiten Überholspur. Auch wenn diese CPU/FPU nicht am Markt verkauft werden konnte, sie wird derzeit an diversen Universitäten evauliert und mit einem Softwareframework versehen, um es Entwicklern zu ermöglichen Software zu bauen. Das ist Investition in die Zukunft. Das vermisse ich bei AMD.