Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
also wenn ich n server kaufen müßt, würd ich einen mit nativen quadcores nehmen.... also amd... ist eben technologisch weitergedacht bei amd.... schon interessant, dass die kleine technikschmiede der großen in der hinsicht vorraus ist....
@ vor mir
Du nimmst also immer die Technik die für dich besser klingt anstelle der schnelleren?
Noch ist schließlich nicht geklärt ob natives Quad Core Design schon soviel bringt.
Klingt doch sehr verlockend vorallem die Preise (;
Cache bringt sicher was, denn es gibt noch einen anderen Anwendungsbereich außer Games.
Bei mathematischen Berechnungen kann der Cache nie groß genug sein.
Außerdem hat ein nativer Quadcore nicht nur Vorteile, denn in der Produktion ist er teurer. Zudem scheint das bishere Design gar nicht so schlecht zu sein, denn es skaliert relativ gut. Bei Intel bremst vorallem der FSB und nicht das nicht-native Design. Das könnte mit CSI aber der Geschichte angehören.
Der Cache ist genau dann groß genug wenn der komplette Algorithmus + die dazugehörenden Daten rein passen. Ich gebe schon recht das große Datenbanken wohl nie genug Cache haben können, aber gerade bei mathematischen berechnungen ist da schnell Feierabend.
Die skalieren ab 2mb fast alle rein mit der Float und Integer Performance.
Richtig, für Leute die nie mit etwas größeren Matrizen arbeiten scheinen 8MB Cache viel zu sein. Für eine massive Berechnung ist aber 8MB ein Fliegenschiss - da hat so manche Matrix locker mehrere GB...
Genau dieser Fall wird nie eintreten, da man die zu berechnenden Werte unbegrenzt in die Höhe skalieren kann.
Irgendwann passen sie nicht mehr in den Cache und dann muss der Arbeitsspeicher die Arbeit übernehmen. Da wäre es vorteilhaft, wenn es gar nicht erst so weit kommt.
Nehmen wir z.B. eine Fourier Transformation als ein beispiel für eine Mathematische Berechnung.
Die zugrundeliegenden Daten passen in den meisten Fällen schon in einen 256kb L2 Cache. Da kannst du den L2 Cache auch auf 500mb aufblasen, viel schneller wirds nicht werden.
Nehmen wir eine Datenbank oder eine große Matrizze. Die passt auch in einen 500mb Cache nicht rein. Entsprechend bringt eine vergrößerung der Caches von 4 auf 8mb auch praktisch nichts.
Schau dir mal die alten Netburst Xeons an. Die gab es mit bis zu 16mb L3 Cache. Was hat es gebracht?
Denk in größeren Dimensionen. Berechnungen, wie sie von Supercomputern angestellt werden, denn auch da werden solche Prozessoren verbaut. Dort wird fast immer mit riesigen Zahlen oder komplexen Algorithmen berechnet.
Schon jetzt gibt es Anwendungen wie das Berechnen von Primzahlen oder Verschlüsselung, die stark vom Cache profitieren. Schon da ist es kein Ausnahmefall, wenn der Unterschied über zehn Prozent beträgt, was in Takt umgerechnet mehrere hundert MHz ergibt. Außerdem arbeitet der Cache sehr energieffizient, bei Intel können Teile des Caches, wenn sie gerade nicht gebraucht werden, abgeschaltet werden.
Das ist sicher etwas überspitzt geschrieben, was ich oben meinte. Aber Wunder würde ich von einer Verdoppelung des Caches nicht erwarten. Auch vom Penrynn würde ich nicht zu viel erwarten. Die Änderungen sind ja verhältnismäßig klein. Zumindest die von Intel bekannt gegebenen.
Richtig spannend wird es erst wieder mit Nehalem. Der dürfte AMD dann eventuell das Wasser wieder abgraben.
Ned, du darfst due ProMHZ leistung des K10 nicht überbewerten, den die maximal taktrate ist beim C2D derzeit einfach höher und noch scheint dies amd nicht ausgleichen zu können.