News Acht „Tigerton“-CPUs sollen „Barcelona“ aufhalten

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.714
Nicht schlecht mal schauen wer das bessere Produkt liefert ;)
 
also wenn ich n server kaufen müßt, würd ich einen mit nativen quadcores nehmen.... also amd... ist eben technologisch weitergedacht bei amd.... schon interessant, dass die kleine technikschmiede der großen in der hinsicht vorraus ist....
 
@ vor mir
Du nimmst also immer die Technik die für dich besser klingt anstelle der schnelleren?
Noch ist schließlich nicht geklärt ob natives Quad Core Design schon soviel bringt.

Klingt doch sehr verlockend vorallem die Preise (;

Nun denn auf das der bessere gewinnt.
 
und so geht das Intel vs. AMD gemetzel in die nächste runde.

schön das Intel neue Server-CPUs vorstellt, als konsument freue ich mich aber mehr auf die Desktop-Variante des K10, denn dann wirds wieder spannend.

auf das keiner der beiden gewinne, denn dann gewinnt der user :D

greez
 
Von was für einem Gemetzel laberst du?! Erstmal die richtigen Worte wählen, bevor man drauf lospostest!
 
im Mac Pro gibts doch jetzt schon 2 3ghz quadcores, wieso wird das dann weniger?
 
8mb L2 cache ? les ich da richtig?


fett ;)
 
Mein Gott... was für eine verschwendung von Die Fläche.

Alles oberhalb von 2mb L2 Cache bringt doch bei gleichbleibender Architektur kaum Performance. Weder bei Intel noch bei AMD
 
Cache bringt sicher was, denn es gibt noch einen anderen Anwendungsbereich außer Games. ;)
Bei mathematischen Berechnungen kann der Cache nie groß genug sein.

Außerdem hat ein nativer Quadcore nicht nur Vorteile, denn in der Produktion ist er teurer. Zudem scheint das bishere Design gar nicht so schlecht zu sein, denn es skaliert relativ gut. Bei Intel bremst vorallem der FSB und nicht das nicht-native Design. Das könnte mit CSI aber der Geschichte angehören.
 
Der Cache ist genau dann groß genug wenn der komplette Algorithmus + die dazugehörenden Daten rein passen. Ich gebe schon recht das große Datenbanken wohl nie genug Cache haben können, aber gerade bei mathematischen berechnungen ist da schnell Feierabend.

Die skalieren ab 2mb fast alle rein mit der Float und Integer Performance.
 
ich meine das Preis-/Leistungs-Gemetzel

ich wähle meine worte schon mit etwas bedacht und bin bei gott kein drauf los poster, sonst wäre mein postcount wohl wesentlich höher :D

btt.:
einen großen cache zu haben ist nun mal werbewirksamer ;)

greez
 
Richtig, für Leute die nie mit etwas größeren Matrizen arbeiten scheinen 8MB Cache viel zu sein. Für eine massive Berechnung ist aber 8MB ein Fliegenschiss - da hat so manche Matrix locker mehrere GB...
 
Ned Flanders schrieb:
Der Cache ist genau dann groß genug wenn der komplette Algorithmus + die dazugehörenden Daten rein passen.

Genau dieser Fall wird nie eintreten, da man die zu berechnenden Werte unbegrenzt in die Höhe skalieren kann. ;)

Irgendwann passen sie nicht mehr in den Cache und dann muss der Arbeitsspeicher die Arbeit übernehmen. Da wäre es vorteilhaft, wenn es gar nicht erst so weit kommt.
 
Zuletzt bearbeitet:
@ Pacman

Nehmen wir z.B. eine Fourier Transformation als ein beispiel für eine Mathematische Berechnung.

Die zugrundeliegenden Daten passen in den meisten Fällen schon in einen 256kb L2 Cache. Da kannst du den L2 Cache auch auf 500mb aufblasen, viel schneller wirds nicht werden.

Nehmen wir eine Datenbank oder eine große Matrizze. Die passt auch in einen 500mb Cache nicht rein. Entsprechend bringt eine vergrößerung der Caches von 4 auf 8mb auch praktisch nichts.

Schau dir mal die alten Netburst Xeons an. Die gab es mit bis zu 16mb L3 Cache. Was hat es gebracht?
 
Denk in größeren Dimensionen. Berechnungen, wie sie von Supercomputern angestellt werden, denn auch da werden solche Prozessoren verbaut. Dort wird fast immer mit riesigen Zahlen oder komplexen Algorithmen berechnet.

Schon jetzt gibt es Anwendungen wie das Berechnen von Primzahlen oder Verschlüsselung, die stark vom Cache profitieren. Schon da ist es kein Ausnahmefall, wenn der Unterschied über zehn Prozent beträgt, was in Takt umgerechnet mehrere hundert MHz ergibt. Außerdem arbeitet der Cache sehr energieffizient, bei Intel können Teile des Caches, wenn sie gerade nicht gebraucht werden, abgeschaltet werden.
 
Zuletzt bearbeitet:
Das ist sicher etwas überspitzt geschrieben, was ich oben meinte. Aber Wunder würde ich von einer Verdoppelung des Caches nicht erwarten. Auch vom Penrynn würde ich nicht zu viel erwarten. Die Änderungen sind ja verhältnismäßig klein. Zumindest die von Intel bekannt gegebenen.

Richtig spannend wird es erst wieder mit Nehalem. Der dürfte AMD dann eventuell das Wasser wieder abgraben.
 
Ned, du darfst due ProMHZ leistung des K10 nicht überbewerten, den die maximal taktrate ist beim C2D derzeit einfach höher und noch scheint dies amd nicht ausgleichen zu können.
 
es geht um server-plattformen.... :lol:
 

Ähnliche Themen

Zurück
Oben