Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Die rechenleistungssteigerung liegt in der vermehrung der kerne ... sieht man doch auch an supercomputern die haben doch auch "recht viele" kerne / prozessoren.
zum teil.
aber wie schon richtig gesagt wurde, muss das ganze auch verwaltet werden, wodurch die effizienz mit steigender anzahl der prozessoren abnimmt.
Wie ist das bei Intel eigentlich mit Mobile-CPUs im Desktop-Rechner? Gibt es da entsprechende Mainboards oder versucht Intel es zu unterbinden, dass die Mobile-CPUs wegen Desktop-Kunden knapp werden?
Mein E6300 soll nach Möglichkeit später durch eine Mobile-Quadcore-CPU der Westmere-Generation abgelöst werden.
Ich hoffe auch mal dass es bis dahin eine Möglichkeit seitens nVidia oder ATi geben wird, die im normalen Betrieb - auch unter Vista Aero - die Grafikkarte komplett abschaltet(!). Die CPU wird dann eh einen Grafikchip integriert haben. Und der dürfte auch mit Aero Glass keine Probleme haben.
Die absurde "Kerngeilheit" mancher Kids hier geht mir langsam
tierisch auf den Hut!
10 Kerne bringen nichts, wenn die Software damit nicht umgehen kann!
Einen so hohen Parallelisierungsgrad wird man in den kommenden 5 Jahren
als Heimanwender - egal ob für Spiele oder Office - ohnhin nicht erreichen.
Das simultane Multithreading der aktuellen Thread-Scheduler funktioniert bei
2 Kernen noch wunderbar (Dank dem Vorlauf durch HT) doch schon bei 3 oder
4 Kernen bleibt das Thread-Handling weit hinter den Möglichkeiten zurück.
Was wollt ihr also mit so vielen Kernen? Ein 2- oder höchstens 4-Kerner mit
der wunnderbaren HT-Technologie reicht dicke!
8 oder 16+ Kerne mit 16 bzw. 32+ Threads? Wofür denn???
Ihr Spinnt!
Es wäre wesentlich sinnvoller und Ressourcenschonender wenn man
sich endlich Soft- und Hardwareseitig voll auf die Unterstützung der
64-Bit Technologie konzentrieren würde...
Ja, aber welchen Nutzen bringt dir diese Information? Entweder er bringt seine Leistung, oder er ist sparsam... Ob es nun 2x 2Cores oder 1x 4 Cores sind haben darauf zwar einen Einfluss, 100 andere Faktoren aber auch... Aber reine Quadcores sind cooler?
Ich finde diese News für den normalen Verbraucher falsch dargestellt.
Es gibt nicht den Nehalem. Es gibt noch nicht mal eine einheitliche Nehalemarchitektur.
Besonders das Bild ärgert mich sehr, da es einen Prozessor mit Quickpath Interconnect zeigt.
Das auch als CSI bekannte Feature hält nur in den wenigsten Prozessorfamilien einen Platz.
Ansonsten wird Ibexpeak verwandt. Ohne CSI wird der Cache sich von jetzigen Prozessoren kaum unterscheiden.
Man hätte hier klar mit den Entwicklungsnamen differenzieren müssen.
Es gibt eine Nehalemarchitektur und das ist der Prozessorcoren, wenn man so will. Der Rest wird aus dem Baukasten zusammengebaut - je nachdem wieviel man braucht. Intel hat bisher noch keine Nehalem-Mitglieder ohne QPI angekündigt bzw. sonst irgendwelche Codenamen von Nehalem-Derivaten. Wenn du etwas Inoffizielles lesen möchtest, dann schau in den Nehalem-Artikel.
hmmm ... also Intel macht sich gerade dick bei Raytracing und das skaliert sogar mit otto-normalo-quadcores welche über ethernet verlinkt sind nahezu mit 100%.
Ausserdem wird immer mehr Software rauskommen, welche Multicore unterstützt. Wechselst du jedes Jahr deine CPU? Ich nicht. Da würde ich schon einmal etwas tiefer in die Tasche greifen gleich nen quad/hexa/octa-core kaufen und dann hab ich über jahre genug roh-performance zur verfügung. Ausserdem kann ich dann mal mehrere Multicore-Apps parallel laufen lassen.
ich sag mal, es gibt genug möglichkeiten die sinnhaftigkeit eines solchen "Monsters" zu unterstreichen ...
@Topic
warum wird der L2 Cache so stark beschnitten? Lag der jetzt, ob der fehlenden Performance quasi brach?
Lol, Intel guckt sich schon seit einiger Zeit sehr viel von AMD ab - nun geht's weiter. Integrierter Speichercontroller, neuer Referenztakt und nun L3 Cache. Am Anfang war es nur die energie-effiziente Architektur im Desktop Bereich mit dem Core 2 ....
Die erhöhte Geschwindigkeit des Referenztaktes durch den Quickpath ist natürlich sehr zu begrüßen und ist dank der Integration des Speichercontrollers sogar "doppelt gut". Endlich gibts keinen Flaschenhals namens FSB mehr .... dann werden die nächsten DDR Standards vielleicht auch wieder mal effektiver bzw. schneller arbeiten als es DDR3 und 2 z.B. gegenüber DDR1 tun.
Das besondere an Nehalm ist, das sich die Kerne der Anforderung von Software anpassen können (z.B. 2 Kerne abschalten um die anderen besser unterstützen zu können). Was bei den derzeitigen Penryn Prozessoren nicht möglich ist. Deine Argumentation mit der Software zieht also auch nicht mehr!
Diese Turbo-Mode Funktion ist wirklich interessant. Da stellt sich nur die Frage wie gut dies in der Praxis (Anwendung unter Windows) skaliert und wieviel "Spielraum" ein Kern nach oben hat.
Wenn ich mir die Auslastung meiner vier Kerne unter Windows unter verschiedenen Applikationen (auch Spiele) so anschaue, sind meist alle Kerne etwas ausgelastet, aber keiner zu 100%.
@BERBERJESUS so nörgler wie DU gehen MIR auf den zeiger...
"Spiele & Office" das zeigt wie begrenzt dein horizont ist
Ich kann nen Quad/Hexa/Octa/Hexadezi-Core genug auslasten (100%!), und zwar ned nur mit Multithreaded Applikationen (RT-Renderer) sondern vorallem mit Parallellaufenden Applikationen (Make + GCC z.b., bin jedesmal froh um ein paar Quads mehr wenn ich n riesenpaket übersetzen muss).
Also sei bitte still mit deinem begrenzten Horizont und les noch ein bisschen über die Nehalem-Architektur und die möglichkeiten an skalierbarer software nach. (Da gibts auch DualCores (Havendale) wenn du nen Quad ned gebrauchen kannst)
@19
Auf die Schnelle habe ich einen Prozessor mit 300 Kernen auf einem Die gefunden. Als wir das Thema hier neulich schonmal hatten gab es einen Link zu einem Prozessor, der an einer Uni für extreme Parallelisierung gebaut wurde. Der hatte meines Erinnerns nach über 1000 Kerne auf einem Die. Der konnte allerdings auch nichts weiter als diese eine Aufgabe zu lösen, für die sie ihn konstruiert hatten.
@Ice =A=
Dir ist aber schon klar, dass die umstellung der programme von 2 auf x kerne einfacher ist als von 1 auf x kerne?
Und mittlerweile gibts doch schon unzählig viele programme die das unterstützen.
@BERBERJESUS
Nimm mal das brett vorm kopf weg.
Nur weil DU es nicht brauchst, können aber andere was mit anfangen.
Ich bräuchte sogar 16 kerne+ und freue mich über jede meldung über neuerungen.
Immer mehr Cores das bringt ja für den Normal - User wenig....
Im Serverbereich mit angepasster Software seh ich das ja ein
Auch zeigt ein Core2 Quad in 3D Anwendungen das immernoch Mehrleistung durch mehr Kerne zu erreichen ist...
Leider hat Intel und auch AMD einsehen müssen ,das die gegenwärtige Technologie der Halbleiterphysik es nicht zuliess einen 10 Ghz Prozessor herzustellen ohne ein eigenes Kraftwerk und eine Kryotechnische Anlage anzuschliessen damit das Ding stabil arbeitet..
Ich hatte wirklich daran geglaubt das Intel das mit den 10 Gigs schafft -aber Luftgekühlt
Nun gibts Mulitcore und alles ist wieder anders
Mal sehen wieviel Mehrleistung Intel durch die neue Speicheranbindung gewinnt .Wenn AMD bis dahin nicht den Performanceanschluss schafft, dann muss ich auf Intel umrüsten -
und natürlich der 9550er keine 400 € mehr kostet
Aber bis Ende des 3. Quartals werd ich nicht warten...