News IDF: Benchmarks von Intels Nehalem

Wenn der Nehalem echt so viel Leistung hat kann AMD einpacken. Und das wäre schade amd mach ansich keine schlechte Cpu nur kommen sie nicht mal ansatz weiße an Intel e8x00 oder O6x00/q9xx0.

Wenn die Nehalem dann noch dazu kommen muss amd echt sich ran machen. Um wengist dann mal bei denn 32nm Cpu eine Hit zu landen.

DJMadMax
Was du als krücke ansicht wäre ich extem froh drüber.
 
wenn pcgh recht hat und der nehalem für spieler keine vorteile hat, kann amd vielleicht mit deneb im game-bereich ne gleichgute und viel preiswertere alternative bieten.
 
Was den Gamebereiche angeht, das scheint der Bloomfield noch eines draufzusetzen. :jumpin:
 
Ich verstehe nicht warum sich manche Leute den Mund fuselig reden über "Der Sinnlosigkeiten eines noch schnelleren Prozessors". Denkt ihr wirklich ein PC ist nur dazu da um zu Spielen? Nur weil bei manchen Leuten ihr Q9450 sich zu tode langweilt, heisst es noch lange nicht das es keine Anwendungen gibt die den Prozesor ausreizen. Auch was den Cinebenchtest angeht, wieso sollte man es ohne HT machen? Entschuldigung, aber ich kann nicht Sportauto mit Kombi vergleichen und dabei den Turbo ausschalten nur um einen direkten "Vergleichswert" zu haben.

Diese CPU ist eindeutig zu viel für die Spiele, noch zumindest. Obwohl meiner Meinung nach fast alles was mit Spielen zu tun haben wird, mehr und mehr an der GPU liegen wird. Die übernimmt jetzt schon fast die meisten Aufgaben bei den Spielen. Beim rendering ist es schon was anderes. Mehr als dreifache Steigerung im Vergelich zu heutigen Prozessor. Top! Werde mit XSI und Maxwell gleich paar Tests machen, wenn ich Nehalem meins nennen darf ;)
 
Alle warten gespannt auf Nehalem. Das tue ich auch - jedoch tut es doch in der Seele weh, die eigene "alte" Sockel 775 Traummaschine mit Wasserkühlung oder ähnlichen Spielereien komplett auszuwechseln. Bei den neuen Sockeln wird doch wieder eine Komplettausstattung fällig.

Nehalem = 1x alles neu bitte
(meine Schätzungen)
1. neues Mainboard (200€+)
2. neuer Chip (300€+ für mittelklasse 1000€ für High-End wie Extreme Edition)
3. neuer CPU-Kühler (Preis offen - aber teuer, da bis 130W TDP)
4. neuer RAM (2GB DDR3-1600 - noch zu teuer 80-160€)

Summe? Zu viel!


Ich kann Erfahrungswerte von einem 8-Thread-PC liefern. Mein Server läuft mit 8x 1,6GHz (Dual Xeon 5310 Clovertown) mit 8 GB FB-DIMM. Beide CPUs verbrauchen bis zu 160W (2x 80W). Meistens aber deutlich weniger aufgrund von Stromspartechnologie. Das ist maximal 30W höher als die angekündigten Werte vom Nehalem. Und das für einen heutigen (theoretischen) Octa-Core-Rechner.

Die Werte dieses Systems sprengen schon heute viele Benchmarkskalen - und nach oben ist noch Luft, da es ja schon den Xeon Harpertown gibt, der sich ebenfalls absetzen kann (Vorgänger von Nehalem Gainestown).

Angenommen Intel schafft es dies Performance bis 2009 in eine CPU zu bekommen, kann man sich freuen. Jedoch muss ich sagen, dass es beim Spielen nicht so viel bringt. Was auf einem C2D flüssig läuft, wird auf solch einem Monster nicht viel besser sein. Lediglich die Bandbreite an Anwendungen kann ich erhöhen. Die CPUs schaffen es gleichzeitig zu Spielen (mehrere Spiele, wenn man will), Downloads und Konvertierungen ablaufen zu lassen.

Ich habe selbst Probleme meine "kleinen" Xeons" voll auszulasten. Dabei sind es "nur" die 1,6GHz Versionen. Beim Gedanken an einen 2,8 bis 3,2 GHz Octa-Core wird mir schier schwindlig. So viel Power braucht wirklich niemand. Besitzer eines MAC-Pro werden mir hier zwar widersprechen, aber ich wollte es nur gesagt haben.

Aufgepasst:
Wirklich schneller macht Nehalem unsere "Spiele" wohl nicht. Ausschlaggebend ist nach wie vor die Grafikkarte.


Mein Vorschlag:
Bevor ihr vorhabt euch einen neuen "Nehalem" zu kaufen: Rüstet doch zuerst euren alten Kisten mit heutiger High-End-Hardware nach. Es ist abzusehen, dass jeder sein altes Zeugs verkauft, weil ja ein neuer Nehalem angeschafft werden muss.

Ich meine besser heutige (dann eraltete) Highendhardware zu günstigen Preisen, als eine neue Technologie zu überhöhten Preisen.
 
@isigrim

@L8N:
Das ist kein Problem, sein System so lange zu behalten, allerdings macht es rein ökonomisch mehr Sinn, sich alle 3 Jahre ein preisleistungstechnisch gutes System zu kaufen. (Ist aber nur meine persönliche Meinung und Erfahrung)

Also das würd ich nicht unbedingt sagen. In 3 Jahren braucht man höchstwahrscheinlich schon wieder neues Board, Speicher und eine dazu passende Grafikkarte (auch wenn die alte noch reichen würde -> wie bei AGP z.B.). Nur die CPU zu wechseln reicht da meistens nicht.
Persönlich hab ich lieber ein Highend System und arbeite dann auch lange damit, als mir alle 3 Jahre neue Mittelklasse Systeme zu holen.
 
Das selbe schreibt übrigens auch Anandtech. Anandtech

It is without a doubt an impressive architecture with a much better platform to run on, but this CPU is not about giving you better frames per second in your favorite game than the Penryn family. Let me make that more clear: even when the GPU is not the bottleneck, it is likely that most games will not be significantly faster than on Penryn.

Schon beruhigend, für alle Penryn-Käufer. Allerdings kann sich das Ganze durch neue Physik-Applikationen in neueren Games wieder umdrehen. Dann wird es heissen : Entweder Nvidia mit Physix oder die Physik wird komplett über die CPU gehen.
Im Prinzip hoffe ich es wird mehr über Physix gehen, da sich die Graka notfalls besser aufrüsten lässt. Allerdings hat dann ATI das Nachsehen.
 
Also wieviel schneller der in Spielen sein wird, ist mir relativ egal :-)
Hauptsache er geht richtig ab bei RAW Bildbearbeitung und beim
Compilieren meiner C++ Projekte... Am besten noch beides gleichzeitig :cool_alt:
 
Och, da könnte man ja direkt schwach werden. Leider passt so ein System nicht in mein studentisches Budget rein. :mad:
 
@florymonth:
zumindest bis Larrabee erscheint stimmt das nicht uneingeschränkt. Raytracing für den Produktiveinsatz ist Sache der CPU nicht der GPU. Diese kann zwar das Rendern beschleunigen (siehe Nvidia Gelato), aber eben nur durch spezielle und recht aufwendige Software Portierung. Grundsätzlich gilt: CPU fürs Raytracing, GPU für "Rasterisierung". Wie gesagt, Larabee wird das alles umkrempeln, aber das ist ja auch eher eine - nein viele- CPU als eine GPU ;)
 
isigrim schrieb:
@florymonth:
zumindest bis Larrabee erscheint stimmt das nicht uneingeschränkt. Raytracing für den Produktiveinsatz ist Sache der CPU nicht der GPU.

Wie kommen sie darauf???Rendern ist auch ungleich Raytracing.
 
@florymouth
Das, worauf sich CrazyIwan bezog (mit Maxwell und XSI) ist Raytracing. Zumindest geschieht das Rendern von 3d Szenen bei diesen Programmen mittels Raytracing. Und darum ging es ja. Wobei XSI natürlich auch Modelle in Echtzeit darstellen kann.
Und Maxwell und XSI profitieren - soweit mir bekannt - lediglich beim Modellieren von der GPU, nicht aber beim Rendern.
XSIs Renderer basiert auf mental ray, während Maxwell eine eigene (Raytracing)Rendering Engine bezeichnet.
 
wann kann man endlich die nehalems kaufen?? kann es kaum abwarten mir nen einbauen
 
Um hier mal etwas auf die Euphoriebremse zu treten:

Intel hat hier beim Cinebench nicht ganz Fair gespielt.
Die haben dem aktuellen R10 die Renderengine von Cinema4D 11 untergeschoben, das bringt knapp 2,5 mal so viele Punkte wie im "normalen" R10.
Sie hätten also fairer weise auch den Penryn genau diesen Bench laufen lassen müssen, haben sie aber nicht.
Ergebnisse damit gibts z.B. hier, eine Seite weiter gibts auch eine R10-Mod zum runterladen da kann es jeder selber nachvollziehen.

Die Leistungssteigerung ist also nicht ganz so gewaltig wie es im ersten Moment erscheint.
Finde schade, dass Intel hier nicht 100% sauber handelt. Das kostet Glaubwürdigkeit, eigentlich sollten sie das gar nicht nötig haben.

Mein Ergebnis mit dem Mod gibts hier im Anhang, mit einem K8@2,8GHz über 10k Punkte wohlgemerkt. ;)
 

Anhänge

  • CinebenchR10@R11 zuschnitt.jpg
    CinebenchR10@R11 zuschnitt.jpg
    93,3 KB · Aufrufe: 532
SeeKerle schrieb:
Alleine schon deswegen damit man Aktuelle Cpu´s nicht mehr an den rand von Gut und Böse übertakten muss damit die Grafikkarte sich nicht langweilt.

Ich hab da mal n Tip für dich:
Du solltest nicht jedes Spiel in 800x600 spielen... bei der Auflösung ist es ja klar, dass die Grafikkarte nicht limitiert... :rolleyes:


Naja.. ich hab keine Lust schon wieder einen von vielen Tests z.B. von CB oder PCGH rauszukramen, der deutlich aufzeigt, dass ein durchschnittlich schneller Dualcore genauso schnell in Spielen wie ein hochgezüchteter Quad ist...
Ausnahmen bestätigen die Regel.
 
Hmm, also ich finde das Vorgehen von Intel nicht nur irreführend, sondern grob fahrlässig!

Beim SPEC-benchmark dürfen die einzelnen Benches optimiert werden, solange sie auch dokumentiert werden.
Der Cinebench ist einer von der Sorte, die nicht verändert werden dürfen, um das Ergebnis und die Vergleiche nicht zu verfälschen.

Ich meine mal gehört zu haben, daß dieses Verhalten/Vorgehen ("Irreführung") in Deutschland als Straftat angesehen wird.
 
Zurück
Oben