News Benchmarks von einem Core i7 940 (2,93 GHz)

Motkachler:
tripple channel ddr3 ;) also 3 oder 6 riegel ;)...da hört man es quasi schon *flopp* (spätestens dann, wenn der käufer mitm kopp aufn tisch haut ^^)
 
Hehe, der Spielebench spricht ja eine recht deutliche Sprache. Die hier gezeigten Benches sind wieder einmal ein Grund mehr auf Deneb und AM3 zu warten!
 
Was bringen mit Spielebenches @ 1024x768 mit einem High-End PC? :rolleyes:

Wenn man bencht / vergleicht dann bitte unter realen Bedingungen. (also mind. 1680x1050 / 1920x1200)
 
Motkachler schrieb:
Wenn jetzt mit dem Nehalem Programme kommen die von 4 threads profitieren wird der Dual Core sehr schnell ganz alt aussehen gegen echte Quads denke ich.
Nehalem braucht aber Software, die von 8 Cores/Threads profitiert um seine stärken voll ausspielen zu können. ;) Und hier muss zunächst einmal Amd überhaupt eine passende Antwort entwickeln.

DKTwist schrieb:
Jetzt bin ich mal wirlkich auf den Deneb gespannt.
Ich auch, aber leider gibt es weder gleichbare Tests noch andere Informationen wo die Positionierung gegenüber den iCore7 ersichtlich wird. Aber viel wichtiger wird sein, dass Amd diesesmal pünktlich ist und kein Errata-Disaster wie beim Phenom erlebt.

Motkachler schrieb:
Wenn man ein neues Board DDR 3 RAM und den I7 sich fürs zocken kauft...
... ist selbst Schuld. Dafür ist der Bloomfield nie gedacht gewesen, was auch den Sinn dieses Tests mit in Frage stellt.

Motkachler schrieb:
... ein zocker braucht kein Server
Korrekt. Und nun?
 
Zuletzt bearbeitet:
Naja, die 4 Simulierten, machen den kohl auch nicht Fett, sind ja nur dazu da um die Skalierung zu verbessern.
 
Chrisch schrieb:
Was bringen mit Spielebenches @ 1024x768 mit einem High-End PC? :rolleyes:

Wenn man bencht / vergleicht dann bitte unter realen Bedingungen. (also mind. 1680x1050 / 1920x1200)

Und was willst sehen ? Das die Graka limitiert und man gleich viele Fps hat ? Ich schaue in meiner Wunderkugel und sage

70 fps für beide, jetzt hast deinen Benchmark
 
@H@ckinTosh schrieb:
Hehe, der Spielebench spricht ja eine recht deutliche Sprache.

@H@ckinTosh:

Die Theoretischen Benchmarks sprechen aber auch eine deutliche Sprache.

Denn das es bei (schlecht programmierten) Games keine Leistungssteigerung gibt, ist wohl mehr die Schuld der schlecht programmierten Software, als der der CPU.

Was mit der CPU und optimiertet (gut programmierter) Software machbar ist, davon redet hier natürlich keiner.
Für Gamer war diese CPU wohl auch nicht gedacht. Da wird Lynn./Hav. kommen.
Für Professionelle Anwender (und damit gut programmierte Software) wird sich die CPU wohl aber lohnen.
 
Bullz schrieb:
Und was willst sehen ? Das die Graka limitiert und man gleich viele Fps hat ? Ich schaue in meiner Wunderkugel und sage

70 fps für beide, jetzt hast deinen Benchmark
Stimmt so nicht..

Siehe z.B. vergleiche mitm Phenom und Core 2 Quad...

In niedrigen Auflösungen hat der C2Q meist viel mehr FPS, aber in höheren Auflösungen liegt der Phenom
vorn. Wie kommt das wenn die Graka limiert? ;)
 
DonGeilo33 schrieb:
Naja, die 4 Simulierten, machen den kohl auch nicht Fett, ...
Aber immerhin: 14% Leistungsschub bei WinRAR 3.71 nur durch SMT (und optimierte Software wird dann ja auch erst noch kommen...). Da muss sich dann erst einmal ein Deneb ordentlich strecken um dass mit nur 4 Threads zu erreichen. Aber schauen wir mal.
 
@Denahar

Naja, was willste da groß Optimieren ? Nen Cinebench Run mit und ohne würde mich Interessieren. (nartürlich mit Skalierung)
Es ist eine gute erfindung, und klar muss AMD das ausgleichen.

Okay, habs mir selber ausgerechnet, da sieht man den unterschied extrem, 3,5 ohne und 4,1.. mit SMT.
 
Zuletzt bearbeitet:
kusne schrieb:
wenn es GPU limitiert ist, warum ist dann der QX9770 schneller?

Um es so zu formulieren, dass es auch jeder versteht:

Weil der QX besser ist.
Zumindest in der getesteten Konfiguration und in diesem Spiel.

Warum versteht das denn nur keiner, dass etwas Neues nicht unbedingt gleich etwas Besseres ist?

Die Intel PR-Abteilung hat da wohl ganze Arbeit geleistet :freak:

Edit:
Chrisch schrieb:
Was bringen mit Spielebenches @ 1024x768 mit einem High-End PC? :rolleyes:

Wenn man bencht / vergleicht dann bitte unter realen Bedingungen. (also mind. 1680x1050 / 1920x1200)

Um die Leistungsfähigkeit der CPU und des Arbeitsspeichers in Spielen zu testen und den Einfluss der Grafikkarte zu minimieren.
 
Zuletzt bearbeitet:
Wir sehen uns in einem Jahr wieder, dann gibt es mehr Spiele für Quadcores, und dann schauen wir nochmal, ob der DualDualCore (Q9450 & Co) besser als der QuadCore Nehalem ist...

Edit: Jeder, der sich einen nicht nativen QuadCore (Q9450) zum Spielen gekauft hat, sollte sich überlegen, ob er nicht bei einem E8400 besser bedient gewesen wäre. Wenn Quad, dann richtig... bei für QuadCore ausgelegten Spiele wird sich das deutlich bemerkbar machen.
 
Zuletzt bearbeitet:
Und der prozessorschwanzvergleich geht in die nächste runde. aber mal ehrlich - wer zur hölle braucht unbedingt so einen proz? um in foren rumzuflamen dass spiel-X mit 150 frames läuft? um einen AMD-ler auszulachen dass das gleiche spiel auf seinem 600 euro billigeren proz nur mit 50 frames läuft? schmeisst intel euer geld nur in den rachen...
 
Zumindest bei 3 DMark Vantage ist er ja schneller.
Wird schon noch mehr Syntetische Benches geben wo er was reist.:)
 
Zuletzt bearbeitet:
Na, für die ganzen Leute, die wahre Wunderwerke vom Nehalem erwarteten, sollte das schon ein kleiner Schlag sein. Man kann jetzt natürlich noch auf Optimierungen hier und da hoffen, allerdings ist der Spielraum doch arg begrenzt. Das Bild, was hier gezeigt wird, wird auch in Zukunft so stehen.

Gut für AMD. Wenn sie den Deneb in 45er Fertigung bringen, gibt's ein Showdown. Endlich sind die TDPs vergleichbar, die Fertigungskosten sollten ähnlich sein. Mal schaun, wie beide dann leistungstechnisch dastehen. Interessant bleibt dann nur die Frage, wer mehr an der Taktschraube drehen kann. Das dürfte dann wieder Intels Trumpf sein.
 
Wieviele von euch haben eigentlich gecheckt, dass der Prozessor nicht für Spiele sondern anfangs für Server entwickelt wurden?

Ich denke, ihr habt alle viel zu viel erwartet...
 
Schade das sich hier viele nur auf Spiele eingeschossen haben. Könnt ihr euch nicht vorstellen das man mit einem Computer auch anderes macht als nur zocken? Ich freue mich über jede sekunde weniger beim 3D rendern und Videoschnitt. Irgendwie scheinen viele zu vergessen das man einen Computer in erster Linie zum ARBEITEN benutzt! :D
 
limolimo schrieb:
Worin hat der Penryn denn Schwächen?
Och, da gibt es genug. :) Angefangen beim nicht vollwertigen shared Cache der Quads bis hin zu Architekturdetails wie Macro-Op Fusion. THG hat dazu einen schönen Artikel.

Voyager10 schrieb:
Einige Ergebnisse auf den Folien werfen Fragen auf oder war das nur ein dummes Mißgeschick ?
Bild 5 : Nehalem mit SMT langsamer ?!
Bild9 : Es gab doch schonmal Cinebench benches wo Nehalem deutlich schneller war als Yorkfield ?
Bild13: Crysis wird mit steigender Speicherbandbreite langsamer ?
Zu Bild 5, das sieht in der Tat etwas merkwürdig aus. Es kann aber durchaus passieren, dass in der Praxis SMT langsamer ist. Es kommt darauf an, wie die Anwendung programmiert wurde und wie der Thread Scheduler des Betriebssystems arbeitet. Bei Intels SMT wurde ja nichts anderes gemacht, als eine weitere Pipeline zur Befehlsverarbeitung hinzuzufügen. Die Recheneinheiten selbst bleiben aber unverändert. Wenn das System also zB 2 Threads auf 2 Kerne aufteilt, ist das natürlich schneller als würden diese 2 Threads einem Kern mit SMT zugewiesen werden, wo sich die Threads die Recheneinheiten gegenseitig blockieren. Beim Hardware Threading wird es daher in Zukunft noch wichtiger sein, wie das System priorisiert, also bei Threads mit mehr Last physische gegenüber virtuellen Kernen bevorzugen.
Zu Bild 9, ja, das war diese Verarsche von Intel, wo Nehalem mit neuer Render Engine lief, Penryn hingegen mit alter. AnandTech hatte schon mal ziemlich ähnliche Ergebnisse wie hier ermittelt.
Zu Bild 13, ja, ist halt Crysis. Am besten aus dem Testparcours streichen. :)

Denahar schrieb:
Einzig der fehlende Leistungszuwachs bei der Verwendung des Triple-Channel-Modus ist irritierend. Da scheint es wohl dann noch woanders einen Flaschenhals zu geben, der aber sicherlich auch noch gefunden und behoben wird.
Das ist nicht wirklich verwunderlich, wie ich schon im anderen Thread sagte. Bei Desktops fehlt schlichtweg der Datendurchsatz, um von solch hohen Bandbreiten zu profitieren. Dual Channel reicht vorerst völlig aus. Vielleicht ändert sich das, wenn 8 Kerner kommen. Bei AMD steht zB für die kommenden Server Plattformen dann schon wieder Quad Channel auf dem Plan.

@topic
Wie erwartet, bei Server Anwendungen bzw beliebig vielen ausgelasteten Threads kann Nehalem richtig aufdrehen. Dann sind Leistungssteigerungen von 20-50% keine Seltenheit. Im Consumer Bereich wird man vorerst aber wohl keinen Blumentopf gewinnen. Nehalem und Shanghai könnten daher noch enger zusammenrücken als bisher. Wobei ich trotzdem Vorteile für Nehalem sehe. SMT wird es letztendlich reissen. Vermutlich kann dann AMD aber bei der Leistungsaufnahme punkten. SMT ist schliesslich nicht kostenlos.
 
disk31p schrieb:
Schade das sich hier viele nur auf Spiele eingeschossen haben. Könnt ihr euch nicht vorstellen das man mit einem Computer auch anderes macht als nur zocken? Ich freue mich über jede sekunde weniger beim 3D rendern und Videoschnitt. Irgendwie scheinen viele zu vergessen das man einen Computer in erster Linie zum ARBEITEN benutzt!

Meinen Athlon habe ich mir ausgesucht, weil er genau dieses Arbeiten besonders gut kann. Seit Monaten bekomme ich erklärt, dass C2Ds viel cooler seien, ich solle nur mal einen Blick auf die Spiele-Benches werfen. Plötzlich sind die nicht mehr wichtig?

€dit zu eins drunter:
skoell87 schrieb:
Schade, dass die Leute einfach nicht kapieren, dass Performance zu einem SEHR SEHR SEEEEHR großen Teil grade auf den Grad der Optimierung ankommt.

Warum sollte das Ding bei alter Software, welche die neuen "Technologien" gar nicht nutzt, bedeutend schneller sein? Warum sollte das Ding bei Software, die darauf optimiert ist (und das wird kommen), NICHT bedeutend schneller sein?

Stimmt genau. Aber: der Barcelona war doch auch bei allen Intel-Fanboys Schrott, weil die Balken bei den Spielen zu kurz waren. Da schlummert schon länger noch jede Menge Potential. Und jetzt, wo Intel das gleiche "Problem" hat, muss man das auf einmal differenzierter betrachten?
 
Zuletzt bearbeitet:
Schade, dass die Leute einfach nicht kapieren, dass Performance zu einem SEHR SEHR SEEEEHR großen Teil grade auf den Grad der Optimierung ankommt.

Warum sollte das Ding bei alter Software, welche die neuen "Technologien" gar nicht nutzt, bedeutend schneller sein? Warum sollte das Ding bei Software, die darauf optimiert ist (und das wird kommen), NICHT bedeutend schneller sein?

Ihr erinnert euch schon daran, oder? Es gab mal Zeiten, da waren Treiber usw (Spiele sind es ja auch heute meistens noch nicht) noch nicht DualCore fähig. Oh nein, mein DualCore ist langsamer als mein alter SingleCore. Das wird auch sicherlich in Zukunft so bleiben...

Fällt euch was auf?
 
Zurück
Oben