• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News IDF: Far Cry 2 profitiert von Multi-Core-CPUs

Fassen wir zusammmen: Auf dem Forum einer Firma die einen Verkaufsargument für deren Quad-Core-CPUs sucht prophezeit man, dass Spiel xy von mehr als 2 Kernen profitieren wird.
Klingt imo nicht sehr glaubwürdig wenn man bedenkt, dass man das Game mit der aktuell aufwändigsten Grafik mit nem 15 Euro-Single-Core Prozessor spielen kann solange man eine potente Grafikkarte hat.
-> Ich würde mir auch heute einen DC kaufen ohne auch nur den Hauch einer Angst, dass das ne Fehlinvestition werden könnte.
Sobald ich nen Quad brauch gibts die aktuellen eh für nen Zehner bei Ebay. ;)
 
@Melvin

Der Q9450 schafft das locker. Meiner zumindest ging gut ab. 1.25Vcore@3800mhz. Ist doch super.

@masterbratak

Du willst mir echt weiß machen dass Du dir nen Dualcore holst der ganausoviel kostet wie ein Quad??? dann tuts mir leid aber das ist echt dumm. 4 Kerne zum Preis von 2. Ob es Sinn macht oder nicht ist ja auch egal aber trotzdem hätte man nen Puffer.
Und wieso so unfaire vergleiche? Q6600 gegen E8400. Beide sollten gleichen Takt haben also ocen und dann könnt ihr vergleichen.

Und wenn ihr schon was so gutes so günstig bekommt und troztdem zum schlechteren Produkt greift dann tut es mir leid.

Mfg Kivi 123

@Blutschlumpf


Zeig mir nen Link wo ein Quad für nen zehner gibet.
 
mir selber schrieb:
Sobald ich nen Quad brauch gibts die aktuellen eh für nen Zehner bei Ebay.
Kivi 123 schrieb:
Zeig mir nen Link wo ein Quad für nen zehner gibet.
Versuchs doch bitte mal mit Lesen, verstehen, posten statt Punkt 1 nach der Hälfte abzubrechen und dann mit Punkt 3 weiter zu machen.
Nochmal: Sobald es einen Sinn ergibt, dass ich mir nen Quad zulege, werde ich nen Quad nachgeworfen bekommen. Da ein Quad aktuell keinen Sinn macht gibts den auch noch nicht für nen Zehner.

Du willst mir echt weiß machen dass Du dir nen Dualcore holst der ganausoviel kostet wie ein Quad???
Ja, weil ich beim DC für den gleichen Preis einen viel höheren Takt und einen niedrigeren Verbrauch bekomme.
Und wieso so unfaire vergleiche? Q6600 gegen E8400. Beide sollten gleichen Takt haben also ocen und dann könnt ihr vergleichen.
E8400 = 3GHz, kostet boxed 125 Euro
Für den gleichen Takt bräuchte ich nen Q9650 für 430 Euro, es wäre absolut unsinnig den zu vergleichen weil er mehr als das Dreifache kostet
Aber wenn du nen Q9650 für 125 Euro findest, dann gib mir Bescheid, dafür kaufe ich den natürlich gerne.

Ein Q6600 kostet 130 Euro, ist also der perfekte Vergleichskadidat für den E8400. Ich bekomme also für 130 Euro nen 3GHz 45nm DC oder nen 2,4Ghz 65nm Quad der real das doppelte bis dreifache verbraucht und nur bei den wenigsten aktuellen Programmen schneller ist, bei den meisten eher weit zurück liegt.
 
Centurio81 schrieb:
Was habt ihr immer mit dem Strom? Is das für euch ernsthaft nen Thema?!

Absolut, Energie ist eines der absoluten Top Themen. Sowohl Privat als auch im Beruf. Wenn ich 100 neue PC's anschaffen muss dann überlege ich sehr gut was an Stromkosten anfallen.
Und wenn ich Privat meine CPU Übertakte dann überlege ich ebenfalls sehr genau ob eine Steigerung von 3.5Ghz auf 4Ghz noch ökonomisch vertrettbar ist. Oder ob es Sinn macht, für die zwei drei Video Encodierungen die ich mir Jahr mache, eine CPU zu verwenden die im Idle 10 mal mehr Strom verbraucht als eine CPU die für meine alltäglichen Anwendungen noch dazu viel mehr Leistet.

Vergleich Stromverbrauch - E8500 <> Q6600

watt371.png



Hier nochmal einige Benchmarks die sehr gut verdeutlichen das manch ein Quad-Core Käufer wieder mal belogen und betrogen wurde. Trost bleibt, früher oder später werden auch Quad-Core's richtig genutzt werden, bei Dual-Core hat es auch einige Zeit gedauert. Dato bleibt der nutzen von 4 Kernen für Spieler auf zwei oder drei Spiele beschränkt.

hl2.png
wic.png


crysis.png
ut3.png


Wenn man natürlich täglich Video's encodiert. Dann macht ein Quad-Core bei entsprechendem Encoder schon Sinn.
Die Kollegen vom x264 Projekt machen da einen guten Job.

x264.png


Und wieso so unfaire vergleiche? Q6600 gegen E8400. Beide sollten gleichen Takt haben also ocen und dann könnt ihr vergleichen.

Jeder kann anhand dieser Werte auch so jeder über den Daumen abschätzen was bei gleichen Taktraten heraus kommt. Es ändert sich nichts, obwohl....

Es wäre unfair Intel's Marketing gegenüber, da das Bild dann noch schlechter für einen Quad aussehen würde.
4x 3,0GHz - 100 FPS
2x 3,0GHz - 100 FPS
äh... ja :D

Benchmark Quellen:http://xbitlabs.com
 
Zuletzt bearbeitet:
@Kivi 123
Tut mir leid, aber was du schreibst ist mit das dümmste was ich hier im Forum bis jetzt gelesen habe (ich nehme das Aquarium wissentlich in Kauf, aber das muss sein).

1.) Dein Q9450 ist nicht mal ansatzweise repräsentativ für die Übertaktungserfolge anderer Quads, da sind bei den bezahlbaren Quads in den seltensten Fällen mit Luftkühlung mehr als 3,6GHz hin.

2.) Warum bitte ist der E8400 im Vergleich zum Q6600 das "schlechtere Produkt"? Weil er in 95% aller Spiele schneller ist? Weil er weniger Strom verbraucht? Tut mir leid, du schreibst Mist.

3.) Warum bitte soll ich einen Q6600@3GHz mit dem E8400@3GHz vergleichen? Kann man den E8400 etwa nicht übertakten? Wäre mir neu.

4.) Zum Thema 4 Kerne zum Preis von 2: Zunächst einmal haben die 4 Kerne einen deutlich geringeren Takt als die 2 Kerne. Weiterhin sind in 95% aller Spiele die 2 zusätzlichen Kerne des Quads nichts weiter als unnötiger Ballast, der Wärme produziert und Strom verbraucht.

Vielleicht solltest du dir abschließend mal die von OSJF geposteten Benchmarks anschauen, um vielleicht selbst zu erkennen, was für einen Mist du hier postest. Wie du siehst ist selbst in UT3, also einem quadcoreoptimierten Spiel, ein Q6600 nur minimal schneller als ein E8500. Und so wirds bei Far Cry 2 auch aussehen. Und für diese 5 bis 10% Mehrleistung in einer absoluten Minderheit aller Spiele mehr Geld auf den Tisch zu legen und auch noch einen höheren Stromverbrauch in Kauf zu nehmen, das ist um es mit deinen Worten zu schreiben "echt dumm".
 
Zuletzt bearbeitet:
Kann da Melvin nur beipflichten.

Solange mein kein Video oder Audio Profi ist braucht man keinen Quad-Core, es sei den Mama und Papa zahlen die Stromrechnung :)
 
@Snoopmore
Du solltest den artikel lieber nochmal lesen bevor du andere als hirnlos hinstellst.
Mit deiner aussage hast du dich nämlich ziemlich blamiert.
Es stand: "es sei fraglich ob". Das heißt bei dir: es steht fest. Ähm ja.
 
Hallo zusammen,

@ Kivi 123

Ich nutze sowohl einen Dualcore- als auch einen Quadcorerechner. Den im Profil aufgeführten Dualcorerechner nur zum Spielen, der nicht einmal am Internet hängt.

Den Quadcoreprozessor beruflich für Video- als auch besonders für Bildbearbeitungsarbeiten. Ein Quad kann seine Vorteile in diesem Segment gerademal in voller Auslastung auf bis zu 5 Programmen ausspielen.

Bei Spielen sind es sogar noch weniger. Wenn du dir die Grafiken von @ OSJF mal anschaust, wird das auch mehr als deutlich.

Das Problem ist nunmal, der Aufwand 4 Kerne richtig auszunutzen, ist enorm aufwendig und damit kostenintensiv. Das wird sich in absehbarer Zeit auch nicht ändern, denn Basis ist nunmal das BS und selbst von Microsoft wird mehr als deutlich herausgestellt, daß XP als auch Vista sehr schlecht für Multi-Core ausgelegt ist.

Was deine Übertaktungserfolge mit deinem Quad 9450 angeht, bin ich leider auch am Zweifeln, ob das so stimmt, was du da angibst. Auf jeden Fall sind es eher wenige diesen Typs, welche solch Übertaktbar sind. Vom Kühlungsaufwand sowie dem enorm gestiegenen Stromverbrauch will ich gar nicht erst Anfangen.

Der macht sich nämlich im Angesicht der heutigen Stromkosten immens bemerkbar, wenn man den Rechner nur täglich den halben Tag laufen läßt. Das kannst du mir ruhig glauben, denn das ist bei meinem Arbeitsrechner jeden Tag mindestens der Fall und ich merke das spürbar an der jährlichen Abrechnung. Wobei ich fairerweise sagen muß, daß mein Quad ständig am Anschlag aufgrund irgendwelcher Renderarbeiten läuft.

So long.....
 
OSJF schrieb:
Absolut, Energie ist eines der absoluten Top Themen. Sowohl Privat als auch im Beruf. Wenn ich 100 neue PC's anschaffen muss dann überlege ich sehr gut was an Stromkosten anfallen.

Absolut verständlich.

OSJF schrieb:
Und wenn ich Privat meine CPU Übertakte dann überlege ich ebenfalls sehr genau ob eine Steigerung von 3.5Ghz auf 4Ghz noch ökonomisch vertrettbar ist. Oder ob es Sinn macht, für die zwei drei Video Encodierungen die ich mir Jahr mache, eine CPU zu verwenden die im Idle 10 mal mehr Strom verbraucht als eine CPU die für meine alltäglichen Anwendungen noch dazu viel mehr Leistet.

Nicht verständlich.
Also mir ist der Strom egal.
Und 10x so viel Strom is unsinn..
Wo zum Henker hast du die geilen Werte her? ^^
Ein 8500er im Idle 3,4 Watt:. :-D
 
Er bezieht sich vermutlich auf die Grafik ein paar Posts weiter oben, E8500 = 3,4Watt idle, Q6600 = 36,4W idle

btw, das sind natürlich die Werte für die CPU ohne den Rest vom System, aber abwegig sind die imo nicht, was aber daran liegt, dass der Q6600 deutlich schlechter ist als die 45nm Quads
 
Ich denke das sind unsinnige Werte wenn schon ein Intel ATOM grade mal..

1 Watt

benötigt, wird ein 8500er keine 3 Watt benötigen.
Das halte ich für ausgeschlossen..
 
Hallo zusammen,

@ Centurio81

Die Werte im IDLE für den C2D 8500 kommen auf jeden Fall hin, die 45 Nm Prozessoren haben sämtlich sehr viel bessere Stromsparmechanismen als die 65 Nm Prozessoren, zu welchen auch der Quad 6600 gehört.

Nicht verschwiegen werden darf an der Stelle aber auch, daß die 45 Nm Quad Prozessoren von Intel eben genau dieselben neuen Stromsparmechanismen integriert haben, wie die C2D 8000er Reihe. Mit anderen Worten, diese Quads ziehen auch erheblich weniger Strom als der Quad 6600, insofern ist der Vergleich in der besagten Grafik meiner Meinung nach nicht besonders fair zu Nennen.

Der Quad 6600 ist definitiv veraltet, insbesondere macht sich das mittels der Stromsparmechanismen bemerkbar als auch der Übertaktbarkeit.

So long.....
 
Zuletzt bearbeitet:
Hat jemand ein Strommessgerät an seinem Rechner..?
Mein PC hat im Idle nen Stromverbrauch von 140 Watt minimum.
Wie sieht das bei nem E8400 mit ähnlicher Grafik aus?

Ergebnisse .. ;)

Da dürfte ein Dual Core ja gradezu nix verbrauchen..und das bezweifel ich stark.
 
Hallo zusammen,

@ Centurio81

Im IDLE kann das auf jeden Fall bis zu 27 - 30 Watt weniger sein. Das ist sicher nicht Übertrieben. Das sollte in etwa hinkommen, den Quad 6600 als Vergleichsmaßstab genommen, wohlgemerkt.

So long.....
 
Zuletzt bearbeitet:
Centurio81 schrieb:
Also mir ist der Strom egal.
Und 10x so viel Strom is unsinn..
Wo zum Henker hast du die geilen Werte her? ^^
Ein 8500er im Idle 3,4 Watt:. :-D

Das sind Messungen von einer der angesehensten Tech-Sites im Internet, www.xbitlabs.com
Wie übrigens auch im Post ganz unten als Quellen-Angabe vermerkt. Defintiv kein unsinn!

Power Consumption Core 2 Duo E8500, E8400 and E8200

Power Consumption Intel Core 2 Extreme QX6700 and Core 2 Quad Q6600

Und ja, selbstverständlich sind das die Stromverbräuche der CPU allein, nicht des ganzen Systems.
 
ich war übrigens auf der GC in Leipzig bei EA und konnte dort Crysis Warhead anspielen und auch mal Leute von Crytek zur Rede stellen....

Dazu muss ich erstmal sagen, dass man nur Monitor, Tastatur und Maus sehen konnte. Der PC, auf dem Crysis Warhead lief, war in einer Holzkiste versteckt.

hier mal die Zusammenfassung meines Gespäches

Ich: Ist Crysis Warhead performance optimiert oder wird ein genauso schneller PC wie bei Crysis benötigt?

Crytek: sieh doch selbst (und zeigt auf den Monitor)!

Ich: ja läuft sehr flüssig, aber was für einen PC, CPU, Grafikkarte benutzt ihr?

Crytek: DAS DÜRFEN WIR NICHT SAGEN!


Na haben es alle begriffen?

Mal zum Verständnis....das Spiel sah gut aus, jedoch nicht überragend....alles noch weit vom dem entfernt, dass damals in der Techdemo als optimum präsentiert wurde.

Ich würde es auf 1680x1050 mit very High detail und und 2-4x AA und ggf. einchätzen bei 60FPS halt.

Warscheinlich haben die den Schnellsten Quadcore overclocked mit mindestens 2x 4870 oder 2x dem Nvidia Gegenstück laufen gehabt.


Soll ich jetzt froh sein, dass die mich nicht angelogen haben, oder soll ich beleidigt sein, dass die mich für so doof halten, dass ich mir mit meinem 1000-1500 Euro PC einbilde das Spiel auch nur annährend so schick und flüssig spielen zu können?
 
Hallo zusammen,

@ MD-Krauser

Wenn Crytek nichts aus dem Desaster mit Crysis gelernt hat, sind sie meiner Meinung nach selbst Schuld. Ich meine, Fehler sollten normalerweise dazu da sein, damit man aus ihnen lernt.

Sollte Crytek dazu nicht in der Lage sein, brauchen die sich auch nicht zu Wundern, daß es wieder nicht so oft gekauft wird, wie es der Fall sein könnte, wenn mehr auf die Leute, deren Rechner eingegangen wird.

So long....
 
Habe mir letzte Woche eine HD3850 (Passiv Gekühlt) von Sapphire zugelegt. Ich wollte Crysis eigentlich erst in ca. 1-2 Jahren Spielen wenn die nächste Graka kommt. Aber anlässlich der Diskussion hier habe ich mir jetzt mal Crysis Installiert.

Ich bin verblüfft wie flüssig das läuft. Und dabei habe ich natürlich auch einen Blick auf die CPU Kerne geworfen. Die sind immer bei 70-80%, beide.

P35 Chipset, 4GB RAM.
E2140 @ 2.8GHz
HD3850
Crysis - 1400x900 - alles auf mittel - texturen high, sieht ganz akzeptabel aus und wie gesagt super flüssig... nicht ein ruckler..... 30-50 FPS.

Kann mir nicht vorstellen wozu ich jetzt einen Quad-Core bräuchte. Höchstens für ein mittel großes VMWare-Labor aber dafür fehlt mir RAM :D
 
Centurio81 schrieb:
Hat jemand ein Strommessgerät an seinem Rechner..?
Mein PC hat im Idle nen Stromverbrauch von 140 Watt minimum.
Wie sieht das bei nem E8400 mit ähnlicher Grafik aus?
Recht seltsam.
Ist jetzt die Frage inwiefern das Powerplay deiner 4870 funktioniert.
Mit meinem E4400 (8W idle) und funktionierendem Powerplay (3850) komm ich locker unter 100Watt, mit der Config unten um die 85W idle.
Wenn Powerplay bei dir funktioniert ist der Wert ne Katastrophe, wenn nicht, dann ist der Wert dafür relativ super.
 
Zurück
Oben