Gaming tauglich?

Mal wieder so ein Toller Test wo ne Sparsame Intel Unterlage genommen wird und ein Stromfressendes AMD Mobo......
Der i5 2400 dürft so zwischen dem 2300 und dem 2500K liegen und demnach gerad mal 10Watt mehr unter Primelast verbrauchen.
http://ht4u.net/reviews/2011/amd_fx_6100_4100_review/index7.php
Und das der FX 6100 schwächer ist als der i5 2400......da kann ich vernünftige Tests nicht finden,sorry.
 
Zuletzt bearbeitet:
Was heißt vernünftige Tests? wenige Seiten weiter in dem Test, den du verlinkt hast, steht es doch recht eindeutig! :freak:

Die Diskussion bringt doch sowieso noch nichts, da der TE noch nicht mit seinem Budget gemeldet hat...
 
Also wurde deiner Meinung nach bei "allen" Tests auf einschlägigen Internetseiten "beschissen"?

Tut mir leid, wenn ich deine Aussage nicht für ganz voll nehmen kann, aber das klingt dann doch ein wenig zu sehr nach Verschwörungstheorie.

Wenn wir einfach ein paar Watt für das "stromfressende Mainboard" beim AMD Test abziehen, bleibt aber immer noch die eher geringe Leistung in Spielen, oder willst du mir erzählen, dass ein anderes Mainboard plötzlich auch mehr FPS bringen würde?
 
Nicht jeder Test,aber viele Testen nur Scheiß.
Dieser ist z.b. recht gut:https://www.computerbase.de/2011-11...iter-teil/6/#abschnitt_leistung_mit_aa_und_af
Ergänzung ()

Wobei dort auch mal wieder NUR mit 1680x1050 getestet wurd.
Ergänzung ()

Und eine Bestätigung:
I5 2500K : http://www.abload.de/image.php?img=residenevildx10undmaxojj30.png
http://geizhals.at/de/580328
vs
FX 8120@ 3,5GHz
http://geizhals.at/de/689394
Was soll man da für so ne Intelgurke mehr Zahlen,wenn diese nichtmal mehr bringt?!
Ergänzung ()

Das schlimme an der Sache ist,das selbst der FX 6100@3,5GHz ab 117EU keine Änderung verursacht.Bild 3
Erst der gut 90EU Günstigere FX4100 mit 3,5GHz Takt(bei mir)bremst die Graka leicht aus.Bild 4
 

Anhänge

  • RE5 DX10 Bench 3,5GHz.jpg
    RE5 DX10 Bench 3,5GHz.jpg
    317,8 KB · Aufrufe: 479
  • RE5DX10.EXE 2 .jpg
    RE5DX10.EXE 2 .jpg
    292,9 KB · Aufrufe: 484
  • RE5DX10.EXE 3 @x6.jpg
    RE5DX10.EXE 3 @x6.jpg
    292,8 KB · Aufrufe: 476
  • RE5DX10.EXE 4 @x4.jpg
    RE5DX10.EXE 4 @x4.jpg
    292,6 KB · Aufrufe: 488
  • RE5 DX10 Bench 3,5GHz@x4.jpg
    RE5 DX10 Bench 3,5GHz@x4.jpg
    310,9 KB · Aufrufe: 466
Zuletzt bearbeitet:
Danke für die Bilder/Tests (wobei der CB Test den 8150 behandelt, der nochmal eine ordentliche Ecke teurer ist). Ist auch interessant zu sehen, dass der i5 im Resident Evil (?) Benchmark kaum schneller ist, aber wie so oft ist ein Spiel allein nicht besonders aussagekräftig. Tom's Hardware (auch ein beschissener Test?) sagt, dass der 8120 im Durchschnitt 40% langsamer sein soll...

Wie dem auch sei, der AMD ist ausreichend schnell und etwas günstiger. Intel ist etwas flotter und teurer und hat evtl. die bessere Effizienz ;)

BTW: Es limitieren meist ohnehin die Grakas und genau das sollte beim CB Test ausgeschlossen werden, daher die relativ geringe Auflösung. Ist aber eigentlich schon immer üblich gewesen, das bei CPU Tests so zu machen...
 
Nen Stalker Bench hätte ich noch im Angebot,dort sind die min FPS ein wenig geringer(hab am anfang immer ein leichtes Stocken),der Rest ist auch leicht geringer,aber ob jetzt 65 oder 70 im Schnitt,spielt eh keine Rolle.Ist natürlich nicht soo einfach Passende Spiele(besser noch Benchmarks) mit passender HW zusammen zu bekommen.
Naja,wieso der FX 4100 und der FX 6100.....nicht nachgetestet wurde ist mir Schleierhaft,aber ich vermute mal das die Einstellung gegenüber AMD eh......ist.Man kann froh sein das überhaupt ein FX mitgetestet wurde.

Mit AMD Radeon HD 6950:http://ht4u.net/reviews/2011/amd_fx_6100_4100_review/index26.php
Was sagt dir dieser Test z.b.?

Mir sagt er das die Intel viele Bildchen bei 800x600 liefern.
Das AMD CPUs weniger Bildchen liefern,dafür aber weit aus nem Ruckelbereich raus sind.
Das die Intel bei 1650x1050 mal derbe einbrechen von den Bildchen her(2600K um 30 Bilder) und die AMD CPU durch die Bank die FPS halten aber immer noch hinter Intel liegen und dann?ENDE
Intel Sackt zu weit richtung AMD ab,wenn die Auflösung noch höher gehen würd,dann würde Intel warscheinlich nicht mehr so weit vorne liegen,warscheinlich sogar noch gleichauf mit AMD.....

Mit welcher Auflösung Spielst DU?
Ich Spiel ohne Probleme mit 1920x1080 ++...
Was bringt es mir dann in ner Auflösung zu Testen von 800x600 wo JEDE AKTUELLE CPU weit aus dem Ruckelbereich raus ist?!

Willst nicht wissen wie die Leistung deiner Zukünftigen CPU mit Realen Einstellungen(1920x1080 oder höher,mit AA und AF und .....)mit dieser und dieser Grafikkarte ist?!
Wofür kaufst dir dann ne Neue Graka und CPU?!Stell doch einfach die Auflösung Runter wie sie im Test verwendet wird.

Es ist natürlich auch klar,das viel für Intel geschrieben/Optimiert wird,siehe dieses Skyrim z.b.

Und die GPU Begrenzung kommt ja auch noch dazu.

Naja,dann kommen so Test wie 240Watt(Intelsystem) unter Spielelast mit ner 580 oder so,wo genau diese doch ALLEIN schon 240Watt unter Spielelast verbraucht und Bulldozer soll dann nochmal fast die gesamte TDP (125Watt) mehr Verbrauchen?!
Kommt mir recht komisch vor.......

Ich sag mal,mit den Dicksten Grakas,da kann man auch zum Intel greifen,Kohle ist da........

Aber bei z.b. 500EU auf biegen und brechen ne Intel CPU für 180EU rein zu bekommen mit ner mittelklasse Graka aller 6870/6950.....7850.... und dann beim NT,Case....Kühler zu Sparen.........wobei doch AMD Real nicht Schlechter ist.
Nen i3 zu empfehlen der in Ausgesuchten Test Noch gut Abschneidet,Real aber schnell an seine Grenzen kommt.....
 
Zuletzt bearbeitet:
Casi030 schrieb:

Interessant. Geh mal eine Seite weiter, da bricht Sandy noch viel weiter ein...

Casi030 schrieb:
Mit welcher Auflösung Spielst DU?
Ich Spiel ohne Probleme mit 1920x1080 ++...
Was bringt es mir dann in ner Auflösung zu Testen von 800x600 wo JEDE AKTUELLE CPU weit aus dem Ruckelbereich raus ist?!

Ich spiele in 1680x1050, das wurde ja noch getestet:D

Über die Sinnhaftigkeit von Benchmarks, inkl. Testszenarien in Spielen kann man immer streiten. Aber wie ich vorher schon gesagt habe, je höher die Auflösungen, desto mehr werden andere Komponenten abseits der CPU belastet und könnten so ein etwaiges Ergebnis (weiter) verfälschen.

Genauso gut kann ich fragen wieviel Sinn überhaupt etwa ein 3D Mark 2011 macht, außer seinen e-peen schwellen zu lassen, da er abseits von Gebrauchsszenarien läuft (außer für Leute, die sich den ganzen Tag Benches anschauen oder für solche, die das Weltraumspiel vom selben Entwickler gespielt haben^^).

Casi030 schrieb:
Es ist natürlich auch klar,das viel für Intel geschrieben/Optimiert wird,siehe dieses Skyrim z.b.

Das wäre wohl mal wirklich neu. Auf der anderen Seite allerdings ernsthaft nachvollziehbar, da es wohl mehr Quad- und Dualcores als Hexa- oder Octocores gibt => Parallelisierung ist weiterhin (v.a. bei Spielen) ein rar gesätes Gut, weshalb der Bulli mit seinen Modulen recht schlecht abschneidet (aber das ist nichts neues...).

Zum Stromverbrauch: Joa, klingt etwas merkwürdig, bin aber ehrlich gesagt gerade zu faul großartig andere Tests zu suchen. Wo hast du denn das mit den 240W her?

Casi030 schrieb:
Aber bei z.b. 500EU auf biegen und brechen ne Intel CPU für 180EU rein zu bekommen mit ner mittelklasse Graka aller 6870/6950.....7850.... und dann beim NT,Case....Kühler zu Sparen.........wobei doch AMD Real nicht Schlechter ist.
Nen i3 zu empfehlen der in Ausgesuchten Test Noch gut Abschneidet,Real aber schnell an seine Grenzen kommt.....

Pauschal kannst du das einfach nicht so behaupten. Ja, ich würde heutzutage für einen Desktop keinen Dualcore mehr kaufen, aber bevor irgendwas empfohlen wird, sollte man sich über die Gebrauchsszenarien informieren. Wenn jemand von einem Quad/Hexa tatsächlich nicht profitieren würde, warum sollte er dann einen nehmen?
 
jimknils schrieb:
Interessant. Geh mal eine Seite weiter, da bricht Sandy noch viel weiter ein...

Deswegen immer zu behaupten das Intel besser ist in Spielen,ist einfach .....
Aktuell bekommst doch kaum ein Spiel wo ne AMD CPU nicht locker mithalten kann.
Da sind die Unterschiede der Grakas und dessen Treiber doch viel größer.


jimknils schrieb:
Ich spiele in 1680x1050, das wurde ja noch getestet:D

;)
jimknils schrieb:
Über die Sinnhaftigkeit von Benchmarks, inkl. Testszenarien in Spielen kann man immer streiten. Aber wie ich vorher schon gesagt habe, je höher die Auflösungen, desto mehr werden andere Komponenten abseits der CPU belastet und könnten so ein etwaiges Ergebnis (weiter) verfälschen.

Genauso gut kann ich fragen wieviel Sinn überhaupt etwa ein 3D Mark 2011 macht, außer seinen e-peen schwellen zu lassen, da er abseits von Gebrauchsszenarien läuft (außer für Leute, die sich den ganzen Tag Benches anschauen oder für solche, die das Weltraumspiel vom selben Entwickler gespielt haben^^).

Das Problem ist nur im Realen Spiel,das du durch einen Waldweg Läuft mit CPU A.
Mit CPU B läufst die Gleiche Strecke nicht 100% so wie mit CPU A,am Linken Bild erscheinen mehr Bäume,die Sonne steht leicht anders,es müssen mehr Schatten berechnet werden.....
Jetzt Spielst das Spiel noch Online und es kommt die Internet Leitung,Server und und und hinzu als Störfaktor......
Da find ich die immer Gleichen Benchmarks wie den Resident Evil Bench(Test2),Alien vs Predator,der Stalker Bench und was man noch so frei bekommt viel besser.


jimknils schrieb:
Das wäre wohl mal wirklich neu. Auf der anderen Seite allerdings ernsthaft nachvollziehbar, da es wohl mehr Quad- und Dualcores als Hexa- oder Octocores gibt => Parallelisierung ist weiterhin (v.a. bei Spielen) ein rar gesätes Gut, weshalb der Bulli mit seinen Modulen recht schlecht abschneidet (aber das ist nichts neues...).

Zum Stromverbrauch: Joa, klingt etwas merkwürdig, bin aber ehrlich gesagt gerade zu faul großartig andere Tests zu suchen. Wo hast du denn das mit den 240W her?

Den hatte irgendeiner Verlinkt,um mal wieder zu zeigen wie Toll Intel ist.


jimknils schrieb:
Pauschal kannst du das einfach nicht so behaupten. Ja, ich würde heutzutage für einen Desktop keinen Dualcore mehr kaufen, aber bevor irgendwas empfohlen wird, sollte man sich über die Gebrauchsszenarien informieren. Wenn jemand von einem Quad/Hexa tatsächlich nicht profitieren würde, warum sollte er dann einen nehmen?

I3 ist gut für nen kleinen Office Rechner mit wenig Verbrauch dank HT.
Für das Spiel zwischendurch mit kleiner Grakas.
Aber doch nicht für nen Gamer Rechner,da würd ich kaum noch nen Quad empfehlen wenn die Graka über ne 6870/7850 hinaus geht,wie es viele empfehlen nur um den Preis zu schafen.....

Aber auch beim Office/HTPC würd ich nicht zum Dual greifen weil diese meist mehr verbrauchen als ein Quad.
Ergänzung ()

Ist natürlich jetzt ein Krasses Beispiel,aber normal sollt ein Virenscanner sein Dienst ohne (ne jetzt nicht ich will Spielen und du raubst mir die Leistung)verrichten können.Auch laufen jedemenge andere Programme im Hintergrung die mal dazwischen funken........Mit Leistungsreservern hast halt Leistung......
Ergänzung ()

Spiel war beim Test NFS World.
Ergänzung ()

Auf die Frage,Wiso braucht ein Quad weniger........man muss natürlich immer sehen was ich brauche,aber dank Energiesparoptionen,kann man den Takt begrenzen oder halt auf Höchsttakt schalten lassen......
Ist jetzt x2 vs x3

Mehr Rechenleistung,weniger Verbrauch und dank Windows wird ja auch gut auf Kerne verteilt.
 

Anhänge

  • Kein Problem.jpg
    Kein Problem.jpg
    300,1 KB · Aufrufe: 490
  • x2 3,4GHz Cinebench 131Watt.jpg
    x2 3,4GHz Cinebench 131Watt.jpg
    303,3 KB · Aufrufe: 481
  • x2 3,4GHz Cinebench.jpg
    x2 3,4GHz Cinebench.jpg
    247,8 KB · Aufrufe: 462
  • x3 2,6GHz Cinebench 111Watt mehr Leistung.jpg
    x3 2,6GHz Cinebench 111Watt mehr Leistung.jpg
    303,5 KB · Aufrufe: 472
  • x3 2,6GHz Cinebench.jpg
    x3 2,6GHz Cinebench.jpg
    253,7 KB · Aufrufe: 484
Zuletzt bearbeitet:
Zurück
Oben