Vorschlagthread: Welche Benchmarks bei Graka-Artikeln auf CB?

Find die Idee auch gut. Außerdem ist FurMark für die Temps besser, das haut viel mehr rein als irgendein Spiel.
 
Chirvan schrieb:
DiRt - war schon mal drinn, flog aber raus - GRID benutzt die selbe Engine
Grid - ist dabei
COD 4 und 5 - 5 ist drinn - selbe Engine, eins reicht
Crysis und Crysis Warhead - Warhead ist dabei
Farcry 2 - ist dabei
Bioshock - ist auch dabei
3D mark 06 und Vantage - 06 ist mittlerweile ein CPU-Bench geworden
NFS Undercover - :kotz: - so ein vermurkstes und schlecht performendes Spiel?

***
 
also ich hätt gern nen titel mit der source engine

zb Left4Dead
 
Tobi41090 schrieb:
das gehört jetzt nicht genau zu Benchmarks aber ich würde es nicht schlecht finden, wenn man bei der Leistungsaufnahme anstatt UT3 einfach hergehen würde und Prime(für CPU) und Fur Mark(für die Grafikkarte) laufen zu lassen also gleichzeigit. Dann ist besser zu erkennen, welche Leistung das System wirklich braucht bei wirklicher Vollast. Bei UT3 z.B. läuft der Quad Core ja nicht mal auf halber Leistung. Da laufen vielleicht 2 Kerne mit 75% und die anderen zwei sind im IDLE. Das gleiche bei den Grafikkarten. Bei Fur Mark werden die Grafikkarten deutlich besser ausgereitzt als bei einem Spiel, das den Stromverbrauch simulieren soll.
Würde im übrigen vielleicht auch bisschen Zeit sparen einfach zwei Programme anzuwerfen und bisschen laufen zu lassen.

Sorry, wenn das schon mal gefragt und abgeleht wurde. Dann bitte ignorieren oder löschen.

@CB (Wolfgang)?

Was haltet ihr von dem Vorschlag?
 
Tobi41090 schrieb:
das gehört jetzt nicht genau zu Benchmarks aber ich würde es nicht schlecht finden, wenn man bei der Leistungsaufnahme anstatt UT3 einfach hergehen würde und Prime(für CPU) und Fur Mark(für die Grafikkarte) laufen zu lassen also gleichzeigit. Dann ist besser zu erkennen, welche Leistung das System wirklich braucht bei wirklicher Vollast. Bei UT3 z.B. läuft der Quad Core ja nicht mal auf halber Leistung. Da laufen vielleicht 2 Kerne mit 75% und die anderen zwei sind im IDLE. Das gleiche bei den Grafikkarten. Bei Fur Mark werden die Grafikkarten deutlich besser ausgereitzt als bei einem Spiel, das den Stromverbrauch simulieren soll.
Würde im übrigen vielleicht auch bisschen Zeit sparen einfach zwei Programme anzuwerfen und bisschen laufen zu lassen.

Sorry, wenn das schon mal gefragt und abgeleht wurde. Dann bitte ignorieren oder löschen.

Hi Leute.

wie siehts jetzt aus^^? Fürde das schon für sehr Sinnvoll finden. @CB eure Meinung würde mich interessieren.

sry für DP aber der andere ist schon ne Zeit her.
 
wie wärs mal mit einem "OLDIE" test, also die alten grafikkarten mit neuen spielen, es kauft sich schließlich nicht jeder immer nur die besten grakas aus den tests oder hat eine ältere und möchte einen neuen monitor

die spiele zum testen sollen dann natürlich auch die aktuellen sein, für die alten gibts ja die alten tests auch
 
Tobi41090 schrieb:
Hi Leute.
wie siehts jetzt aus^^? Fürde das schon für sehr Sinnvoll finden. @CB eure Meinung würde mich interessieren.
sry für DP aber der andere ist schon ne Zeit her.
Ich distanziere mich gerne vom Furmark und werde es auch in Zukunft tun. Dementsprechend wird es sowas in den Tetss nicht geben. Fur erzeugt einfach eine Last, die für sämtliche, moderne Programme absolut nicht normal ist. Wer weiß, was das Programm da genau tut.

Darüber hinaus wollen wir die Leistungsaufnahme mit echten Spielen messen, so wie man es später meistens dann auch hat und nicht mittels irgendwelcher synthetischen Programmen.
 
dann weiß man aber nie, wie viel Watt das System maximal aufnehmen würde. Gerade bei Grafikkarten wäre das wichtig, weil sich einige sehr schwer tun ihr Netzteil auszuwählen und dadurch das Ergebnis eigendlich gefälscht wird. Was nützt es, wenn man spielt und dann reicht das NT noch. Und dann, wenn man mal noch was lastiges im Hintergrund laufen lässt stürtzt der PC ab. Klar geht es hier nicht direkt um Netzteile aber dann bräuchte man die Leistungsaufnahme gar nicht messen.
 
Das ist ein etwas problematisches Thema zum einen hat Wolfgang recht. Prime + FurMark würden werte ergeben die in Realität wohl kaum erscheinen könne. Anderseits hat Tobi recht das mit Spielen alleine die Hardware nicht an die grenze kommt und somit die Verbrauchsdaten für den Moment realistisch sind aber mit Veränderung der Anwendung können auch höhere Zahlen rauskommen können. Lösung? Wie wäre es wenn beides im Artikel vorhanden ist? Also Verbrauch real Anwendungen und Verbrauch syntetisch? Den den Einwand mit den Netzteilen teile ich. Man sollte hier lieber nach syntetischen Werten schaun beim Kauf von NT damit man ein passendes Polster hat.
 
das gleiche gilt eigendlich auch für die Temperaturen der Grafikkarten^^. Auch Crysis bringt eine GPU von der Temperatur her nicht so hoch wie FurMark.
 
Was bringt einem Furmark wenns nie etwas reales geben wird, was die graka so auslastet wie dieses. Furmark ist völlig überbewertet und nutzlos. Ich bin froh, dass Wolfgang das genauso sieht.

Allerdings hoffe ich, dass das bei cpus auch so gemacht wird, da habt ihr ja Core2MaxPerf erwähnt und wolltet es gerne nutzen, in meinen Augen ist das aber genauso weit vonner realität entfernt wie Furmark. Prime ist zwar schon besser, aber nen realer bench wäre am besten, genauso wie mal nen bench der die Cpu bei teillast zeigt. Bei spielen zb läuft ne Cpu schließlich inner regel eher auf teillast, da nur auf dual-cores optimiert wurde, da wäre sowas zb ne möglichkeit.
 
@AffenJack,

dann weiß man aber nie, wie viel Watt das System maximal aufnehmen würde. Du weißt ja nicht, welche Spiele demnächst kommen. Dann lastet ein Spiel mal 3-4 Kerne aus(GTA4) kommt schon nahe hin und ist zwar leider bisschen Grafik schwach. Dann kommen spiele mit mehr Auslastung und dann reicht das Netzteil plötzlich nicht bzw. es gibt FPS Einbrüche, weil die Grafikkarte nicht mehr so viel Strom bekommt. Was nützt mir dann die derzeitige Leistungsaufnahme von CB?
 
Naja, der test soll dir ja auch nicht genau sagen, was du fürn netzteil wählen sollst, sondern nur im vergleich den verbrauch der grafikkarten anzeigen. Immo sollte man eh netzteile immer so wählen, dass sie im maximalen nicht mehr als 80% belastet werden um noch bissl luft nach oben zu haben. Da sollte man dann auch mal auf die hersstellerangaben angucken, was die zu der graka schreiben.

Bei cpus könnte man zur not auch 4thread prime, bzw 8threads beim i7 als maximalbelastung da lassen. Aber selbst wenn man nicht viel aufwand haben will, sollte man dann 2threads prime auch mit rein nehmen um zu zeigen wieviel quads bei dual-core programmen verbrauchen. Dann gäbe es den irrglauben nicht mehr, dass der verbrauch soviel höher als beim dual ist. Das ist nämlich nur bei quadoptimierten programmen der fall, denn die heutigen cpus ham verdammt gute stromsparmechanismen für inaktive cores. Immo ignoriert man das aber einfach.
 
Auf die Netzteilangaben der Grafikhersteller würde ich nie vertrauen. Was hilft dir das, wenn ein 600W Netzteil angegeben wird und du baust ein LC Power mit 1000W ein und er bricht trotzdem zusammen?

Was man aber nicht herausbekommt, ist, wie viel das System oder auch wenns nur die Grafikkarte an Leistung aufnimmst, wenn sie mal voll ausgelastet ist.
 
Servus

Der Testparcour an Spielen etc, der für die Benchmarks genutzt wird, finde ich soweit in Ordnung.

Allerdings wäre eine Änderung der getesteten Auflösung meiner Meinung nach angebracht.
Die Auflösung 1280x1024 könnten ihr zu Gunsten von 1920x1200 wegfallen lassen.

1280x1024 finde ich absolut nicht mehr zeitgemäss bei den Grafikkarten, welche meist getestet werden. Alles ab 9800/HD4850 langweilt sich doch bei der kleinen Auflösung.

(Sry, aber ein GTX285 SLI-Test in 1280x1024 is wohl n witz mit anlauf, keiner der sich sowas leistet oder ne hd4870x2, gtx295.... wird vor nem 19" mit der auflösung sitzen oder er hat nur nen kopf, damit es nicht in den hals reinregnet)

Und bei den heutigen stark gesunkenen Preisen setzt sich doch immer mehr 22" mit 1680x1050 als Mainstream durch, ja selbst 24" und 26" kosten immer weniger und sind preiswert.

Also von meiner Seite aus hätte ich lieber gerne Tests mit 1680x1050 / 1920x1200 / 2560x1600. Alte Zöpfe muss man hin und wieder abschneiden.

Grüßle
 
Wird alles so bleiben, da 1280x1024 noch von sehr vielen genutzt wird.

In naher Zukunft wird es bei diesen 3 Auflösungen bleiben.
 
Mein Monitor wird eine Auflösung von 1900 x 1200 haben....
Dann kann ich immer das arithmetische Mittel zwischen 1680 x 1050 und 2560 x 1600 ausrechnen!xD
 
Zurück
Oben