Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Bericht: 1, 2, 3 oder 4 CPU-Kerne?
- Ersteller Wolfgang
- Erstellt am
- Zum Artikel: Bericht: 1, 2, 3 oder 4 CPU-Kerne?
M
Maik.x
Gast
@xp_home
deine Aussagen zeigen wunderschön das du es nicht verstehst es geht nicht um den unterschied der FPS sondern der Taktrate der CPUs
deine Aussagen zeigen wunderschön das du es nicht verstehst es geht nicht um den unterschied der FPS sondern der Taktrate der CPUs
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
@Maik.X
Deine Aussage zeigt wunderschön, dass du nicht verstehst, dass du realen Nutzen nicht von sinnfreien Aussagen trennen kannst. Das einzige, was der Übertaktungstest laut deinem Bild zeigt, ist das Supreme Commander durch die Parallelisierung so schlecht programmiert ist oder doch die Grafik Stellenweise limitiert, das eine Erhöhung der Taktraten von 2,4 Ghz bei einem Q6600 auf 3,6 Ghz nur 2 FPS mehr bringt.
Deine Aussage zeigt wunderschön, dass du nicht verstehst, dass du realen Nutzen nicht von sinnfreien Aussagen trennen kannst. Das einzige, was der Übertaktungstest laut deinem Bild zeigt, ist das Supreme Commander durch die Parallelisierung so schlecht programmiert ist oder doch die Grafik Stellenweise limitiert, das eine Erhöhung der Taktraten von 2,4 Ghz bei einem Q6600 auf 3,6 Ghz nur 2 FPS mehr bringt.
M
Maik.x
Gast
@xp_home
LOL du bist lustig es geht darum das ich mit einem niedrigeren getakteten 4-Kern-CPU einen höheren getakteten 2-Kern-CPU schlage bzw gleich ziehe was uns zeigt das es Fälle gibt die auch von mehr Kernen Profitieren und nicht nur von mehr Takt.
LOL du bist lustig es geht darum das ich mit einem niedrigeren getakteten 4-Kern-CPU einen höheren getakteten 2-Kern-CPU schlage bzw gleich ziehe was uns zeigt das es Fälle gibt die auch von mehr Kernen Profitieren und nicht nur von mehr Takt.
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
@ Maik.X
lol, du bist so lustig, so was kann man gar nicht mehr toppen.
Das der Q6600 mit dem E6850 in Supreme Commander gleich zieht, habe ich doch schon selbst gesagt. Von "Schlagen" kann nicht die rede sein, da ein in einem Test der Q6600 knapp verliert und bei einem anderen Test knapp gewinnt. Vielleicht solltest du dir meinen Beitrag, wo ich geschrieben habe, dass der Q6600 nicht schneller als der sparsame E6850 sogar in einem für Multi-Core-optimierbaren Spiel ist, noch mal durchlesen.
/edit
Guter Link, Unyu, nur kann ich dir sehr viel mehr Links posten, in dennen der E6850 gegen den Q6600 gewinnt. So etwas wie auf dem Link ist eher Ausnahme. Man sieht aber auch sehr schön, dass wenn mal ein Spiel richtig gutes Multitrheading kann, dann gewinnt der gleichgetaktete Phenom über Intels Quad auch öfters. Im Desktopsegment ist deswegen der Q6600 auch der Sieger, ganz anders sieht es dagegen im Serversegment aus. Weil eben vieles im Desktopsegment nicht so weit Multithreaded ist. In Single Threades Applikationen profitiert der Q6600 im Vergleich zum Phenom durch mehr Cache und der FSB-Limmit fällt sehr viel weniger ins Gewicht...
lol, du bist so lustig, so was kann man gar nicht mehr toppen.
Das der Q6600 mit dem E6850 in Supreme Commander gleich zieht, habe ich doch schon selbst gesagt. Von "Schlagen" kann nicht die rede sein, da ein in einem Test der Q6600 knapp verliert und bei einem anderen Test knapp gewinnt. Vielleicht solltest du dir meinen Beitrag, wo ich geschrieben habe, dass der Q6600 nicht schneller als der sparsame E6850 sogar in einem für Multi-Core-optimierbaren Spiel ist, noch mal durchlesen.
/edit
Guter Link, Unyu, nur kann ich dir sehr viel mehr Links posten, in dennen der E6850 gegen den Q6600 gewinnt. So etwas wie auf dem Link ist eher Ausnahme. Man sieht aber auch sehr schön, dass wenn mal ein Spiel richtig gutes Multitrheading kann, dann gewinnt der gleichgetaktete Phenom über Intels Quad auch öfters. Im Desktopsegment ist deswegen der Q6600 auch der Sieger, ganz anders sieht es dagegen im Serversegment aus. Weil eben vieles im Desktopsegment nicht so weit Multithreaded ist. In Single Threades Applikationen profitiert der Q6600 im Vergleich zum Phenom durch mehr Cache und der FSB-Limmit fällt sehr viel weniger ins Gewicht...
Zuletzt bearbeitet:
- Registriert
- Nov. 2002
- Beiträge
- 8.980
So, dann fangen wir mal an...
Der Artikel ist, wie leider nur die wenigen verstanden haben, KEIN CPU-Test. Der Artikel soll zeigen, wass einem Multi-Core-CPUs in aktuellen (und nicht in Zukünftigen) Spielen bringen und nicht, was sie eventuell in unrealistischen Situationen bringen. Aus diesem Grund haben wir uns für die Auflösung 1280x1024 entschieden, die für eine GeForce 9800 GX2 schon sehr klein ist. AA/AF haben wir noch Hinzugeschaltet, da die meisten so wohl Spielen werden.
Ich gebe zu, dass es in der Einleitung vielleicht nicht richtig rüber kommt, was dieser Artikel bringen soll. Wie gesagt, es handelt sich nicht um einen CPU-Test. Deswegen machen auch Sachen wie 800x600 mit Low-Details keinen Sinn. Und wenn man schon mit der schnellsten zur Zeit verfügbaren Grafikkarte in 1280x1024 ohne AA/AF keinen oder nur einen geringen (manchmal auch einen großen) Gewinn von Multi-Core hat, dann hat man es mit einer anderen genausowenig.
Bezüglich der Min-FPS. Ich habe schon mehrmals erwähnt, dass ich kein Freund von reinen Min-FPS-Angaben bin. Min-FPS sagen im Endeffekt noch viel weniger aus als Average-FPS-Werte. Es muss nur mal ein einziges Frame ruckeln und schon hat man einen schlechten Min-FPS-Wert. Die drei niedrigsten (oder ähnliches) zu nehmen bringt einem auch nichts, da kann ähnliches passieren, was dann aber nicht der Wirklichkeit entspricht. Wenn, dann machen wir Verlaufsdiagramme, was in meinen Augen die mit Abstand beste (und aufwendigste) Lösung ist. Da die Min-FPS je nachdem stark auf die CPU gehen, haben wir ja auch extra drei Verlaufsdiagramme angefertigt.
Was die SPieleauswahl angeht: Der Artikel ist nicht dazu da, um mit aller Gewalt zu zeigen, was Multi-Core-CPUs in Spielen erreichen können. Es soll nicht mit aller Gewalt gezeigt werden, was eventuell mal drin ist. Es soll gezeigt werden, was aktuell meistens der Fall ist. Und deswegen gibt es in dem Parcours "alte" Spiele, einigermaßen neue Spiele und neue Spiele. Für jeden ist etwas dabei und der Parcours trifft wohl auch auf die meisten Leser zu, was das Spieleverhalten betrifft.
Was ich, zumindest bedingt, auf meine Kappe nehmen muss, ist die CPU mit der Fequenz von 4 GHz. Es ist wirklich nicht optimal, den Test mit einer so hochgetakteten CPU zu machen, das ist richtig. Aber dadurch werden nicht alle Ergebnisse falsch, unrealistisch und wer weiß was ich noch. Wenn ein Spiel wirklich gut für Multi-Core optimiert ist, gibt es dennoch große Unterschiede. Assassins Creed ist da ein gutes Beispiel. Trotzdem uss ich euch teilweise recht gebe und werde mir den Einwand für zukünftige Tests dieser Art merken.
Der Artikel ist, wie leider nur die wenigen verstanden haben, KEIN CPU-Test. Der Artikel soll zeigen, wass einem Multi-Core-CPUs in aktuellen (und nicht in Zukünftigen) Spielen bringen und nicht, was sie eventuell in unrealistischen Situationen bringen. Aus diesem Grund haben wir uns für die Auflösung 1280x1024 entschieden, die für eine GeForce 9800 GX2 schon sehr klein ist. AA/AF haben wir noch Hinzugeschaltet, da die meisten so wohl Spielen werden.
Ich gebe zu, dass es in der Einleitung vielleicht nicht richtig rüber kommt, was dieser Artikel bringen soll. Wie gesagt, es handelt sich nicht um einen CPU-Test. Deswegen machen auch Sachen wie 800x600 mit Low-Details keinen Sinn. Und wenn man schon mit der schnellsten zur Zeit verfügbaren Grafikkarte in 1280x1024 ohne AA/AF keinen oder nur einen geringen (manchmal auch einen großen) Gewinn von Multi-Core hat, dann hat man es mit einer anderen genausowenig.
Bezüglich der Min-FPS. Ich habe schon mehrmals erwähnt, dass ich kein Freund von reinen Min-FPS-Angaben bin. Min-FPS sagen im Endeffekt noch viel weniger aus als Average-FPS-Werte. Es muss nur mal ein einziges Frame ruckeln und schon hat man einen schlechten Min-FPS-Wert. Die drei niedrigsten (oder ähnliches) zu nehmen bringt einem auch nichts, da kann ähnliches passieren, was dann aber nicht der Wirklichkeit entspricht. Wenn, dann machen wir Verlaufsdiagramme, was in meinen Augen die mit Abstand beste (und aufwendigste) Lösung ist. Da die Min-FPS je nachdem stark auf die CPU gehen, haben wir ja auch extra drei Verlaufsdiagramme angefertigt.
Was die SPieleauswahl angeht: Der Artikel ist nicht dazu da, um mit aller Gewalt zu zeigen, was Multi-Core-CPUs in Spielen erreichen können. Es soll nicht mit aller Gewalt gezeigt werden, was eventuell mal drin ist. Es soll gezeigt werden, was aktuell meistens der Fall ist. Und deswegen gibt es in dem Parcours "alte" Spiele, einigermaßen neue Spiele und neue Spiele. Für jeden ist etwas dabei und der Parcours trifft wohl auch auf die meisten Leser zu, was das Spieleverhalten betrifft.
Was ich, zumindest bedingt, auf meine Kappe nehmen muss, ist die CPU mit der Fequenz von 4 GHz. Es ist wirklich nicht optimal, den Test mit einer so hochgetakteten CPU zu machen, das ist richtig. Aber dadurch werden nicht alle Ergebnisse falsch, unrealistisch und wer weiß was ich noch. Wenn ein Spiel wirklich gut für Multi-Core optimiert ist, gibt es dennoch große Unterschiede. Assassins Creed ist da ein gutes Beispiel. Trotzdem uss ich euch teilweise recht gebe und werde mir den Einwand für zukünftige Tests dieser Art merken.
Fairy Ultra
Commander
- Registriert
- Sep. 2005
- Beiträge
- 2.850
der test ist jedenfalls besser als der AMD prozessor test
Allerdings verursacht der hohe CPU Takt, das die unterschiede geringer ausfallen, da mit höherer Gesamtleistung auch die effektive Nutzung in den Programmen sinkt.
sprich 2*2 ghz vs 4*2 ghz wäre der unterschied größer als bei 2*4ghz vs 4*4ghz.
Die Wahl der Auflösung ist immer ein kompromis:
Um die Unterschiede der CPU Leistung durch mehr Kerne zu zeigen müsste man natürlich CPU limitiert messen anderer Seits ist das natürlich realitätsfern
man sollte denke ich die auflösung so wählen die erreichte Framerate so sind das man gut und flüssig spielen kann am besten bei oder über 60fps liegt was gerade dann ein Spielen mit VSync möglich macht.
habt ihr eigentlich VSync an oder aus in den Spielen?
Die Verlaufsdiagramme finde ich jedenfalls sehr viel Aussage kräftiger als die Balkendiagramme ist gut so.
Allerdings verursacht der hohe CPU Takt, das die unterschiede geringer ausfallen, da mit höherer Gesamtleistung auch die effektive Nutzung in den Programmen sinkt.
sprich 2*2 ghz vs 4*2 ghz wäre der unterschied größer als bei 2*4ghz vs 4*4ghz.
Die Wahl der Auflösung ist immer ein kompromis:
Um die Unterschiede der CPU Leistung durch mehr Kerne zu zeigen müsste man natürlich CPU limitiert messen anderer Seits ist das natürlich realitätsfern
man sollte denke ich die auflösung so wählen die erreichte Framerate so sind das man gut und flüssig spielen kann am besten bei oder über 60fps liegt was gerade dann ein Spielen mit VSync möglich macht.
habt ihr eigentlich VSync an oder aus in den Spielen?
Die Verlaufsdiagramme finde ich jedenfalls sehr viel Aussage kräftiger als die Balkendiagramme ist gut so.
Zuletzt bearbeitet:
Christi
Fleet Admiral
- Registriert
- Dez. 2001
- Beiträge
- 10.988
nochmal zur cpu ich würde die nehmen, dafür bekommt computerbase meinen x2 ist das ein deal?
nochmal was zum sinn von multi-cores. für konsolenportierungen, die in nächster zeit immer häufiger werden, ist ein dualcore oder besser sowieso pflicht. die konsolen nutzen mehr kerne und somit auch die spiele. pc exklusivspiele werden leider immer seltener.
trotzdem erstaunlich was ein starker singlecore mit einer starken graka im stande zu leisten ist.
mfg
nochmal was zum sinn von multi-cores. für konsolenportierungen, die in nächster zeit immer häufiger werden, ist ein dualcore oder besser sowieso pflicht. die konsolen nutzen mehr kerne und somit auch die spiele. pc exklusivspiele werden leider immer seltener.
trotzdem erstaunlich was ein starker singlecore mit einer starken graka im stande zu leisten ist.
mfg
die auflösung ist nicht unbedingt das problem aber in verbindung mit average werten eben schon
denn wenn das spiel in wenigen situationen die cpu überfordert fließt das kaum ein, aber das spielerlebnis geht den bach runter wenn es jede minute mal anfängt zu stottern und das gerade dann wenn man ne horde monster ummähen will
ein verlaufsdiagramm oder angabe eines "unteren medians" (ähnlich wie bei fear) wäre optimal aber wie gesagt auch ziemlich aufwändig
minimum-fps halte ich auch nicht unbedingt für sehr sinnvoll
mir ner geringen auflösung würde man zeigen wie die spiele mit verschiedenen kernen skalieren.
das das nicht unbedingt ziel des artikels ist, ist auch ok. allerdings suggerieren das teile des artikels
das problem ist vll. das man mit dem test zeigt das die cpu fast völlig egal ist. das spiegelt aber imho nicht das reale empfinden beim spielen
wieder.
zB bei ut3: mit nem A64 3200+ ist das spiel nicht wirklich flüssig spielbar
ok nen core 2 bei 4ghz hat wohl deutlich mehr power, aber die 200fps im bench zeigen dass ein singlecore dicke ausreicht
denn wenn das spiel in wenigen situationen die cpu überfordert fließt das kaum ein, aber das spielerlebnis geht den bach runter wenn es jede minute mal anfängt zu stottern und das gerade dann wenn man ne horde monster ummähen will
ein verlaufsdiagramm oder angabe eines "unteren medians" (ähnlich wie bei fear) wäre optimal aber wie gesagt auch ziemlich aufwändig
minimum-fps halte ich auch nicht unbedingt für sehr sinnvoll
mir ner geringen auflösung würde man zeigen wie die spiele mit verschiedenen kernen skalieren.
das das nicht unbedingt ziel des artikels ist, ist auch ok. allerdings suggerieren das teile des artikels
das problem ist vll. das man mit dem test zeigt das die cpu fast völlig egal ist. das spiegelt aber imho nicht das reale empfinden beim spielen
wieder.
zB bei ut3: mit nem A64 3200+ ist das spiel nicht wirklich flüssig spielbar
ok nen core 2 bei 4ghz hat wohl deutlich mehr power, aber die 200fps im bench zeigen dass ein singlecore dicke ausreicht
Zuletzt bearbeitet:
- Registriert
- Nov. 2002
- Beiträge
- 8.980
Da die Kritik öfters aufkam: Wie gesagt, das ist kein CPU-Test, vielmehr ein "Spieletests mit Fokus auf Multi-Core". Und mit einer 9800 GX2 muss man in Crysis nicht unbedingt nur in High-Quality oder ähnliches Spielen. Very High ist da durchaus möglich."Als Benchmark verwenden wir nicht den integrierten Benchmark, sondern setzen auf eine eigens erstellte Timedemo in dem grafiklastigen Level „Ice“. Wir testen die auf Version 1.21 aktualisierte Vollversion des Spiels. Auch wenn die Einstellung „Very High“ für viele (vor allem günstigere) Grafikkarten unspielbar ist, haben wir uns dennoch für die höchste Qualitätsstufe entschieden, um selbst mit zukünftigen Grafikkarten keine CPU-Limitierung bei gewährleisteter Vergleichbarkeit zu schaffen."
ehm... in einem CPU-Vergleich ist das doch eine reichlich dumme Idee oder seh ich das verkehrt ^^
Was spricht denn groß dagegen? Die 9800 GX2 ist nunmal meistens die schnellste aktuelle Grafikkarte in "niedrigen" Einstellungen, auch wenn SLI genutzt wird. Und da auch der CPU-Aufwand bei SLI etwas steigt, sind Multi-Core-CPUs da eher noch im Vorteil.Toll, mit SLI die CPU-Auslastung testen.... 9800 GX2
Sowas macht man mit einer Single-Chip-Lösung. Ansonsten kann ja allein der Aufwand für SLI eine Steigerung bedeuten. Wertloser Test.
Und wie kommst du dadrauf? Das steht so im Fazit definitiv nicht drin.Das Testfazit ist ist in dieser Form kaum haltbar. Man könnte dort hineininterpretieren, dass Single-Kern-CPUs in neuen, aktuellen Spielesystemen ausreichen.
Du weißt aber schon, dass wir in dem gesamten Parcours nur noch vier Timedemos benutzen? Der Rest sind alles Savegames.3) Timedemos
Timedemos eignen sich leider auch sehr schlecht, um den Einfluss der CPU zu messen. Im Spiel selbst gibt es immer wieder Szenen, wo durch umfangreiche K.I.-Berechnungen die CPU deutlich stärker belastet wird, als in Timedemos. Natürlich ist es nicht immer zu machen, aber wo möglich sind Messungen mit Savegames aussagekräftiger.
VSync haben wir generell immer abgeschaltet.habt ihr eigentlich VSync an oder aus in den Spielen?
Genau deswegen gibt es in dem Artikel ja auch Verlaufsdfiagramme. Es sind eben nur drei, was aber schon aufwand genug waren. Und diese drei zeigen ja auch durchaus, dass es mit einer Single-Core-CPU jetzt auch nicht so dermaßen schlecht aussieht. Natürlcich ist man aber mit einer DC-CPU besser bedient.die auflösung ist nicht unbedingt das problem aber in verbindung mit average werten eben schon
denn wenn das spiel in wenigen situationen die cpu überfordert fließt das kaum ein, aber das spielerlebnis geht den bach runter wenn es jede minute mal anfängt zu stottern und das gerade dann wenn man ne horde monster ummähen will
ein verlaufsdiagramm oder angabe eines "unteren medians" (ähnlich wie bei fear) wäre optimal aber wie gesagt auch ziemlich aufwändig
Wenn das das Ziel des Testes war dann ist aber leider die Überschrift und die Einleitung Total schlecht gewählt.
Dann hätte es ehr heißen müssen:
Was für eine CPU leistung brauchen Aktuelle Spiele
oder sowas in der Art.
Denn mit Multicore Unterstützung hatte der Test nun wirklich nichts zu Tuen
Dann hätte es ehr heißen müssen:
Was für eine CPU leistung brauchen Aktuelle Spiele
oder sowas in der Art.
Denn mit Multicore Unterstützung hatte der Test nun wirklich nichts zu Tuen
Zuletzt bearbeitet:
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Wolfgang
Da musst du dich schon entscheiden:
-hohe Grafiklast und minFPS
-niedrige Grafiklast und avgFPS
Bei beiden Wegen gäbe es deutlich weniger Gemecker.
Hier im Artikel wird das Böse aus beiden Welten kombiniert: avgFPS und hohe Grafiklast.
Ich verstehe das die minFPS problematisch sind, deshalb gibts doch die Möglichkeit der Grafiklastsenkung. Die minFPS ohne Ersatz einfach unter den Tisch zu kehren ist der falsche Weg.
Da musst du dich schon entscheiden:
-hohe Grafiklast und minFPS
-niedrige Grafiklast und avgFPS
Bei beiden Wegen gäbe es deutlich weniger Gemecker.
Hier im Artikel wird das Böse aus beiden Welten kombiniert: avgFPS und hohe Grafiklast.
Ich verstehe das die minFPS problematisch sind, deshalb gibts doch die Möglichkeit der Grafiklastsenkung. Die minFPS ohne Ersatz einfach unter den Tisch zu kehren ist der falsche Weg.
- Registriert
- Dez. 2005
- Beiträge
- 1.203
Und wie kommst du dadrauf? Das steht so im Fazit definitiv nicht drin.
Im fazit stehts natürlich nicht so genau,aber auch da erwähnt ihr dass nen singlecore noch gut mitkommt.Dazu gibts dann noch die Performanceübersicht die ja so zeigt,dass nen singlecore kaum langsamer ist.
Das ist schonmal ne gute sache,hoffentlich fliegen die letzten Timedemos bald auch raus.Du weißt aber schon, dass wir in dem gesamten Parcours nur noch vier Timedemos benutzen? Der Rest sind alles Savegames.
Genau deswegen gibt es in dem Artikel ja auch Verlaufsdfiagramme. Es sind eben nur drei, was aber schon aufwand genug waren. Und diese drei zeigen ja auch durchaus, dass es mit einer Single-Core-CPU jetzt auch nicht so dermaßen schlecht aussieht. Natürlcich ist man aber mit einer DC-CPU besser bedient.
Das würde ich so einfach nicht unterschreiben können, weil der singlecore von euch einfach einen viel zu hohen takt hatte,wie du auch zugegeben hast und ihr so öfter am Gpu-limit hängt als es sonst wäre.
Die Unterschiede mit ner 2,5ghz getakteten Cpu zwischen singlecore und dualcore wären schon gravierend anders und man würde vll sogar schon sehen,dass nen singlecore sich überhaupt nicht mehr eignet um gut zu zocken(solange er nicht total übertaktet ist)
Verlaufsdiagramme sind aber auf jeden Fall das beste mittel zum anzeigen von solchen dingen.
Das find ich sehr gut,dass ihr die reingenommen habt und hoffe dass die auch bei solchen zukünftigen tests drins sein werden.
min Fps alleine sind auch nicht das gelbe vom ei
Zuletzt bearbeitet:
In meinen Augen sind es aber genau diese einzelnen ruckelnden Frames, die (sofern sie häufiger auftreten) störend auffallen. Wenn es ein einziger Frame ist, der auf Grund von Hintergrundaktionen anderer Software, schlecht abschneidet wäre das natürlich fatal dies als Min-FPS zu verkaufen. Wenn aber immer wieder entsprechende Min-FPS Werte gemessen werden würden, lässt das vermuten, dass hier doch Probleme auftreten, die in den average-FPS stark geglättet werden.Wolfgang schrieb:...
Bezüglich der Min-FPS. Ich habe schon mehrmals erwähnt, dass ich kein Freund von reinen Min-FPS-Angaben bin. Min-FPS sagen im Endeffekt noch viel weniger aus als Average-FPS-Werte. Es muss nur mal ein einziges Frame ruckeln und schon hat man einen schlechten Min-FPS-Wert. Die drei niedrigsten (oder ähnliches) zu nehmen bringt einem auch nichts, da kann ähnliches passieren, was dann aber nicht der Wirklichkeit entspricht. Wenn, dann machen wir Verlaufsdiagramme, was in meinen Augen die mit Abstand beste (und aufwendigste) Lösung ist. Da die Min-FPS je nachdem stark auf die CPU gehen, haben wir ja auch extra drei Verlaufsdiagramme angefertigt.
...
Die Verlaufsdiagramme sind den reinen Balkendiagrammen auf jeden Fall vorzuziehen. Dennoch weiß ich nicht, ob diese ausreichend genau sind bzw als alleiniges Bewertungskriterium verwendet werden können.
CroneKorkN
Cadet 2nd Year
- Registriert
- Sep. 2007
- Beiträge
- 22
Mich wundert, das der Triple-core so schlecht abschneidet. Hier skaliert die Leistung ja schlechter als beim Quad!
Ich habe vor einiger Zeit einen ähnlichen Test nur mit Bioshock durchgeführt, mit einem ausdrücklich anderen (imho wesentlich interessanteren) Schwerpunkt: Theoretische Leistung von Single-, Dual-, Triple- und Quad-Cores.
Bei mir hat die Leistung proportional mit den Kernen skaliert, so wie man es erwarten würde:
(links die FPS, unten der Takt, schlechteste Einstellung, 640*480, Durchschnitts-FPS natürlich)
Hier der ganze Mini-Test:
http://board.gulli.com/thread/849150-diskussionsrunde-zur-knowledgebase/11/#254
MFG CKN
Ich habe vor einiger Zeit einen ähnlichen Test nur mit Bioshock durchgeführt, mit einem ausdrücklich anderen (imho wesentlich interessanteren) Schwerpunkt: Theoretische Leistung von Single-, Dual-, Triple- und Quad-Cores.
Bei mir hat die Leistung proportional mit den Kernen skaliert, so wie man es erwarten würde:
(links die FPS, unten der Takt, schlechteste Einstellung, 640*480, Durchschnitts-FPS natürlich)
Hier der ganze Mini-Test:
http://board.gulli.com/thread/849150-diskussionsrunde-zur-knowledgebase/11/#254
MFG CKN
Zuletzt bearbeitet:
(proportional natürlich, nicht antiproportional)
und was ist das dann für eine timedemo bei ut3?Wolfgang schrieb:Genau deswegen gibt es in dem Artikel ja auch Verlaufsdfiagramme. Es sind eben nur drei, was aber schon aufwand genug waren. Und diese drei zeigen ja auch durchaus, dass es mit einer Single-Core-CPU jetzt auch nicht so dermaßen schlecht aussieht. Natürlich ist man aber mit einer DC-CPU besser bedient.
in realität ist das mit nem E7200 @1core nicht dauerhaft flüssig spielbar
es bricht immer mal ein so das es leicht ruckelt.
das verlaufsdiagramm zeigt das man ständig über 100fps hat und so ein dualcore schon überflüssig ist
es muss ja kein theoretischer test sein, aber dann sollte es komplett praxisnah sein
dieser benchmark ist es irgendwie net
o5i
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.046
@bensen
liegt daran das n flug durch ne leere map ohne gegner ohen alles gebencht wurde was asolut sinnlos ist und keinen brauchbaren rückschlüsse auf das spiel zulässt da es einfach keine fordernden szenen erzeugt
im test kamen sie so ja auch nur auf nen 2-11% vorsprung von single auf dualcore obwohl die engine 2 hauptthreads + diverse nebenthreads hat und somit von single auf dual deutlich skalieren sollte
liegt daran das n flug durch ne leere map ohne gegner ohen alles gebencht wurde was asolut sinnlos ist und keinen brauchbaren rückschlüsse auf das spiel zulässt da es einfach keine fordernden szenen erzeugt
im test kamen sie so ja auch nur auf nen 2-11% vorsprung von single auf dualcore obwohl die engine 2 hauptthreads + diverse nebenthreads hat und somit von single auf dual deutlich skalieren sollte
SirOPIUM schrieb:Die Verlaufsdiagramme sind den reinen Balkendiagrammen auf jeden Fall vorzuziehen. Dennoch weiß ich nicht, ob diese ausreichend genau sind bzw als alleiniges Bewertungskriterium verwendet werden können.
Wenn man die Verlaufsdiagramme ausreichend genau (hoch genug, breit genug, genug horizontale Zwischenstriche, ...) macht, bieten sie die größtmögliche Information aus einem Benchmark an: wie groß ist in jeder Sekunde Benchmarkzeit die entsprechende Framerate. Min- und Max-FPS sind dann der tiefste/höchste Punkt der Verlaufskurve. Imo würde es sich auch anbieten, die AvgFPS als horizontale Linie einzumalen.
Ähnliche Themen
- Antworten
- 2
- Aufrufe
- 2.807
A