Test Elf CPUs von Athlon bis Phenom im Test: Vier Kerne für ein Halleluja?

Ja genau, wieviel schneller (besser) sind sie denn???
Aber leider noch zu teuer!!
 
Der test was Sehr schön Danke, da ich mir den 9850 ja kaufen möchte.
Ich finde mann kann an Hand des Bios Update F3 sehen das es schon ein test war der nicht vor 2 tagen gemacht worden ist und der auch seine zeit in Anspruch genommen hat. das es bis jetzt ja schon das Bios F4f und danach das F4 rausgekommen ist für das Mainboard und ich glaube das auch da die angeschprochenen kleinen fehler schon etwas behoben worden sind.
 
Zuletzt bearbeitet:
@ Volker

Ich habe mir diesen Thread nicht durchgelesen.
Ich möchte nur folgendes sagen: Es ist äußerst unglücklich bei den Spielebenchmarks
nicht die schnellste Graka zu nutzen, denn die Ati limitiert unübersehbar.
Damit ist die Aussagekraft dieses Tests nahe der Nullgrenze wiederzufinden, sehr schade.
Des Weiteren sollte bei den Spielebenchmarks die möglichst niedrigst einstellbare Auflösung gewählt werden.

Grüße
 
Zuletzt bearbeitet:
Leider vermisse ich im Test noch wenigstens einen aktuellen Intel Core2 wie den 8400 der oft mehr leistet
als ein Phenom 9950 und trotzdem billiger und sparsamer ist...
Schlimm finde ich auch das der alte Core Quad mit 2,4 Ghz dem Phenom mit 2,6 Ghz gefährlich werden
kann - hier liegt noch viel Arbeit für AMD an...
 
Zuletzt bearbeitet:
@DasWams

Wenn die Cpu-Leistung z.B. um 10% gesteigert wird, die Framerate allerdings
gar nicht oder nur um max. 2-3% (wie im Test), dann hat die Graka ihren Zenit erreicht.

In einem CPU limitierten Spiel wäre es umgekehrt. Du kannst verschieden schnelle
Grakas in das System stecken, wenn die CPU am Zenit steht, dann wirst Du annähernd
die selben Frameraten erzielen, obwohl die schnellste Graka z. B. 50% schneller als
die langsamste ist.
 
Zuletzt bearbeitet:
Da ist doch dann das einzig nennenswerte Beispiel Crysis in 1280x1024. Wo alle Prozessoren fast gleich auf sind. Ungenauigkeiten von 0,5 Fps, wenn ich mich richtig errinnere.
Die Messung war ja auch eher dazu gedacht zu zeigen, wie Grafiklimitiert heutige Spiele sind und nicht um zu zeigen, wie schnell oder langsam eine HD2900XT ist.
Deswegen gibt es ja bei Crysis auch noch den Benchmark in 800x600 mit minimalen Details, wo gezeigt wird, wie schnell, langsam ein Prozessor ist. Und bei diesen Settings limitiert die Graka vielleicht noch, aber letztendlich hat man das gezeigt, was man zeigen wollte.
 
MP3 Benchmarks:
Von dieser experimentellen Alpha-Version stehen Versionen mit Intel- und Microsoft-Compiler für Windows x32 und x64 zur Verfügung. Aufgrund der Performance testen wir die Version mit Intel Compiler.

Also mit solchen Aussagekräftigen Programmen testet Ihr die Performance?
 
Zuletzt bearbeitet:
@DasWams
Aber genau darum geht es doch.
Niemand bestreitet doch das Intel bei der Rechenleistung momentan die Nase vorne hat.

Es kauft sich aber doch niemand eine 2900XT oder stärkeres um Crysis in 8x6 zu zocken.
Man muss einfach unterscheiden welchen Zweck die CPU erfüllen soll.
Bei einem Spielerechner ist es mit Sicherheit Sinnvoller die gesparten Euros in eine bessere Grafik zu stecken,da hat man mit Sicherheit mehr von.
In einem Multimediarechner oder einer Workstation sieht das halt wieder anders aus.
 
Man kann eben nicht behaupten eine schnellere Grafikarte ist wichtiger als eine CPU.
Erst mal kommt es auf das Spiel an, dann sind besonders die minFPS wichtig, hier sieht man nur die avgFPS.

Oblivion: selbst ein 3Ghz C2D ist schnell am Limit, ja viel mehr als 30fps sind nicht drin.
Crysis: Schon mal fette Explosionen, mit viel Physik gehabt? Da hilft nur massig CPU Power.
Supreme Commander: Ohne Worte, da brauchst einen superdicken Quad.
TF2: Viel Spass, mit einem X2 oder Phenom schaffst du bei weitem keine 60fps.
CSS: siehe TF2, nur nicht ganz so krass
Anno1701: stellenweise recht stark limitert, da hilft auch ein 3Ghz C2D nicht, es sackt auf unter 20fps
.....
Kann man noch eine Weile fortsetzen, vielleicht mag ein Anderer fortsetzen? Die CPU gibt nunmal an wie schnell es rennt, da es nicht mal eben die Auflösung zu senken.
Die Grafikkarte kommt immer danach.
 
Ich helf dir mal unyu;)
http://www.pcgameshardware.de/?rewrite=aid,637474/Test/Benchmark/Assassins_Creed_im_PCGH-Test_DX10_schneller_als_DX9_-_aber_nur_mit_minimalen_Details/&menu=browser&image_id=797259&show=original

Man beachte, der quad hat 90% höhere min fps, obwohl die avg fps nur 25% höher sind

Das mag nen extrembeispiel sein, weil das auchn neues spiel ist, aber auch bei andern spielen ham quads höhere min fps.
Die avg fps testmethode ohne min fps ist bei spielen heutzutage einfach überholt und nicht mehr so aussagekräftig

Edit: Nach genauerem hinschaun verwirrt mich der pcgh-test aber doch und kann auch nicht ganz stimmen, wieso sollte nen schnellerer cpu kleinere min fps als die niedriger getakteten haben, das haut auch net hin, ok
 
Zuletzt bearbeitet:
Aber auch da tritt ein E6400 gegen einen x²3800 an,der zum Zeitpunkt des Testes 150% mehr gekostet hat. (150-60€)
Außerdem geht auch hieraus nicht hervor wie sich die einzelnen Probanden bei "normalen"
Grafikeinstellungen schlagen.

@AffenJack
Wie kann es sein das ein E6600 weniger min. FPS hat als ein X²6000?;)

Edit2:Sorry,hab dein edit nicht gelesen.
 
Zuletzt bearbeitet:
Was glaubst du denn, was bei "normalen Eisntellungen passiet?"
Steigen werden die FPS nicht und die Grafik hochzuschrauben bis zum Grafiklimit macht keinen Sinn, denn dann hast du eine Diashow.

Wie gesagt es sind meine Erfahrungen, die ich nicht alleine habe.


Affenjack: Neuer Versuch. ;)
 
In den tests von 3d-center ist die Grafik glaube ich sogar auf höchsten einstellungen, damit die cpu voll belastet wird. Nur die Auflösung ist so gering gewählt, weil bei der nur die grafikkarte eine rolle spielt genauso wie beim aa und af. Daher sollte ne höhere auflösung da überhaupt nix dran ändern. Man sieht in welchen situationen die cpu limitieren würde.

Das gute ist ja bei den 3d-center tests das es reale savegames sind die getestet werden, die timedemo methode zeigt fast nie cpu-limits auf.Die reale belastung ist viel höher, was man auch oft an den viel höheren frameraten in timedemos im vergleich zum normalen spiel sieht.
Leider macht sich halt kaum wer die mühe, mit saves zu testen weil viel aufwendiger ist.
 
Zuletzt bearbeitet:
safran74 schrieb:
MP3 Benchmarks:

Also mit solchen Aussagekräftigen Programmen testet Ihr die Performance?

Was ist daran nicht zu verstehen. Es ist ein Testprogramm das Multicore-fähig ist, aber leider nur in dieser frühen Alpha-Version. Und da es nur wenige Anwendungen gibt, die sowas überhaupt machen, ist es dabei. Und du geilst dich nun in einem AMD-Test an dem Intel-Compiler auf oder wie? Dass der MS-Compiler schlichtweg schlechter ist, kommt dir natürlich nicht in den Sinn und deshalb sollen wir auch keine Multicore-Tests machen, wenn wir CPUs mit vier Kernen testen. Und man sieht im letzten Test doch, dass die AMD-CPUs davon profitieren und gehörig näher an Intels CPUs heranrutschen. Man man Fanboys eh, immer die Brille auf...
 
Wenn ich mir die Preis-Leistungsdaten so anschaue, bin ich mit meiner neuesten Anschaffung eines 5200+, 2x2,7GHz@65W für 71,- doch recht zufrieden. Quadcores werden erst mit deutlich multicore-optimierten Anwendungen und sparsameren Fertigungsprozessen, lies 45nm oder weniger, interessant.

Da hat Intel mal wieder einen Vorteil. Zum Ende des Jahres wird auch noch architektonisch nachgelegt. AMD sollte besser mal die eigene Roadmap einhalten und noch '08 den eigenen, überarbeiteten 45nm-Quad bringen.

Chipsatzseitig ist der 780G immerhin aktuell konkurrenzlos. Womit wir ins OT abdriften: hat mit der HD3200 schon mal wer die Ping-Pong-Demo getestet? :D
 
Benchmarks sind leider sehr leicht manipulierbar:

Hier mal ein paar überspitzte Thesen:

Intel baut die letzten Schrottprozessoren, die in Nero Recode eine so unterirdische Pro-Takt-Leistung haben, dass der Phenom um gleich getaktete 9xxxer Kreise läuft. Bei einer 4-Sockel-16-Core-Konfiguration kann ein ähnlich geartetes Programm auf einem Barcelona/Phenom jeden Xeon auch mit 4GHz überflügeln. (In solchen Spezialfällen werden die Firmen und Institute auch AMD-Hardware anschaffen)

Von guten SuperPi-Ergebnissen ist noch nie ein H.264-Film schneller fertig geworden. Bis auf ein paar Mathematikprofessoren interessiert es keinen.

Wenn unter den Photoshop-Kunden selbst zu besten AMD-Zeiten mindestens 75% auf Intel gesetzt haben, dann kann man ein Phenom-optimiertes Photoshop in diesem Jahrtausend nicht mehr erwarten. Der Benchmarknachteil ist vorprogrammiert.

Macht eine Firma wie RAR-Soft regelmässige Updates, so liegt ein Phenom mit einem Intel-Quad pro Takt fast gleichauf, während ein Cinebench aus 2007 vom Phenom und Barcelona keinen Schimmer hat. Wenn man sich wirklich mal anschaut, wann der Cache überläuft, wann zur Berechnung ein paar Takte mehr notwendig sind, wann die Sprungvorhersage falsch ist, ist wahrscheinlich auch bei einem Phenom noch viel rauszuholen.

Das soll als Denkanstoß mal reichen. Hier im Forum hat jedenfalls jeder seine eigene Wahrheit. Diese Standardbenchmarks ohne Zugriff auf Quellcodes bringen jedenfalls nicht die Klarheit, wieso der Phenom manchmal tolle Leistungen zeigt und in Company of Heroes ein solch katastrophales Ergebnis einfährt.

Und jetzt noch etwas zur Rettung der Progamer:
Sie haben evtl. nicht die richtige Erklärung für das Phänomen, dass sie mit mehr FPS mehr Frags schaffen und länger überleben, aber es existiert wohl wirklich.

Ich selbst merke auf meinem Sockel A-System mit GF7600GT unter UT2004 seit dem Grafikkartenupdate eine viel geringere Latenz zwischen Maus, Tastatur und der Bewegung auf dem Bildschirm.

Ich nehme jetzt einfach mal an, dass mit jedem gerenderten Frame ein Tastendruck und eine Mausabtastung vorgenommen wird und für evtl. benötigte Zwischenergebnisse linear interpoliert wird.

Der eine spielt mit 60 FPS Rendering und 60HZ Monitor, der andere mit 180FPS-Rendering und 60HZ Monitor:

Bei Racern wie NFS mit 100m/s (360km/h) legt man dann in der virtuellen Welt zwischen 2 Lenkbefehlen schon 0,556 und 1,667 m zurück. Der Unterschied reicht schon, um über die Abweiser ins Grün von der Strecke zu fliegen.

oder

Bei UT2004 reicht es, um tödlich getroffen oder per Strafe verfehlt zu werden.

oder

Man steuert eine Stubenfliege mit aberwitzigen Beschleunigungen 2km Luftlinie in den Nordosten auf 10km Zickzackkurs mit einer Frequenz von 180 Hz. Wende ich auf diese Lenkbefehle einen 60Hz-Trigger an, kann es aufgrund der völlig anderen Informationen dazu kommen, dass die Fliege jetzt leider 1,2 km im Südwesten angekommen ist.

Legt man jetzt die Bilder der jeweiligen Fliegenposition übereinander, kann man sich wohl in etwas ausmalen, was auch bei UT2004 usw. über Leben und Tod entscheidet.

Dann bleibt noch die Frage, wie Spiele tatsächlich Rendering, Bildschirmausgabe, und Steuerung verarbeiten, welche Bilder Spieler A und Spieler B zu sehen kriegen und wo sie sich jeweils auf der Karte befinden.

Natürlich spielt auch die Physis eine Rolle, denn ein F1-Weltmeister kriegt es trotz 60Hz Sehfrequenz hin, in Monaco immer 10 cm an der Mauer vorbeizufahren und nicht um 1 Meter zu verfehlen. Unser Hirn scheint also noch mehr Möglichkeiten der Wahrnehmung und Vorausberechnung zu bieten.

Das ist eine Sache, die CB mal streng wissenschaftlich klären sollte, denn wozu leisten wir uns teure Hochschulen und Professoren, wenn wir sie nicht zu einer Zusammenarbeit für die Beseitigung unserer Bildungslücken nutzen?

Über einen entsprechenden CB-Bericht würde ich mich sehr freuen.
 
Zurück
Oben