Test AMD-Ryzen-Benchmarks: Spiele unter Windows 7, Core Parking und HPET analysiert

@Krautmaster
Ich glaube dass wir mitten in diesem Stadium sind:
https://en.wikipedia.org/wiki/Random-access_memory#Memory_wall
oder
https://en.wikipedia.org/wiki/Von_Neumann_architecture#Von_Neumann_bottleneck

Zitat:
Researchers expect that increasing the number of simultaneous instruction streams with multithreading or single-chip multiprocessing will make this bottleneck even worse

Es werden Kerne, Rechenleistung noch und nöcher draufgepackt- In wirklichkeit verbrät der Prozessor aber seine Leistung in Wartezyklen (entweder auf den Cache, CCX, Ram etc.).

Derzeit kann man den Effekt mit immer größeren Caches mildern. Ich halte das auf Dauer aber nicht für das richtige Mittel.
Der Speicher ist meiner Meinung nach lange Zeit viel zu stiefmütterlich behandelt worden...

Grüße
Zero
 
Zuletzt bearbeitet:
Thane schrieb:
@Kratumaster:
Hast du schon eine Idee, wieso du den Speicher nicht schneller bekommst?

vllt weil dual ranked?

@Ram.

Hochtaktender Ram ist unnötig teuer, gibts denn welchen der Prinzipiell (egal ob Intel / AMD) auch wirklich 4000Mhz zum kleinen Preis OC mitmacht?

Edit.

Mit Tripplechannel an X99 scheints faktisch gegen 0 zu bringen
http://techbuyersguru.com/gaming-ddr4-memory-2133-vs-26663200mhz-8gb-vs-16gb?page=1

wobei eine Seite später auch die Benches am i7 S1151 gegen 0 Gewinn rauslaufen ... hmm, GPU Limit würde ich sagen...

Edit:

Auch hier recht fette gewinne bei 3000 Mhz
http://techreport.com/review/31179/intel-core-i7-7700k-kaby-lake-cpu-reviewed/11

Schade dass man das nicht auf Anwendungs Benches ausdehnt.

Edit2:
http://www.legitreviews.com/ddr4-me...nding-the-best-ddr4-memory-kit-speed_170340/4

auch da kommt wieder fast keine Skalierung bei rum, gerade auch in Handbrake. Dabei gehen die hier von 2133 bis knapp 3800 Mhz hoch.
handbrake-645x495.jpg
 
Zuletzt bearbeitet:
ZeroZerp schrieb:

Gut, dann korrigiere ich mich in soweit ...

ICH würde jetzt und für die Zukunft, definitiv einen Ryzen 1700, dem 7700k in jeglicher Hinsicht vorziehen.

Auch, und gerade die genannten Anwendungen haben bisher noch keinerlei Optimierungen auf RyZen erhalten und laufen trotzdem schon beachtlich schnell.

Mit Optimierungen, die definitiv kommen werden (siehe AMD GPUs, die mit dem Alter immer schneller werden), sehe ich kein Argument für den 7700k.

Somit .. jeder soll kaufen was er will.

Aber einen richtig zwingenden Grund für den 7700k gibt es keinesfalls. Eine Empfehlung schon gar nicht.
 
Hi,

Aber einen richtig zwingenden Grund für den 7700k gibt es keinesfalls. Eine Empfehlung schon gar nicht.

"zwingend" vielleicht nicht, grundlegend sehe ich das aber dann doch anders. Ob und wann irgendwelche Software Optimierungen kommen sei einmal dahingestellt, aber wenn ich jetzt Leistung brauche und jetzt wert auf ein gutes Preis/Leistungs - Verhältnis lege, was spricht dann bitte gegen einen 7700k?

Zumal die Aussage von AMD bzgl. "dann müssen die Softwareentwickler halt ihre Software anpassen" in meinen Augen durchaus ein wenig dreist ist, sofern dann nicht massiv Unterstützung seitens AMD geleistet wird.

FeFe sieht das ganz ähnlich:

Das irritiert mich ein bisschen. Denn wenn du einen neuen Prozessor verkaufst, und die alte Software damit nicht ordentlich performt, dann ist das nicht Schuld der alten Software, sondern von deinem Prozessor. Insbesondere ist es Aufgabe von AMD, wenn da Anpassungen nötig sind, die im Vorfeld klar zu benennen, damit die Leute ihre Software optimieren können.

VG,
Mad
 
die Photoshop Benches mit dem 4000er Ram und nem i7700K sind schon beeindruckend. Beim Gaming würde ich nach wie vor auf nen leicht OC Ryzen 1700er anstelle eines i7 7700k setzen, da Gaming einfach zwischenzeitlich nach mehr als 4 Kernen verlangt und der i7 7700k schneller limitieren wird...
(wenn im GPU Limit in BF1 der i7 teils schon 90% Last hast ist es zum CPU Limit nicht weit)

aber...

eigentlich soll die Bastelarbeit zu Hause mit dem 3900 Mhz Ryzen ne Mühle werden die eben hauptsächlich Adobe Zeug bei nem Fotograf macht, mehr LR als Photoshop.

Bin bisschen hin und hergerissen weil man sich mit nem i7 7700k auch noch die GPU sparen kann :freaky:

Mit nem i7 7700k@ 4,8Ghz + 3600er Ram wäre da vllt mehr rauszuholen.
Ergänzung ()

Ihr macht mich fertig, glaub ich hol mir noch nen i7 7700k + schön übertaktbaren Ram und mach die Gegenprobe :P

Nich weil der Ryzen ungeil is (im Gegenteil) - eher aus dem Fakt heraus dass die abartig schrottige Adobe Suite Rakete sein muss.

Edit:
http://www.techspot.com/article/1171-ddr4-4000-mhz-performance/page2.html

der Artikel gibt leider nicht die Timings an. Wenn man bei 2133 natürlich dieselben Timings wie bei 4000 verwendet (cl19) dann haut das natürlich auch negativ rein.
 
Zuletzt bearbeitet:
@Krautmaster
Selbst wenn er den Primären CL Wert gleich lassen würde- Er benutzt ein Z170 OC Formula. Das zieht dann die Subtimings durchs Memory- Training automatisch an, wenn niedriger getaktet wird.

Zudem sthe in dem letzten Absatz etwas zu den Timings (an denen die offensichtlich auch gedreht haben):
On the subject of memory timings, we didn’t see a huge impact on performance when going from , say CAS16 to CAS19, and while the latency does start to creep up this is solved by going to the next speed grade. In short, low-latency DDR4-2400 won’t match the performance of slacker DDR4-3000 memory.

Diese Automatismen können ein Segen sein, aber genau eben beim Benchen von Auswirkungen der RAM- Taktung/Latenzen alles unnötig aufwendig machen, da viele Reviewer nicht berücksichtigen, dass es eben mehr als CL- Timings gibt...

p.S. Ich wusste nicht, dass Dein Projekt für ein Fotostudio ist. Das Thema habe ich als Beispiel zufällig aufgegriffen. Hoffentlich zeigt das aber einigen hier, dass die unüberlegten, generalisierenden Aussagen (z.B. mehr Kerne=Besser) hier richtig Verwirrung stiften können und völlig fehl am Platz sind.

Die Archtiektur, das Memory Subsystem etc. haben Anwendungsabhängig da immernoch ein großes Wort mitzureden.
 
Zuletzt bearbeitet:
@whyme
Natürlich hast Du recht dass die Redaktion das Testen könnte. Die Kernzuordnung bei Intel ist mir nur Gerüchteweise so zu Ohren gekommen. Habe gestern im Netz auf die schnelle nix belastbares dazu gefunden

Bei manuellen Tests wurde ja bereits dargelegt, dass der Windows Scheduler korrekt arbeitet. Dennoch sind bzw. waren Unterschiede in der Auslastung Win7 vs. Win10 bei einem Spiel in irgend einem Video zu sehen. Ich vermute, dass das Spiel mit einem Intel Compiler kompiliert wurde, und es dort egal ist, wo "rumgehüpft" wird. Natürlich wäre es Interessant zu sehen, ob der gleiche Test, Windows 7 vs. 10, mit dem gleichen Spiel, auf einem 6900K verhält. Ich befürchte wenn ein Spiel den Prozessor ausliest und manuell die Threads verteilt, könnte es natürlich Probleme geben,falls Intel und AMD unterschiedliche Zuordnungen haben. Es kann aber auch sein, dass das Spiel den Prozessor nicht kennt, und es dann Windows überlässt.
Dennoch gehe ich zu 95% davon aus, dass die Probleme durch die CCX übergreifende Kommunikation stattfinden bzw. entstehen.. Ausschließen möchte ich natürlich nicht, dass das ein oder andere Spiel Threads festpinnen kann und dabei einen "falschen" (egal ob physisch/logisch) erwischt. Das wäre dann das von AMD benannte Software-Problem.

Aber das 2 Threads auf einen Kern gelegt werden, die laut Entwickler auf separaten laufen sollten, halte ich dennoch für sehr unwahrscheinlich.
 
Zuletzt bearbeitet:
@ ZeroZerp

dass der i7 gerade durch viel Takt die in PS / LR etwas bessere Wahl ist war mir auch vorher klar:

https://www.pugetsystems.com/labs/a...15-8-AMD-Ryzen-7-1700X-1800X-Performance-910/

Aber die Frage ist wie das in Zukunft aussieht. Zb Video kommt immer mehr bei dem "Kunden / Kumpel" der die Mühle bekommt. Da geht der Ryzen mit 3,9 Ghz gut ab.

2017-03-16 11_33_29-Adobe Lightroom CC 2015.8 AMD Ryzen 7 1700X & 1800X Performance.png
Wie grausam die Adobe SW ist sieht man ja schon an Dingen wie

Generate 100 Previews
Smart Previews x 100
Export 100 Images
Convert 100 Images to DGN

bzw auch der Rest, das müsste 1:1 mit Kernen skalieren. Die Jobs sind doch ideal teilbar mit Anzahl der Einzelaufgaben.
Is mir unbegreifllich wie man so ne Bananensoftware 2017 teuer verkaufen kann. Aber es ist nun mal seine Suite und der Standard.

Wir schreiben 2017 und es scheint als wäre so ziemlich jeder Job in Adobe Lightroom auf einen Kern Limitiert.
 
@vanar77: Jetzt verstehen wir uns. 2 threads auf einem Kern ist vielleicht unwahrscheinlich, aber nicht unmöglich. Wenn das Programm sieht AMD CPU und Cores ungleich threads könnte es in eine bulldozer optimierung zurückfallen und versuchen ein Modul auszulasten.

Es ist halt eine Vermutung die so nie getestet wurde.

Und es ist ja nicht zu bestreiten, dass auch manche Spiele merkwürdig verhalten. Der 6900k ist mit 8c16t@3GHz schneller als der 7700k aber Ryzen gewinnt durch die Kerne nichts dazu und bricht teilweise sogar ein. Das gerade bei solchen Auffälligkeiten nichts nachgeprüft wird ist halt merkwürdig. Es gibt ja auch andere Spiele die gut auf Ryzen skalieren.

Ob es dann an am Ende am Scheduler oder Spiel liegt oder wirklich die ccx Kommunikation ist, liese sich dann zumindest etwas eindeutiger sagen. Und damit auch ob schneller RAM etwas bringen kann oder doch ein Patch notwendig ist.
 
Ich persönlich werde dieses Jahr noch nicht aufrüsten, aber wenn die BIOS- und Speicherzicken behoben sind sowie Win10 sauber an Ryzen angepasst ist, auf einen Ryzen in 2018 wechseln. Ich sehe keinen Sinn darin meinen i7 4770K gegen einen 7700K oder etwaige erscheinenden 8700K zu ersetzen. Und die Intel 6+ Kerner sind preislich nunmall eine andere Hausnummer, v.a. da man ja da auf die Highend-Desktop-Chipsätze und -boards angewiesen ist. Eine Alternative a la B350-Board hat man da ja nicht. Früher hatte ich nur AMD-Prozessoren, warum denn jetzt nicht wieder?!
 
Hi,

auf einen Ryzen in 2018 wechseln

Ich sehe keinen Sinn darin meinen i7 4770K gegen einen 7700K oder etwaige erscheinenden 8700K zu ersetzen

Und die Intel 6+ Kerner sind preislich nunmall eine andere Hausnummer, v.a. da man ja da auf die Highend-Desktop-Chipsätze und -boards angewiesen ist. Eine Alternative a la B350-Board hat man da ja nicht.

"noch" mag das stimmen. Aber sollte man

a) nicht erstmal warten, was wirklich rauskommt?
b) nicht erstmal sehen, wie leistungsfähig die Intel Geschichten werden?
c) nicht erstmal warten, wie sich die Preise jetzt und vor allem bis 2018 entwickeln und dann urteilen?

VG,
Mad
 
Also wenn man warten kann (meiner Meinung nach ab i7 2600k mit 4c/8t OC @ zumindest 4ghz) - Dann sollte man ein Jahr warten..

Dann kommen noch die Intel 6 Kern-Mainstream CPUs, evtl. neue 4c/8t die dann Ryzen schlagen sollen usw.

Dann kommt Zen+ usw usw.

Jetzt aktuell hat man eine komplett neue AM4-Plattform (Kinderkrankheiten dabei) und "zwei tote Plattformen" ala 2011-3 und 1151, die beide im Laufe der nächsten Monate ersetzt werden..

Kauft man heute(!), dann würde ich zu einem Ryzen raten, denn 8 Kerne sind nunmal 8 Kerne, vor allem mit 3.9ghz all core sehr gute Spiele-CPUs..
 
Madman1209 schrieb:
herunterzuspielen halte ich für falsch.

Quelle

Also eventuell kein "Bug" sondern Fehlverhalten, das man durhc ein Update in den Griff bekommt.

Das ist doch alles ganz normal... Hasswell hat aktuell eine 172 Punkte umfassende Bug Liste. Manche werden gefixt, manche nicht. Das ist by allen Architekturen so. Bei Skylake sind 141.

http://www.intel.com/content/dam/ww...s/desktop-6th-gen-core-family-spec-update.pdf

https://www.heise.de/newsticker/mel...essoren-bleiben-manchmal-haengen-3068461.html
 
Zuletzt bearbeitet:
Hi,

Das ist doch alles ganz normal... Hasswell hat aktuell eine 172 Punkte umfassende Bug Liste. Manche werden gefixt, manche nicht. Das ist by allen Architekturen so. Bei Skylake sind 141.

ich habe auch nirgends geschrieben, dass es nicht normal ist. Ich habe geschrieben, dass es so ist. Nicht mehr, nicht weniger.

VG,
Mad
 
Krautmaster schrieb:
Die Jobs sind doch ideal teilbar mit Anzahl der Einzelaufgaben.
Is mir unbegreifllich wie man so ne Bananensoftware 2017 teuer verkaufen kann. Aber es ist nun mal seine Suite und der Standard.

Wir schreiben 2017 und es scheint als wäre so ziemlich jeder Job in Adobe Lightroom auf einen Kern Limitiert.

Das ist in der Tat ziemlich schockierend! Vermutlich stammen ~90% des Codes noch aus irgendeiner Macromedia Software. Wenn Adobe wenigstens intuitiv zu bedienende GUIs hätte... Der Käse ist halt das man nicht weiss ob sie nicht vieleicht doch mal ne Sternstunde haben und plötzlich Multithreading implementieren. Dann siehts von heute auf morgen wieder komplett anders aus.
Ergänzung ()

Madman1209 schrieb:
Nicht mehr, nicht weniger.

Ok, hast dich dabei so schockiert angelesen. Nichts für ungut ;-)
 
Zuletzt bearbeitet:
@Ned Flanders:

So habe ich ihn auch verstanden, als wäre das ein völliges No-Go :>
 
Ned Flanders schrieb:
Fassen wir also zusammen: AMD gibt im Review Guide an, dass die Tester Höchstleistung unter Windows einstellen sollen und den HPET deaktivieren sollten. Volker tut das im Test aber nicht und benched bei ausbalanciert und scheinbar auch mit aktivem HP Event Timer. Anschließend diskutiert AMD öffentlich das einige Seiten wohl unter ausbalanciert getestet haben und Volker sagt das sei bei ihm nicht der Fall gewesen. Nun stellt sich aber heraus das dies sehrwohl der Fall war.

Was soll man jetzt davon halten?

Aber fleißg die kritischen User im Forum angehen und beleidigen....

Wann wird sich Volker dazu äußern, dass er uns angelogen hat?

Bitte nicht falsch verstehen, in welchen Einstellungen gebencht wird entscheidet die entsprechende Redaktion selbst. Die Entscheidung ist aber dann entsprechend für den Leser schon im Test ersichtlich zu machen UND diesem eben nicht auch noch Tage später mit süffisantem Unterton ins Gesicht zu lügen.

Zu professioneller journalistischer Arbeit und diesen Anspruch unterstelle ich ihm hier als Profi, gehört eine Richtigstellung, die der Schwere des Fehlers angemessen ist. Da Ryzen ja nunmal auch DAS Thema die letzten Tage war, kann das in dem Fall nicht irgendwo verstohlen auf Seite 654 geschehen, sondern die Startseite wäre durchaus angemessen.

Zusätzlich gehört der Artikel an den entsprechenden Stellen überarbeitet und zumindest kenntlich gemacht, dass hier:

a) die Spielebenches auf ausbalanciert durchgeführt wurden.

b) die Intel-Prozessoren bei diesen Settings einen Vorteil haben, da bei diesen selbst auf ausbalanciert das Core-Parking deaktiviert ist.
 
Hi,

ich habe weder irgendwo von "no go" noch von "schockiert" gesprochen. Ich habe den Sachverhalt einfach nur dargelegt. Das wird ja man ja wohl noch dürfen, oder sind Hinweise auf Fakten mittlerweile auch schon verboten?

Ich halte es einfach für fragwürdig, wenn es solche Dinge gibt, dass diese dann nicht auch erwähnt werden dürfen oder bei Erwähnung entweder heruntergespielt werden ala "das passiert in normalen Anwendungen nicht" oder es einem vorgeworfen wird, dass man überhaupt schreibt.

Wahrscheinlich bin ich jetzt dann auch gleich ein Intel Fanboy, weil ich Fehler erwähne, wo AMD doch alles perfekt gemacht hat :rolleyes:

VG,
Mad
 
Ist ja das was ich auch sage aber mir glaubt ja keiner.
Habe gestern erst bewußt geschaut, ob mich mein alter 3770K 4,2Ghz mit der GTX 1070 mich irgendwo limitiert und dem ist nicht so. Für einmal die Woche einen halbe Stunde Film rendern (mein Fall) lohnt es sich auch nicht das Geld auszugeben.

Ich denke aber auch, dass meine nächste Neue CPU mehr Kerne habe sollte, bloß habe ich locker bis nächstes Jahr Zeit um diese Neue CPU zu finden, also warum Streß machen. Ich will ja auch erst einmal sehen ob und wie Intel auf Zen reagiert und wie sich Zen entwickelt.
Klar kauft man sich heute keinen 7700K mehr aber wer warten kann der wartet einfach ab.
 
Zurück
Oben