Test Intel Coffee Lake im Test: Core i7-8700K, i5-8400, i3-8350K und -8100 vs. Ryzen

@ eGGberto: Warum soll jemand wegen paar Prozent aufrüsten?
 
mcsteph schrieb:
Danke für das Video, da sieht mal mal das der 720P als Zukunfts-Test völiig für die Tonne ist.
4 mit 8 Threads zu vergleichen und aus Korrelationen Kausalitäten zu bauen ist für die Tonne.

y33H@ schrieb:
720p ist aussagekräftig für heute.
So dem ist. Lustig, dich mal wieder hier zu sehen.

Losti schrieb:
ein paar punkte unterschied aber der preis ist gleich das doppelte für den i7.
Die Forderung nach linearer Leistungssteigerung zu linearen Kosten ist nicht zielführend und war es nie. Eine Preis-Leistung kann sich dadurch bedingen, dass das Produkt meine Anforderungen erfüllen kann, oder nicht. Der Preis spielt für die meisten die größte Rolle, aber nicht für jeden.
 
Zuletzt bearbeitet:
So wie ich das sehe spricht alles für den 8400 und nichts für den 8700K weil das sind ja nur ein paar punkte unterschied aber der preis ist gleich das doppelte für den i7.
 
Zuletzt bearbeitet:
jap, zb ein 70€ Asrock wie das meine. X370 ist ziemlich unnötig und gerade Coffee hat noch einen MB Nachteil da es keine günstigen H Bretter gibt
 
neben Preisdelta bitte auch das ermittelte Leistungsdelta angeben :D
 
Zwirbelkatz schrieb:
So dem ist. Lustig, dich mal wieder hier zu sehen.
Nachdem hier Geschrei war, dass die Werte von CB bei der Leistungsaufnahme zu niedrig waren ... nun ja, meine waren zu hoch :p ist ja nicht so, dass ich nicht mitbekomme was hier passiert bzw getestet wird.
 
smuper schrieb:
Wenn sich also herauskristallisiert, dass - auch durch das Forum hier - Ryzen immer mit 3200 Mhz RAM gefahren wird, dann sollte man dies auch in zukünftige Tests mit aufnehmen. Immerhin fehlt sonst in Zukunft allen Ryzen Nutzern die korrekte Vergleichsmöglichkeit.

Nein, eben nicht, ich bin da völlig bei Krautmaster.
Es sollte immer mit der vom Hersteller vorgegebenen RAM Geschwindigkeit getestet werden.

Denn:
1. wo will man die Grenze ziehen, bei vielen Ryzen´s läuft der RAM nur mit 3000, bei anderen wiederum mit 3600.
2. Intel CPU´s sind "gnädiger" mit dem RAM, also würden diese immer mit 4000 oder noch mehr gebencht werden müssen, nach dem Motto: alles was derzeit geht.
3. der Test Parcour müsste laufend auf dem allerneusten Stand der RAM Technologie gehalten werden, was eine Wahnsinnsarbeit für die Tester bedeuten würde

Ich finde es als vollkommen ausreichend wenn in mehr oder weniger regelmäßigen Abständen eine aktuelle CPU mit dem zu dieser Zeit schnellst möglichen RAM getestet wird um aufzuzeigen wie die Skalierung der CPU bei höheren Speichergeschwindigkeiten aussieht.
 
Ich verstehe ehrlich gesagt gar nicht, warum so viele Leute wegen dem 8700K so einen harten bekommen. Wenn ich mich nicht irre, ist der 8700K lediglich ein 7700K mit etwas besserer Übertragbarkeit und zwei Kernen mehr. Manche tun so, als ob Intel eine neue Revolution losgetreten hätte ;).
 
SKu schrieb:
Hier mal ein aktueller Bench eines Thread-Ripper-Systems mit Battlefront 2: https://www.hardwareluxx.de/index.p...battlefront-ii-im-grafikkarten-benchmark.html

Wer mir da ernsthaft erzählen will, dass bei 210 min. fps zu wenig FPS mit AMD CPUs generiert wird oder dass das nicht ausreichend ist und ein 8700K da 400fps macht, der hat große Probleme. Das System hat immer 3200er RAM.

Das habe ich heute auch probiert :-)

WQHD -Ultra - TAA.
Bekomme auch ~100 fps auf Naboo im Multiplayer :-)
 
@cookie_dent

Joa ich finde gerade die damals kreativen "aus der Reihe Tests" haben um 2005 CB so interessant gemacht. Zb nen Mobile CPU mit special Board im Desktop. CB dürfte gern wieder etwas aufgefallenere Versuche machen und diversen Mythen nachgehen wie eben ob es Unterschiede im GPU Limit zw AMD und Nvidia gibt oder mal den Trident Z RAM auf über 4Ghz benchen.

Dazu fehlt mir der ganze Plattform Test. Zb den SSD M2 Parcour auf X370 / TR4 vs Z270/370. Dazu auch USB / Boot Zeit / usw.
 
Rambo5018 schrieb:
Verrückt, ich hatte auch keine Erfahrung mit den Ryzen und hab bei 3 zusammengebauten PCs bei einem einzigen n Problem gehabt, das aber mit nem BIOS-Reset gelöst wurde. Ich hatte n Budget und die haben gesagt so viel Leistung wie du rausholen kannst und dass das Ding dabei gescheit läuft, da kam zu dem Zeitpunkt/Budget der 1600er bei raus. Jeweils auf 3,7Ghz Allcore und die laufen alle 3 einwandfrei.

Das glaube ich Dir gerne, testen mag ich es mit fremden Budget trotzdem nicht. Es geht ja schon los damit, dass das BIOS einstellen, geschweige denn es zu updaten, schon unüberwindbare Hindernisse für diese User darstellen. Und da habe ich keinen Bock jedesmal antanzen zu müssen.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@cookie_dent

Joa ich finde gerade die damals kreativen "aus der Reihe Tests" haben um 2005 CB so interessant gemacht.

Wie wahr! Es gebe ja auch wirklich soviel zu testen... Mal die GraKa durchwechseln, Plattformtests, mal Spielebenches mit gleichzeitig laufendem Stream oder Skype video conference call und offenem Browser.... Mal probieren was man mit RAM tuning (subtimings bei den einzelnen Plattformen rausholen kann)... was ist aus den Bastelnerds geworden die Netzteile noch mit 5 parallelen Lastwiderständen im Eisbad getestet haben.

Irgendwie isses über die Jahre zu Laborhaft geworden.
 
Ned Flanders schrieb:
mal Spielebenches mit gleichzeitig laufendem Stream oder Skype video conference call und offenem Browser ...
Das passiert quasi nichts bei nem aktuellen System.
 
Zuletzt bearbeitet:
SKu schrieb:
Hier mal ein aktueller Bench eines Thread-Ripper-Systems mit Battlefront 2: https://www.hardwareluxx.de/index.p...battlefront-ii-im-grafikkarten-benchmark.html

Wer mir da ernsthaft erzählen will, dass bei 210 min. fps zu wenig FPS mit AMD CPUs generiert wird oder dass das nicht ausreichend ist und ein 8700K da 400fps macht, der hat große Probleme. Das System hat immerhin 3200er RAM.

das Problem dabei ist: das es sich die meisten Redaktionen (verständlicherweise) möglichst einfach machen und Szenen zum benchen wählen welche einfach zu reproduzieren sind.
solche Szenen sind aber eben fast nie Szenen die auch mal ein extremes szenarion darstellen wo dann wirklich die minimum-fps auch mal drastisch absacken können.

hier sinds im cpu-limit zb "nur noch" 130 fps im Minimum, ja was stimmt denn nun?
http://gamegpu.com/action-/-fps-/-tps/star-wars-battlefront-ii-beta-test-gpu-cpu
macht das ding nun 210fps oder fast 100 weniger? gibt's im fertigen spiel vllt noch deutlich aufwändigere karten?

das die frostbyte engine eine der am besten optimierten engines überhaupt ist, ist nun auch nichts neues, da packt selbst mein über 7 jahre alter hexa-Xeon schon mal dreistellige fps.

das ändert aber nichts daran das es eben auch weniger-gut optimierte spiele wie pubg gibt, wo auch schon mal deutlich weniger als 60fps anliegen.
 
Zuletzt bearbeitet:
Iscaran schrieb:
Bzgl. des nVidia-Ryzen Problem speziell unter DX12 sollte man wirklich einen Nachtest und in jedem fall einen Kommentar in den Artikel bauen.

Das totschweigen dieses "Problems" hilft doch niemandem.

Zudem wird dadurch leider auch die Performance der Ryzens arg "runtergezogen" - obwohl es wohl ein patchbares Problem (seitens nVidia oder der GameDeveloper ?) sein dürfte.

Bzgl. RAM-Speed.

Ich finde man sollte möglichst bei gleichem RAM-Takt testen - sofern es die Plattformen hergeben. Idealerweise bietet es sich da an die "spezifierte" RAM-Speed zu nehmen.

Bei Intel wären das 2400 für Sockel 1151 und 2667 für Sockel 1151"v2"
Bei AMD 2667 mit Sockel AM4.

Da man damit aber 2 unterschiedliche Speeds für die Intelsysteme hätte - würde ich für die 1151 den RAM-Takt auf 2667 anheben zumal das ja eigentlich mit allen RAMs auf den boards geht.
Mittlerweile schafft man eigentlich auch ohne Probleme 2667 auf AM4 mit Ryzen. Dann wären alle auf einem Level.
Ich hab jetzt nicht im Kopf was CB hier im Test hat...aber afaik hat man doch genau das ? 2400er RAM für den 1151er Sockel und 2667er für AM4 und 1151v2 ?

Man könnte ja darüber hinaus an 1er CPU beispielhaft mal mit sehr niedrigem RAM-Takt und sehr hohem Benchen. Beispielhaft bei 1-2 oder max. 3 Games in 720p setting. Alternativ könnte man ja auf den eigenen RAM-Test-Artikel im Artikel verweisen. Zumindest im Fazit könnte man das mit dem Hinweis: von z.B. 2133er RAM auf 3200er gewinnt ein Ryzen ca 15%-20% Leistung. Ein Intel CPU hingegen nur ~5-10% => siehe Test vom xx.yy.zz.

Aber lieber wird wie immer einfach mehr zeug durchgenudelt und weniger nachgedacht. Und kritische Anmerkungen zu den Tests von vor 6 Monaten werden einfach gekonnt zum x-Ten mal ignoriert (Stichwort, exemplarisch 1x nVidia 1x AMD GPUs testen zumindest in DX12).

EDIT: Bzgl. der i5-2500K vs FX-8350 Story. Das Video ist zwar nett, aber leider zeigt es nur dass man 2017 tatsächlich im DURCHSCHNITT von >4"Kernen" profitiert.
DEr FX8350 ist am ehestens als eine 8C8T CPU (bzw. 4M8T) zu klassifizieren.
Der i5-2500K ist eine 4C4T.

Was man da dann sieht ist das zum Release in der Tat die SingleCore Leistung des 2500K mehr gewicht hatte als die zusätzlichen 4T beim FX-8350 (2500k +15% vor dem 8350). Aber 2017 eben nicht mehr (8350 +10% VOR dem 2500K).

Sinnvoller wäre eine Betrachtung unter gleichen Vorzeichen.

Was das Video allerdings schon zeigt ist - das auch eine 720p-Test nur "bedingt" die Zukunft zeigt. Software-Anpassungen an die CPU-Arch oder mehr multithreading fähgkeiten der Software machen über solche Zeiträume nämlich oft mehr aus als die Rohleistungsunterschiede zum Releasezeitpunkt.
(vgl. 8350 2012 vs 2017). Jemand der 2012 eben 8 Kerne gekauft hat - fährt damit noch heute einigermaßen gut. Jemand der nur 4 (oder gar nur 2C4T gekauft hat) hat inzwischen entweder mindestens einmal umgerüstet oder hat mittlerweile eben doch ein Leistungslimit erreicht.

Leider ist die Softwareentwicklung so langsam dass es wirklich >10 Jahre gedauert hat bis man "Multi-Threading" als Performancebringer bemerkt.

Zu Phenom Zeiten hatte ich wirklich deutlich eher erwartet das sich da was tut.

sehr wahr und meines wissen läuft bei vielen so sogar 2933 mhz noch recht locker, mein ryzen hat die G.Skill Trident Z silber/rot DIMM Kit 32GB, DDR4-3200, CL14-14-14-34 und die laufen auch, aber man muss halt die werte von hand eintragen für xmp
 
Ned Flanders schrieb:
Wenn Du das so sicher weist, hast du ja offensichtlich was gemessen oder ne Messung dazu gelesen. Immer her damit. Hier hört sich das anders an: Live streaming CPU Review
Ich dachte Stream anschauen :p davon ab, per CPU encoden statt per GPU oder zweitem System: Klar, das haut rein - das ist aber keine neue Erkenntnis. Hab Ähnliches schon vor Jahren gemacht: http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/CPU-Multitasking-Test-1075340/
 
Zurück
Oben