Test Spielen in Ultra HD/4K im Test: High-End-GPUs sind Pflicht, schnelle CPUs aber auch

ich denke en 2600k auf 4.4 zumal der bis auf 4,7 ghz gut läuft und ne 1080 sollte noch locker reichen für 4k punkt.
 
Eine 1080 je nach Spiel. In einigen Spielen bedarf es schon eher eine 1080 Ti. Und ein 2600k sollte für das meiste auch reichen, von ein paar Ausnahmen mal abgesehen.

Hier geht es ja aber auch darum, was sich Neukäufer anschaffen sollten, um kostengünstig (zumindest bei der CPU) in 4k spielen zu können. Da geht halt nichts über den R5 1600/x.
 
Hopsekäse schrieb:
Ich bin kein Fan des 99th Percentile.
....
Ich würde schon gerne wissen, ob ein 8-Kerner z.B. mal wenigstens in ganz blöden Situationen in Richtung der 100% mehr FPS gegenüber einem 4-Kerner kommt....


Mit den maximal 29% mehr im 99th Percentile (BF1 1500X vs 1800X) kann ich nicht viel anfangen.
Was unterhalb der 99% passiert ist völlig offen. Stürzen vielleicht beide regelmäßig unter 30 FPS? Oder tuckern sie beide bei ihren ~45 bzw ~60 FPS umher?
Was sind schon 99%? Wenn man Sekunden als Maßstab nimmt, dann kann da von 100s Gameplay eine Sekunde ein komplettes Standbild sein und das 99th Percentile trotzdem bei 90 FPS stehen. Nimmt man eine realistischere Zeiteinheit wie vllt 100-200ms, dann kann ich nach dem 99th Percentile immer noch alle ~15 Sekunden ziemlich unangenehme Drops haben, die in dieser Angabe auch nicht zu sehen sind. Dennoch wären beide Rechenbeispiele richtig ätzende Verhältnisse zum Spielen.

Klar kann man anhand der Angabe grob schätzen, aber manche Dinge kriegt man auch einfach nicht geschätzt. Z.B können Framedrops von mir aus auch mal am RAM liegen. Da wäre ein 1800X vermutlich genauso schnell/langsam wie ein 1500X. Das kann auch wie oben erklärt alle paar Sekunden passieren, einem bei beiden CPUs das Spielerlebnis ruinieren, aber man selbst steht dann da und fragt sich, warum das denn trotz des guten 99th Percentile passiert. Genauso kann es sein, dass ein 1800X z.B. in sehr CPU-lastigen Momenten nicht unter 50 FPS bricht, ein 1500X es aber nur auf 25 FPS schafft. Aber woher soll ich das wissen, wenn diese Momente selten genug sind, dass das 99th Percentile sie nicht reflektiert?

Ich persönlich hätte gern wieder Min-FPS oder ein 99,9(9)th Percentile oder halt Frametime-Diagramme.

das Percentile mit 99 sagt doch eigentlich schon aus was du wissen möchtest. Anders ausgedrückt ist es der Durschnitt der aus 1 % niedrigsten gemessen Frametimes (hier in FPS umgerechnet: 1000/Bildausgabe in ms) Wenn also CB die Sequenz jedes Benchmarks 30 Sekunden aufzeichnet sollte das ne nette lange Liste geben mit jedem einzelnen Frame und der Dauer der Ausgabe...

Diese Verfahren schließt m.E. schon böse Überraschungen in sehr großem Umfang aus, denn es ist entscheidend wie groß die miesesten Abstände der Frametimes sind. Z.b. wird ne Differenz von 60ms zu 20ms kaum wahrgenommen, hingegen 24 zu 8 schon.
 
EchoeZ schrieb:
......

Zu deiner selbst geschrieben Software; Wäre klasse wenn Du zu gegebener Zeit mal ein paar Ergebnisse postest. Optimalerweise stellst Du einen Benchmark nach um die gezeigten Ergebnisse des Testes zu erweitern :daumen:
Ich habe durchaus schon einige Daten gesammelt, aber leider werde ich durch meine GTX 680 2gb zurückgehalten...niemand interessiert sich doch für so eine alte Graka....ich warte halt noch darauf ob Vega halbwegs was wird.....Und ich bin auch nicht unbedingt ein Shooter fan....habe daher Titel wie BF1 usw nicht zum Testen zur Verfügung.

Ich denke aber viel dazu gelernt zu haben....wie man die Werte mit dem gefühlten zusammenbringt und worauf man, meiner Meinung nach, achten sollte, wenn man eine Benchmarszene/Einstellungen aussucht.....Ich plane da ein Video zu zu machen, weil meine Texte immer in zu viel Text enden^^.
Ergänzung ()

Sanjuro schrieb:
das Percentile mit 99 sagt doch eigentlich schon aus was du wissen möchtest. Anders ausgedrückt ist es der Durschnitt der aus 1 % niedrigsten gemessen Frametimes (hier in FPS umgerechnet: 1000/Bildausgabe in ms)....
Es ist nicht der Durchschnitt....es ist der Grenzwert....von 1000 Frametimes also der 10 schlechteste Wert...ob die besseren 990 ebenso schlecht oder super gut sind ist nicht gesagt....auch nicht ob die 9 Werte die noch schlechter sind nur etwas schlechter oder ganz grausig sind....
Ergänzung ()

Hopsekäse schrieb:
Ich bin kein Fan des 99th Percentile......

Schön, dass es noch mehr Leute verstehen......ich bin zwar nicht sooo ablehnend gegenüber Perzentil Werten....sie haben ihre Vorteile....aber ein Allheilmittel bei der Bewertung des Spielerlebnisses sind sie eben nicht.
 
Zuletzt bearbeitet:
Aldaric87 schrieb:
Eine 1080 je nach Spiel. In einigen Spielen bedarf es schon eher eine 1080 Ti. Und ein 2600k sollte für das meiste auch reichen, von ein paar Ausnahmen mal abgesehen ... auch darum, was sich Neukäufer anschaffen sollten, um kostengünstig (zumindest bei der CPU) in 4k spielen zu können. Da geht halt nichts über den R5 1600/x.

Naja, bei den Ausnahmen (Total War - Warhammer, etc.) haben auch aktuelle 8-Kerner beider CPU-Entwickler eine schwere Zeit. Recht hast Du natürlich, dass sich dieser Testartikel an Neukäufer richtet, auch wenn ich als Besitzer eines alten i7-2600K gerne eine Kombo mit dieser übertakten CPU und GTX 1080(Ti) zum Vergleich gesehen hätte, aber gut (gehe von ca. -20% im Vergleich mit dem i7-7700K in Spielen aus oder grob R5-1500X Niveau), ein Aufrüsten kommt bei mir vermutlich vor 2019 (Zen2 in 7nm) nicht in Frage, es sei denn Pinnacle Ridge Anfang kommenden Jahres haut mich (und viele andere) total vom Hocker.

Leider nicht mitgestestet, aber ich halte persönlich einen übertakteten R7-1700 (auf R7-1700X Stock-Niveau) insgesamt für den noch besseren Kauf (da langlebiger) als einen R5-1600(X) bei derzeit vertretbarem/noch lohnendem Preisaufschlag ;).

Den realitätsnahen 4K/UHD-Ansatz (im Gegensatz zu den eher/außerhalb von Notebooks realitätsfernen 720p CPU-Test-Benchmarks) - auch wenn ich WQHD wohl noch besser gefunden hätte, zumal die GTX 1080 eine uneingeschränkt taugliche WQHD-GPU ist und die GTX 1080ti nur 4K/UHD-fähig durch die Bank bei Maximaleinstellungen - finde ich sehr löblich, besten Dank @ Wolfgang/CB dafür :)!
 
Zuletzt bearbeitet:
krass nur ein Paar Prozent von meinem 7500 zur Elite
kann ich dann ja noch ein paar Jahre behalten^^
 
Die richtige Frage ist, ob eine UHD Auflösung überhaupt was bringt, eine Kantenglättung kann man auch ohne UHD erreichen.

Ich habe mir eine 1080 ti gekauft und an einem 4k TV 55 Zoll und 55 Zoll Full Hd Tomb Raider getestet.
Ich habe leider kein Unterschied gesehen.

Ich sehe aus eine Entfernung nicht scharf genug, jetzt werde ich mein Glück bei einem 4k Monitor versuchen, ich habe nur 27 Zoll Full Hd 60 Hz Monitor.

32 Zoll Monitore kosten leider 600 Euro-2000 Euro.
 
Baal Netbeck schrieb:
ich bin zwar nicht sooo ablehnend gegenüber Perzentil Werten....sie haben ihre Vorteile....aber ein Allheilmittel bei der Bewertung des Spielerlebnisses sind sie eben nicht.
Besser als schnöde min/max/average Fps jedoch allemal. Zumindest eine sinnvolle Ergänzung… und zusätzlich als Diagramm dargestellt natürlich super!!

Da wir uns hier auf Intel/nVidiabase :p befinden ist davon auszugehen, daß die sich keine Benchmarks ausdenken, die AMD Hardware besser aussehen lässt als sie verdient.

 
whesker schrieb:
Die richtige Frage ist, ob eine UHD Auflösung überhaupt was bringt, eine Kantenglättung kann man auch ohne UHD erreichen.

Ich habe mir eine 1080 ti gekauft und an einem 4k TV 55 Zoll und 55 Zoll Full Hd Tomb Raider getestet.
Ich habe leider kein Unterschied gesehen.

Ich sehe aus eine Entfernung nicht scharf genug, jetzt werde ich mein Glück bei einem 4k Monitor versuchen, ich habe nur 27 Zoll Full Hd 60 Hz Monitor.

32 Zoll Monitore kosten leider 600 Euro-2000 Euro.

am monitor ist es was anderes als am tv
ich hatte eauch ein 4k fernsehr und ich konnte keinen unterschied sehen zwischen fullhd und 4k zumindest nicht wenn ich in halbwegs fernünftigem abstand davor saß weder bei videos noch bei spielen

bei monitor hingegen konnte ich den unterschied hingegen manchmal erahnen^^
 
was mich interessieren würde ist wie man überhaupt bf1 im multiplayer testen kann?
wie wird das gemacht?
 
Schöner Test, schade nur das man den Ryzen 7 1700x nicht gegen den I7 7700k antretten lässt da sie ja zum fast selben Preis zu haben sind und der Preis ist halt das was meistens entscheidet.
 
also mein 4690k stämt mit meienr 1080 locker alle spiele in 4k. zwar nicht auf ultra. aber denke dafür ist die 1080 zu schwach
 
Merkwürdig. Beim ersten Test des Ryzen hat CB geschrieben, dass ihnen aufgrund der Ergebnisse jetzt klar wäre, warum AMD die eigenen Tests mit einer Titan und in 4K vorgestellt hat - weil man da ganz einfach im GPU-Limit ist und es im Grunde fast völlig egal ist, welche CPU dahinter steckt (1600x/1700x/1800x oder 7700K/68xx/69xx).

Und jetzt das gleiche? Wie zu erwarten, ist es wirklich egal, was für eine CPU verwendet wird, die Unterschiede sind an der Spitze im Rahmen der Messgenauigkeit. Und auch bei den langsamsten Kandidaten geht es nicht um den Unterschied spielbar/unspielbar. Ein völlig überflüssiger Test.
 
whesker schrieb:
Die richtige Frage ist, ob eine UHD Auflösung überhaupt was bringt, eine Kantenglättung kann man auch ohne UHD erreichen.

Ich habe mir eine 1080 ti gekauft und an einem 4k TV 55 Zoll und 55 Zoll Full Hd Tomb Raider getestet.
Ich habe leider kein Unterschied gesehen.

Ich sehe aus eine Entfernung nicht scharf genug, jetzt werde ich mein Glück bei einem 4k Monitor versuchen, ich habe nur 27 Zoll Full Hd 60 Hz Monitor.

32 Zoll Monitore kosten leider 600 Euro-2000 Euro.

Nichts für Ungut, aber dann solltest du dir eine Brille besorgen. Wenn du 10 Meter vom TV wegsitzt siehst du natürlich keinen Unterschied.
 
immortuos schrieb:
...
Hast du mal die Abschnitte zur Leistungsaufnahme gelesen? SKL-X säuft sogar noch mehr als BW-E, dabei schneidet der 10 Kerner sogar teilweise schlechter ab als der alte 6950X.

Wenn sich das im CB Testparcours auch so durchzieht steht das Ding im Ranking unter dem ollen 6950X^^

Das müsste man allerdings etwas differenzierter betrachten, denn wie Du es schreibst klingt es, als würde der SKL-X mehr saufen und weniger leisten, immer. Mitnichten ist das der Fall, denn im Gaming verbraucht er bissl weniger (und ist GPU lastiger) sowie in Anwendungen dürfte er zunehmend schneller werden (wie Hexus auch deutlich hinweist, denn die Plattform ist überhaupt noch nicht veröffentlicht). Wenn wir uns an die gebetsmühlenartigen Anmerkungen erinnern, man müsse erst auf Ryzen die Software optimieren, lassen wir X299 doch erstmal das Licht der Welt erblicken.

Zwar werden die Stromverbräuche ähnlich bleiben, die Leistung bei finalen Tests aber besser einzuschätzen sein und entsprechend vielleicht gerechtfertigt sein. Nahezu jede Hardware kann exorbitant Strom verbrauchen, wenn man sie an die Limits bringt und ist nicht wirklich ein Geheimnis. Testmäßig bin ich sehr auf den 7820X gespannt und dieser sollte mit dem Noctua NH-D15S hoffentlich gut zu handeln sein :)
 
Palmdale schrieb:
Wenn wir uns an die gebetsmühlenartigen Anmerkungen erinnern, man müsse erst auf Ryzen die Software optimieren, lassen wir X299 doch erstmal das Licht der Welt erblicken.

Stimmt, is' ja was ebenso gänzlich Neues wie Ryzen ...:rolleyes:
Aber ich gebe Dir recht, Tests abwarten und dann urteilen!
 
tl;dr: Ryzon 1600, bzw. 1600X find' ich klasse.



poly123 schrieb:
Wäre der normale 1600 (ohne X) nicht noch besser in Bezug auf P/L, unabhängig zu der weiteren Empfehlung des 7700k von Intel? Afaik sind die 400 Mhz doch ebenfalls durch eigene Übertacktung machbar - nochmal 40€ gespart.


Also aus meiner Gamer-Sicht, absolute Zustimmung.
Hab den zwischenzeitlich schon für unter 200€ gesehen. :)

Hatte AMD eigentlich abgeschrieben, seit dem Bulldozer.
Nach meinem Phenom II bin ich zu Intel gewechselt und dachte nicht, dass sich das in den nächsten Jahren noch mal ändern könnte.

Gerade der Ryzon 1600 ohne "X" ist für mich aktuell die interessanteste CPU aus Gamer Sicht, wenn man denn fähig und willens ist, ein paar MHz total ungefährlich, ohne Volt Anhebung, drauf zu packen.
Für die anderen gibt's für nur ein paar € mehr, den 1600X, wo man dann gar nix mehr ändern muss.

Also Gaming CPUs sollten aktuell ganz klar unter 300€ kosten. Jedenfalls für ich sage mal so ca. 95% der Gamer.
Die Enthusiasten interessiert Preis-/Leistung eh nicht. ;) Schön, wenn man sich's leisten kann. Ich gönn's jedem von Herzen. :daumen:

Aber für die "Normalo-Gamer" (wie mich) ist entweder der 1600, oder der 1600X aktuell wohl die beste Wahl.

Sparfüchse kommen sicherlich auch mit dem 1500X, bis runter zum 1400er klar, wenn die restliche hardware dementsprechend auch nach unten hin angepasst ist.
Mit letzterem hat man sicherlich genauso viel Spaß, oder noch mehr(dank der eingesparten € an die man denken kann ;) ), als mit absoluten Enthusiasten Gamer PCs, für tausende von €.


Respekt AMD !

Jetzt wird's Coffee lake sehr schwer haben(wenn der denn mal kommt), vernünftige Argumente zu finden, mehr als 250-300€ für eine Gaming CPU auszugeben.
Die Anwendungen/Streaming usw. lass ich hier mal außen vor, denn das ist natürlich wieder ein anderes Thema(für mehr kerne/Threads), als nur Gaming pur.

Also aktuell finde ich die Kombination 1600/1600X mit ner GPU aus einer Klasse der GTX 1060(edit: 6GB), oder vergleichbar von AMD(580 ? ) am interessantesten.
Dazu halt einfach ein Monitor mit Full HD, oder leicht drüber. Alles was noch höher geht, frisst eh nur wieder Leistung(FPS) ;)


Hab meinen Gaming PC verkauft gehabt und überbrücke die Zeit zum nächsten, mit meinem Gaming Laptop.
Ich weiß nur noch nicht, wann ich zuschlagen werde. Etwas Zeit habe ich aber noch. Mal schaun, was 2018 so bringt an interessanten Neuerungen und GPUs. Evtl. wird die "GTX 2060" (keine Ahnung, ob die so heißen wird) ja auch spannend. :) Und dazu ein Nachfolger, bzw. Verbesserung vom Ryzon 1600 ?
Evtl. tut sich bis dahin ja auch noch was beim RAM. Da gab's ja zuletzt einige Kompatibilitätsprobleme, bei den neuen Boards, wie ich gelesen habe.

Ich schweife ab, in meine Überlegungen.


Kurz:
Ryzon 1600, bzw. 1600X find' ich klasse.
 
Zuletzt bearbeitet:
Numrollen schrieb:
Ja durch OC ändert sich natürlich einiges. Bei Intel aber genauso, auch wenn dort eine deutlich bessere Kühlung notwendig ist.

Ich habe irgendwo gelesen das der Ryzen wohl genau die gleichen "Probleme" bei der Temperatur haben soll wie auch der I7 7700k. Es gibt wohl auch dort immer diese Temperaturspitzen.

Und es war ja bisher immer so, das AMD wesentlich wärmer wurde unter Last als Intel.
 
Quelle?

Ich kenne nur das genaue Gegenteil und des weiteren weder die offizielle Aussage von AMD, dass die (OC-)CPUs um Heat-Spikes zu vermeiden bitte innerhalb der ausgelieferten Spezifikationen laufen sollen, noch die Tatsache, dass die Ryzens dank Verlötung immer wieder mal an die >90°C köcheln. Das passierte nur Intel mit ihrem 7770K und der Wärmeisolationspaste.

Des weiteren wird Ryzen eben nicht wärmer als vergleichbare Intel-Produkte, da minimal sparsamer, bis gleiche Leistungsaufnahme und eben gut verlötet, im Gegensatz zu der Billig-Lösung.
 
Zuletzt bearbeitet:
Zurück
Oben