Test Spielen in Ultra HD/4K im Test: High-End-GPUs sind Pflicht, schnelle CPUs aber auch

Werde ich meinen i7 3930k@4,5ghz jemals ersetzen müssen? Hält mittlerweile seit 6 Jahren.
 
Mit welchen Tools kann ich mir die Frametimes im Spiel anzeigen lassen,das interessiert mich jetzt sehr.
 
intereddy schrieb:
Werde ich meinen i7 3930k@4,5ghz jemals ersetzen müssen? Hält mittlerweile seit 6 Jahren.

Ich tippe mal ins Blaue und sage: vermutlich wenn Du mehr Leistung brauchst.
Mein C64 hält auch noch, aber reicht nicht mehr ganz um hier im Forum zu schreiben.
Ist aber nur eine Vermutung.
 
Wardaddy schrieb:
Mit welchen Tools kann ich mir die Frametimes im Spiel anzeigen lassen,das interessiert mich jetzt sehr.

MSI Afterburner/Fraps benutze ich im Moment. Allerdings sollte dir klar sein, Frametimes ist nichts, was man sich oben Links live Anzeigen lassen sollte(kann?).
Frametimes sollten immer in einem Graphen ausgegeben und umso weniger die Welle oszilliert umso besser. Perfekt wäre eine waagrechte Gerade.

Aber lass dich dadurch auch nicht Wahnsinnig machen! Schlechte Frametimes ist das, was man als ruckeln wahrnimmt. Nimmt du Subjektiv kein ruckel wahr, musst du dir keine Gedanken machen.
Benutzt du Freesync, ist jeder Drop in den Freesyncbereichen fast egal, da man es nicht wahrnimmt.

Als Tipp von mir:
Einfach die FPS messen und wenn es trotz vernünftiger "FPS" ruckelt, dann sind die Frametimes stark schwankend. Dafür gibt es meist drei Möglichkeiten: CPU/VRAM/RAM.
 
D708 schrieb:
Ich finde es toll, dass ihr die Frametimes mit reingenommen habt.

Ich finde solche Sachen eh gut. In Zeiten wo die Durchschnitts-FPS teilweise über 70-100 gehen, je nach hardware, werden andere Dinge wichtiger.
Ich finde auch Benchmarks gut, wo man Frameverläufe sieht und auch Angaben zu 0.1% low und 1% low.

Z.B. wie hier:

und hier:

Ich schaue gerne auf Auffälligkeiten, wie besonders viele niedrige Minimum-FPS, oder Ausreißer, bei den Frametimes und Frameverläufen.
Das kann Aufschluss über "Hakler" im Spiel geben.

Ich erhoffe mir von den neuen CPUs(z.B. wie die Ryzon 1600) auch gute Unterstützung für die neueren GPUs, so dass das Spielerlebnis ingesamt flüssiger, ruhiger wird.
Auch auf neuer basis, mit neuem Ram usw. .

Keine Ahnung wie genau das alles zusammenspielt, mit RAM, CPU, SSD, GPU, aber flüssiger, ohne "Hakler" beim Zocken mag ich halt.

Ich freue mich schon auf meinen nächsten Gaming PC, den ich mir zusammenstellen werde. :)
 
Zuletzt bearbeitet:
Mir sind diese Leute immer suspekt die eine GTX 1080ti zu einem 2500K empfehlen, oder allgemein sagen, dass sich das aufrüsten eines 2500K nicht lohnt.

Da sieht man einfach, dass die nie im CPU-Limit gespielt haben. Ich hatte einen 955BE zu einer HD5850. Kosten für die Grafikkarte waren damals 300 Euro, CPU 130 Euro.
Das ging 4 Jahre lang super, bis man Spiele hatte, wo man man eben ins CPU-Limit gerutscht ist. Klar war die Grafikkarte auch nicht mehr die neueste, aber spätestens beim Tausch gegen eine RX470 wusste ich was Sache ist. Die FPS sind vielleicht um 20 % gestiegen, aber Nachladeruckler hatte ich nach wie vor. Mit meinem R7 sieht die Welt schon viel besser aus :)
 
Ein Test um zu sehen was geht...aber nur wichtig für die 1% Gamer die 4k benutzten. Der Rest ist eine Moment Aufnahme und für die Galerie.
Auch kann ich mich den Usern anschließen, die ältere Prozzis gerne gesehen hätten. i5 2500k, Xenon v3 und auch der Pentium G4560...
Wie wäre dann das Fazit ausgegangen? " Man brauch nicht nur schnelle Prozzis, auch alte könnten reichen, aber wichtiger ist die Grafikkarte und das subjektive Empfinden, was ausreicht und was nicht?!

Die entstehende Dissk. bezüglich der 99 Dingens und was nun besser wäre...bei ein paar Prozent Unterschied, was niemand so abschätzen kann, ist schon lustig.
Was noch vergessen wird, dieses Jahr kommen noch die Intel 6 Kerner raus.
Was dann die 99 Dingens Messung ergibt, dürfte am interessantesten sein. Oder min Frames oder was auch immer. Ich frage mich nur, wie ich die ganzen 24 Jahre ohne diese Infos ausgekommen bin. Ich weiß es, Spiel einlegen und spielen! Ruckelt, gefällt mir etwas nicht, wird an den Einstellungen gedreht bis es passt. Waren das noch Zeiten, kann ich euch sagen...:evillol:
 
Vor ein paar Wochen, wurde der i7 6900K als beste Gaming CPU betitelt und hier wird er nicht aufgeführt.
Musstet ihr das CPU Muster wieder zurück bringen? :D
 
vram78 schrieb:
Was ist denn bitte der Unterschied zwischen UHD und 4k?


Und wie kann es sein, dass die Xbox Scorpio native 4k auf 60 fps schafft und das für 500 Euro , wohingehen alleine schon cpu und gpu im High End Bereich die 1000 Euro knacken? Da kommen noch Gehäuse , Bildschirm, Mainboad, Kühlung(!) Etc. Hinzu..



Verstehs nicht :/

https://www.reddit.com/r/pcmasterra..._reaction_to_true_4k_games_on_the_xbox_one_x/

Man kann von Linus halten was man will, die Reaktion fast gut zusammen was ich auch von dem "true 4k 60FPS" halte.
 
zandermax schrieb:
Mir sind diese Leute immer suspekt die eine GTX 1080ti zu einem 2500K empfehlen, oder allgemein sagen, dass sich das aufrüsten eines 2500K nicht lohnt.

Da sieht man einfach, dass die nie im CPU-Limit gespielt haben. Ich hatte einen 955BE zu einer HD5850. Kosten für die Grafikkarte waren damals 300 Euro, CPU 130 Euro.

Wobei der Vergleich natürlich hinkt. Der angestaubten 955BE ist deutlich langsamer als ein Ryzen, während ein 2600k nur ca 25 Prozent in synthetischen Benchmarks hinter dem 7700K liegt.
 
Neronomicon schrieb:
Was noch vergessen wird, dieses Jahr kommen noch die Intel 6 Kerner raus.

Ich schätze mal Coffee Lake wird's für Gamer aber extrem schwer haben, Preis-/Leistungsmäßig mit dem Ryzon 1600(ohne X) mitzuhalten.
Ob die ein Modell für unter 230€ raus bringen ?

edit: Momentan liegt der 1600 bei um die 215€. :daumen:
 
Zuletzt bearbeitet:
Ich find keine Option im Afterburner um mir die Frametimes anzeigen zu lassen.

//EDIT Habs gefunden.
 
Zuletzt bearbeitet:
Andy_O schrieb:
Vor ein paar Wochen, wurde der i7 6900K als beste Gaming CPU betitelt und hier wird er nicht aufgeführt.
Musstet ihr das CPU Muster wieder zurück bringen? :D

:hammer_alt: :evillol: Die können ja unsere haben.
Scherz. :D

Ich habe mir den damals eigentlich nicht fürs Gaming geholt. Aber auf ordentliches Gaming wollte ich auch nicht ganz verzichten.
Mein Anwendungsbereich: 70% Rendern, Photogrammetrie ; 30% Gaming.

Da gab es ende 2016 keine echten Alternativen. Außer ein nochmal teureres XEON System.
Und das Totschlagargument "Man hätte ja warten können bis ... X,Y erscheint, bla bla..." ist immer so eine Sache.
Warten kann man ja immer. Aber wer immer Wartet kauft nie.
(Habe natürlich Testweise trotzdem kurz einen 14 Kerner XEON E5 getestet. Günstig von der Bucht. Würde ich heute nicht mehr tun.)

Alles in allen habe ich zwar damals viel Geld investiert, aber bei der Halbwertszeit der highend Hardwarepreise muss man das in kauf nehmen.

Ich habe die letzten Tage auch überlegt meine zwei Monitore (Die Systeme stehen in getrennten Räumen und es soll auf 1x System konsolidiert werden) gegen einen gescheiten UHD 16:9 Monitor ab 32" zu tauschen.

Allerdings ist dann auch schon wieder die "normale" GTX 1080 zu wenig. Das kleine kompakte Gehäuse soll auf keinen Fall weg.
Deswegen habe ich mich auch wohl oder übel wieder von der klobigen 1080 ti Aorus getrennt.

Die CPU jedenfalls reicht noch sehr lange für sehr viele Szenarios.
Allerdings muss für mich erst die GPU Power auch eine Klasse tiefer als absolutes Highend im Markt verfügbar sein um UHD Gaming wirklich interessant zu machen.

OK; Ich weiß, absolutes "First World Problem" aber nu, was solls. Mag man es mir bitte verzeihen. :D :D
 
Zuletzt bearbeitet:
Jein. Das ist alles viel komplizierter.

Ließ dich mal um das Thema PPI (Punkdichte der Pixel) ein.

https://de.wikipedia.org/wiki/Punktdichte

Dazu kommen noch Faktoren wie Sitzabstand zum Monitor, Größe des Monitors, etc.
Und das persönliche Empfinden, wann noch etwas scharf erscheint ist auch nicht ganz zu vernachlässigen.
Ich bin Brillenträger. Auf eine Entfernung bis 1,2-1,5 Meter habe ich ohne Brille Adleraugen. Alles was drüber hinausgeht wird schwammig.
Das Nervt beim z.Bsp beim Autofahren. Stört mich aber nicht bei der beruflichen und privaten PC Nutzung.

Wir haben auf Arbeit "nur" FHD (1080p) Beamer. Wenn ich meine Brille im Meeting nicht dabei habe, drängel ich mich ganz weit nach vorn um was zu sehen.
:D :freak:

Prinzipiell ist das YT Video fürs grobe Verständnis ob 4K "besser" ist schonmal ein Anfang. ;)
 
Zurück
Oben