Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestFortnite, LOL, PUBG & Co.: 14 Prozessoren von AMD und Intel im Benchmark
Bei Shootern wie Overwatch oder Quake sind 60 Hz sowieso raus - das Ruckeln wäre der dominante Bildqualitätsmangel. Da würde ich selbst die alte Röhrenkiste mit 1152x864@120 Hz vorziehen.
Und wenn ich bei Overwatch Details herunterschalten muss, um die 144 fps zu halten, nützt mir die höhere Auflösung auch nichts. Dann sind die Kanten vielleicht etwas feiner, aber dafür die Metallglanzeffekte weg.
Ich habe deine Aussage mal so erweitert, dass sie auch stimmt. Dass die damit erzielten Ergebnisse nicht stimmen, und zwar weder bei AMD noch bei Intel wurde ja schon oft genug gesagt - aber wie immer herzhaft ignoriert. Es zeigt einfach nicht die Leitungsfähigkeit von CPUs. Das könnte nur ein sysnthetischer Test, der die gleiche Aufgabe bei jeder CPU ausführt und die maximale Anzahl von Kernen nutzt. Dann, aber auch nur dann könnte man wirklich bestimmen, was eine CPU zu leisten imstande ist.
so Tests gibts massig, siehe CPU Rating. Es geht darum die Leistungsfähigkeit der CPU in den jeweiligen Titeln zu zeigen. Die wie jedes Game selten >4 Threads effektiv nutzen. Bei 30 Mio Spielen / Titel is das weit interessanter als eine 100% Auslastung aller Kerne welche beim Heimanwender nur selten vorkommt.
Und nur weil jemand in einem Titel hier zu Hause bessere FPS hinbekommt bedeutet das nicht das CBs Werte fürn Arsch sind. Wieso sollte man sowas überhaupt kommentieren. Schau ob die Prozentualen Unterschiede sich in diesem Titel etwa mit dem decken was andere Seiten auch messen.
Vermutlich hat CB zudem in LoL eine aberwitzig CPU lastige Szene genommen (was angesichts des Tests Sinn macht) oder aber es liegt zb an Replay.
Die meisten 1080Ti Besitzer, die dann auch einen entsprechenden 144hz Monitor oberhalb von FHD haben(ich mit meiner Vega übrigens auch), schrauben aber auch die Settings zurück, um die fps zu erreichen.
...sicherlich. Habe gerade mal in Ark meine Grafik auf Full-HD rungergeschraubt. Hey, komme so dauerhaft über 60 Herz statt um die 30.
Wie Scheiße sieht denn das aus? Bekommt man ja Augenkrebs....
60 Herz ist so flüssig, was will man da großartig noch eine höhere FPS wenn die Grafik wesentlich übler aussieht? Macht doch real gesehen kaum ein Mensch, außer jemand, der sich für 500 Euro einen 144 hz MOnitor gekauft hat und unbedingt dieses Feature, auf Gedeih und Verderb nutzen will. Eine absolute Minderheit.
Tjo… andere bekommen von 30FPS Augenkrebs. Wenn die nicht wirklich stabil anliegen ist das auch für mioch zu wenig, ich peil eher mindestens 45FPS bei RPGs usw. an und wirklich stabile 60FPS für Shooter und Racing. Leute die Shooter kompetitiv betreiben ist aber selbst das zu wenig, denn da geht es nicht nur ums aussehen sondern auch um die Reaktionsfreudigkeit der Engin die sehr oft an die FPS gekoppelt ist. Frag mal einen CS Spieler, der lacht dich bei 60 FPS aus und sagt dir dann was von 300.
Edit: und FullHD und "scheiße aussehen"... ich sitz hier 1 Meter vor meinem 47" TV bei FullHD… sieht echt super aus. Keine Ahnung wofür ich da 4k brauchen sollte.
Selbst bei Kinofilmen und Serien ist immer die Zwischenbildberechnung an. 24 fps sehe ich sogar bei leichten Armbewegungen oder Kopfdrehungen eines Darstellers schon als Ruckeln, jeder Aussetzer der Zwischenbildberechnung wegen zu unvorhersehbarer Bewegungen "schmerzt" regelrecht.
Bei Overwatch erkenne ich Drops auf 80 fps blindtestsicher ohne Direktvergleich (ein Update hatte die Skalierung eigenmächtig auf 141% zurückgesetzt) - trotz perfekter Frametimes durch G-Sync.
Tjo… andere bekommen von 30FPS Augenkrebs. Wenn die nicht wirklich stabil anliegen ist das auch für mioch zu wenig, ich peil eher mindestens 45FPS bei RPGs usw. an und wirklich stabile 60FPS für Shooter und Racing. Leute die Shooter kompetitiv betreiben ist aber selbst das zu wenig, denn da geht es nicht nur ums aussehen sondern auch um die Reaktionsfreudigkeit der Engin die sehr oft an die FPS gekoppelt ist. Frag mal einen CS Spieler, der lacht dich bei 60 FPS aus und sagt dir dann was von 300.
Aber so verdreht man halt Argumente...Krebs im Kopf nenne ich das.
Hat ja niemals irgend einer davon geredet, dass man 30 FPS toll finden muss. Hier ist die Diskussion im Gange, dass man unbedingt 100+ Frames bräuchte und deswegen die Auflösung runterskaliert, weil 60 fps nicht ausreichen.
Jesterfox schrieb:
Edit: und FullHD und "scheiße aussehen"... ich sitz hier 1 Meter vor meinem 47" TV bei FullHD… sieht echt super aus. Keine Ahnung wofür ich da 4k brauchen sollte.
Joa seh ich auch so. Ich schraub an meinem 40" 4K nie auf FHD oÄ zurück um die 60p zu halten. Ich kann da gut ohne vsync mit um 45-60p leben und hab dafür Details und volle Auflösung.
Hat ja niemals irgend einer davon geredet, dass man 30 FPS toll finden muss. Hier ist die Diskussion im Gange, dass man unbedingt 100+ Frames bräuchte und deswegen die Auflösung runterskaliert, weil 60 fps nicht ausreichen.
60 fps ruckeln. 60 hz ruckeln. ab 80-90 fps+hz kann man langsam mal von "flüssig" sprechen, wirklich gut wirds dann ab 120 fps/hz. bestimmte spiele reagieren noch auf mehr fps/hz.
Vissi schrieb:
Lieber 4K auf 30-40 Herz, statt Full-HD auf 100 hz.
Kommt auch drauf an ob man FHD bei 15" hat oder 24". Am 40" sieht 1080p mehr als bescheiden aus.
Wer ultra schnelle Shooter wie @ Topic / Test spielt, da versteh ich absolut dass er gern 100FPS und mehr hat.
Aber da sollte man auch auf jedenfall Freesync / Gsync haben.
Edit : ich spüre natürlich auch klar zB in FC5 den Unterschied 45 zu 60 FPS an 4K, aber ich würde für die 15FPS eben nicht die Grafik zurück schrauben.
der Test zeigt eben nicht, wie Taxxor schreibt, wie viel eine CPU berechnen kann, wenn die Grafikkarte nicht limmitiert wenn hier von Haus aus weniger Kerne genutzt werden, als die CPU bietet.
Natürlich zeigt der Test das, oder was ist für dich die Angabe in den Diagrammen? Der FPS Wert den die jeweilige CPU im jeweiligen Spiel erreichen kann.
Ob das Spiel jetzt 8 Kerne nutzt oder nur 2 ist doch dabei völlig egal, die Aussage steht, dass CPU A in Spiel X mehr FPS schafft als CPU B. Warum sie das schafft, ist ein ganz anderes Thema aber darum geht es doch gar nicht.
Mann kann noch sagen, dass es kein richtiges CPU Limit sei, weil die CPU ja noch mehr könnte, wenn mehr Kerne angesprochen würden, für mich ist es trotzdem ein CPU Limit weil die Kerne, die vom Spiel angesprochen werden limitieren.
Also erweitere ich meine Aussage auch ein wenig, um das klarer abzugrenzen:
Der Test zeigt, wie viel eine CPU mit den vom Spiel bereitgestellten Bedingungen in der Lage ist zu leisten.
Ergänzung ()
Vissi schrieb:
Hier ist die Diskussion im Gange, dass man unbedingt 100+ Frames bräuchte und deswegen die Auflösung runterskaliert, weil 60 fps nicht ausreichen.
Frag dich mal, warum 144Hz so beliebt ist und sich immer mehr Leute entsprechende Monitore holen jetzt wo sie immer günstiger werden.
Der Unterschied zwischen 30fps und 60fps ist zwar viel größer, aber 144fps oder meinetwegen auch 120fps zu 60fps ist auch noch mal ein ganz anderes Gefühl.
Wenn du mit 30fps, speziell bei einem Rennspiel wie Dirt zufrieden bist, dann gehörst du, zumindest hier im Forum, selbst eher der Minderheit an.
Da ich bei meinem 27 Zoll Monitor den direkten Vergleich von vielen Kombinationen habe, meine Meinung:
(Da ich vor meiner 1080 den Bildschirm 2 Monate mit einer 560 befeuern musste, ging nur FHD)
- 27 Zoll auf FHD ist totaler Pixelbrei. Die Pixeldichte ist viel zu gering, Dies wird natürlich bei noch größeren Bildschirmen viel schlimmer. Wer ist einmal selbst gesehen hat wird es verstehen, davor nicht.
- Aber auch muss ich den 60Hz + Leuten zustimmen. Es ist wirklich wahr. 80-160 fps sind ein weitaus flüssigeres Spielgefühl.
Den Unterschied merkt man aber hauptsächlich bei schnellen Shootern. Witcher 3 merke ich kaum den Unterschied.
Also man kann sagen, dass es eher Titel abhängig ist.
Daher gibt es für mich nur einen einzig wahren Monitor.
4k@144Hz.
Dies wird aber leider erst in 2-3 Jahren sinnvoll realisierbar sein.
Denn aktuell schaffe ich mit meiner 1080 je nach Titel zwischen 60-120 fps in WQHD. Da braucht es für 4k noch ein paar Generationen an Grafikkarten.
Esenel: Ich gehe davon aus, dein 27" hat eine native Auflösung von 1440p? Dann macht der Pixelbrei Sinn, wenn du ihn auf 1080p stellst, da die Pixel nicht genau halbiert werden.
Ein nativer 1080p 27" Monitor würde da besser aussehen.
Kann man auch gut auf dem Desktop ausprobieren, mit meinem 1440p Monitor wird bei 1080p alles leicht verschwommen, bei 720p ist es besser, weil hier immer genau 2 Pixel vom Display einen Pixel der eingestellten Auflösung darstellen.
Auch bei nativen 27" mit 1920x1080 sieht man eine gewisse Unschärfe, bei den beiden die ich damals getestet hab konnte ich auch ein Gittermuster zwischen den Pixeln stellenweise wahrnehmen. Insgesamt wurde es dann doch lieber nen Wqhd-Monitor
@Vissi: Wo sind wir denn jetzt in der Diskussion angekommen? Bei (realistischeren) Anwendungsszenarien wie 4k? Bei bekannten E-Sports-Titeln wie ARK Surviral Evolved? Findest Du das nicht ein bisschen arg getrollt? Darum geht es hier nicht, es geht eben um die E-Sports-Titel, die hier getestet wurden. Aktuelle Spiele sehen bei einer Mischung aus mittleren bis hohen Einstellungen oft nicht bemerkenswert schlechter aus als mit Ultra-Einstellungen, ARK ist hier (bekanntermaßen) eine Ausnahme. Bei den hier getesteten E-Sports-Spielen ist es auf neueren Mittelklassekarten (GTX970, GTX1060, RX470/570, RX480/580) überhaupt kein Problem, hohe fps bei einer Mischung aus mittleren und hohen Einstellungen in 1080p zu generieren.
Ich hätte gern mal Deine ehrliche Antwort: Hast Du schonmal auf einem 120Hz+ Bildschirm gespielt? Gerade bei Dirt müsstest Du deutliche Unterschiede zwischen 40 und 120fps merken. Ob Du das Spiel in 4K spielst oder nicht ist übrigens nicht primär für die Bildschärfe verantwortlich, sondern die Pixeldichte. Die ist bei Dir etwa 110 ppi, das hast Du auch bei 27"@1440p. Es gibt solche Bildschirme auch mit 1440p@23.8", da kannst Du also prinzipiell auch noch mehr Schärfe rausholen.
Ich sag es nochmal für alle, weil es einige Leute scheinbar nicht verstehen wollen: Dass die Ergebnisse hier mit einer GTX 1080Ti erzielt wurden ist unerheblich dafür, mit welcher Grafikkarte später gespielt werden soll. Durch das Verschieben von Reglern in den Einstellungen kann man auch mit einer langsameren Grafikkarte mehr fps holen, durch geringere Auflösung genau so. Und selbst wenn man das nicht macht, kann einen interessieren, ob man mit dem Prozessor, den man kaufen möchte, seine Grafikkarte voll ausfahren kann, das kann man hier ohne Probleme nachschauen.
Von CPU-Limit kann man hier auch sprechen, wenn die Spiele nicht ausreichend von den zur Verfügung stehenden Threads gebrauch machen, weil dann eben der benutzbare Teil der CPU limitiert. Natürlich wäre es schöner, die Hardware machte besseren Gebrauch von mehr Threads, das kommt aber erst jetzt, wo auch Intel wegen einem schlechten 10nm Prozess, Konkurrenz und horrendem Stromverbrauch bei mehr Kernen mit viel Takt interesse an besser parallelisierten Spielen hat. Der spekulierte 8-Kerner für den Mainstream-Bereich wird entweder lange nicht so hoch takten können wie aktuelle Coffee Lakes, oder eben deutlich mehr Strom brauchen.
naja "abstinken" würde ich das nicht nennen, dass in Esport Games Intel durch den teils deutlich höheren Takt + etwas mehr IPC vorn liegt war abzusehen.
In Applikationen und Games die nach mehr Kernen verlangen (wie zb BF1) siehts schon wieder etwas anders aus. Auch Games die eher im GPU Limit sind profitieren dann eher von mehr Kernen auf lange Sicht.
Wenn man weiß was man tut ist ein Ryzen kaum langsamer und man hat wenigstens keine Zahnpasta im Gebrauch ;-)
In für mich relevanten Szenarien wäre ein Coffee Lake gar nicht bis nur marginal schneller.
Ja....und von Ryzen Spielern hört man dann immer Argumente wie " auf lange Sicht" oder 1-2 Ausnahmetitel wo das nicht so ist um ihre CPU zu verteidigen. Schon seit dem FX immer die gleichen Argumente....Ich bin froh mich zum Anfang des Jahres, bei meinem neuen System, mich wieder für Intel entschieden zu haben. War ja kurz davor ( gehyped) auf Ryzen umzusteigen.
Ja....und von Ryzen Spielern hört man dann immer Argumente wie " auf lange Sicht" oder 1-2 Ausnahmetitel wo das nicht so ist um ihre CPU zu verteidigen. Schon seit dem FX immer die gleichen Argumente....Ich bin froh mich zum Anfang des Jahres, bei meinem neuen System, mich wieder für Intel entschieden zu haben. War ja kurz davor ( gehyped) auf Ryzen umzusteigen.
Dieses eindreschen auf Ryzen, nur weil ein Parkour gefahren wird welcher optimal für die Intels sind.
AMD hat mit Ryzen eine sehr solide Grundlage geschaffen und ist mit ihrem Produkt auch konkurenzfähig.
Mal davon abgesehen. Dass die besten Gaming CPUs der 7700k und der 8700k sind dürfte wohl kaum einer bestreiten. Sie haben für heutige Spiele genug Threads und können einfach unglaublich hoch takten und bringen damit Ihre Leistung besser auf die Straße als jede andere CPU.
Erst danach verliert Intel seine Beherrschende Stellung. Wie viele leisten sich eine CPU>300€? Die meisten schauen sich nach CPUs im Bereich um die 150-200€ um.
Hier konkuriert der I5 8400 mit dem R5 1600(x). Und genau hier kann AMD mithalten. Der 8400 ist einfach sehr stark kastriert. Auf seinen Angestammten Boards kann man nichtmal das XMP des Ram aufrufen. Der 8400 lässt keine Allcore Übertaktung zu und das allerwichtigste. Es fehlt ihm an den Threads die er bereitstellt, denn er ist um sein HT beschnitten.
Der 1600(x) ist keine solche Single Core Krücke wie der Bulldozer. Er hat viel Single Core Rechenleistung aber im Multithreading kann er seine Stärken wirklich ausspielen. Es ist wie beim CB Test beschrieben. Prinz in den Spielen, König in den Anwendungen.