Test Fortnite, LOL, PUBG & Co.: 14 Prozessoren von AMD und Intel im Benchmark

Krautmaster schrieb:
= hier in dem schon etwas älteren Video sieht man das gut. Möglich dass eine Vega gerade in den E sport Titeln nochmal deutlich schneller ins CPU Limit geht - oder auch nicht und mit vielen Threads was anfangen kann.

Das dürfte darauf zurückzuführen sein, dass der Nvidia DX11 Scheduler die Threads an die CPU gleichmäßig verteilt, während die AMD Karten diese mehr oder weniger so weitergeben wie das Spiel es vorsieht.
Deswegen sind AMD Karten auch in DX12 Spielen oft schneller, da hier die Threads schon von Grund auf besser verteilt sind und der Nvidia Scheduler hier nichts mehr rausholen kann.
In DX11 Spielen hingegen liegt mehr Last auf der CPU weil die AMD Karte sie nicht gleichmäßg belastet. Das fällt bei einem 4C/8T nicht sonderlich auf, aber bei dem Pentium wird es dann deutlich.
Ergänzung ()

Vissi schrieb:
Und was bringt dir das wissen? Darauf kommt es doch an...
Sicherlich sagt der Test etwas aus, aber es bringt einem nichts.

Was mir das Wissen bringt habe ich dir in zwei Praxisnahen Beispielen genannt, du musst sie nur lesen.
Ich muss wissen, wie viele fps die CPU erzeugen kann, ich könnte mir schließlich statt einer 1080Ti auch ein 1080Ti Quad SLI aufbauen, nur um dann festzustellen, dass das CPU Limit nur 10fps über den Limit der einzelnen 1080Ti liegt.


Vissi schrieb:
Einem Graka-Besitzer mit einer schnellen Graka beantwortet es nicht, ob er lieber aufrüsten sollte weil kein Schwein mit einer 1000,- Euro Graka nur einen FUll-HD-Monitor besitzt, möge er auch über 100 hz bringen.
Wie ich schon geschrieben habe, der CPU ist es egal ob er einen FHD oder einen 4K Monitor benutzt, die CPU bringt ziemlich genau die gleichen fps in beiden Fällen.
Es beantwortet dem schnellen GraKa Besitzer also, ob es sich überhaupt lohnt die GPU aufzurüsten, oder ob er danach sowieso im CPU Limit landet.

Vissi schrieb:
Wenn man einen Monitor mit einer hohen Bildfrequenz sein eigenen nennt, dann ist das in der Regel auch ein Monitor, der mehr als Full-HD schafft. Das ist das Problem an dem Test. Relalitätsfremd.
Wie schon mehrmals geschrieben, die meisten 144Hz Monitore sind 1080p.
Und wie oben, nochmal, die Auflösung macht für die CPU keinen Unterschied, ich kann mit der selben Karte auch die Details reduzieren um die gleichen fps auf 1440p zu erreichen. Wenn die CPU aber selbst gar nicht so hoch kommt, dann kann ich da auch mit Einstellungen nicht viel dran ändern und es hilft nur austauschen.

Ich könnte auch mit niedrigen Settings bei GTA V mit einem Pentium nicht über 60fps kommen, wenn ich plötzlich einen 1440p 144hz Monitor habe.
Genau für diese Info ist der Test gut, damit ich weiß mit welcher CPU ich in Verbindung mit einer stärkeren GPU oder eben niedrigeren Settings eben höher komme.
 
Zuletzt bearbeitet:
Vissi schrieb:
Wenn man einen Monitor mit einer hohen Bildfrequenz sein eigenen nennt, dann ist das in der Regel auch ein Monitor, der mehr als Full-HD schafft.

Wiederholung macht diese völlig aus der Luft gegriffene Behauptung auch nicht plausibler.
 
JMP $FCE2 schrieb:
Ich habe sogar eins mit 144 Hz, 27" und G-Sync. Und würde mich wieder dafür entscheiden, weil die GTX 1070 nicht schnell genug ist, um die 144 fps bei 1440p auch bei Massenschlachten in Overwatch dauerhaft zu halten.

Und selbst wenn GPU-Leistung "über" ist, kann ich sie für DSR oder Ingame-Skalierung nutzen, und zumindest vom Antialiasing-Effekt der höheren Auflösung trotzdem profitieren.

Für dich ist der Test doch auch ohne Aussagekraft (mit wenig Aussagekraft). Weil du nur eine lahme 1070 hast. Da limitiert doch immer deine Graka. Wie gesagt, keine Sau mit einer 1080ti hat nur ein Full-HD-Panel, möge es auch 100hz+ schaffen. Deswegen ist der Test meiner Meinung nach realitätsfremd.
 
@Krautmaster
Allein eine Fehlbehandlung der logischen Kerne kann bei SMT weitreichende Konsequenzen haben und man hat im dümmsten Fall (es werden nur 2 Kerne genutzt und statt 2 physischer Kerne werden die beiden logischen Kerne eines physischen Kerns genutzt) nur noch die halbe Leistung. Da sich SMT bei AMD und Intel unterscheidet ist das nicht auszuschließen.
 
Vissi schrieb:
Für dich ist der Test doch auch ohne Aussagekraft (mit wenig Aussagekraft). Weil du nur eine lahme 1070 hast. Da limitiert doch immer deine Graka. Wie gesagt, keine Sau mit einer 1080ti hat nur ein Full-HD-Panel, möge es auch 100hz+ schaffen. Deswegen ist der Test meiner Meinung nach realitätsfremd.

Nicht jeder schraubt die Settings ganz nach oben, auch eine 1070 schafft mehr fps als viele der hier getesteten CPUs in den jeweiligen Spielen.

Und die Aussage keiner nutze 1080Ti+ FHD ist immer noch Schwachsinn, denn eine 1080Ti braucht man in FHD ja bei vielen Spielen schon alleine um die 100+fps zu erreichen.

Eine 1080Ti kommt z.b. in Battlefield 1 welches ja schon sehr gut optimiert ist, nur in FHD auf 144fps, in 1440p sind es schon nur noch 100.
Also macht hier 1080p 144hz + 1080Ti sehr wohl am meisten Sinn.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Was mir das Wissen bringt habe ich dir in zwei Praxisnahen Beispielen genannt, du musst sie nur lesen.
Ich muss wissen, wie viele fps die CPU erzeugen kann, ich könnte mir schließlich statt einer 1080Ti auch ein 1080Ti Quad SLI aufbauen.

Was sicherlich offensichtlich ziemlich realitätsfremd ist, genauso wie der Test. Siehst du, so schnell gibst du mir recht, ohne dass du es wolltest. :D
 
Dann nimm doch die beiden vorher genannten Beispiele, die sind keineswegs realitätsfremd.
Und dann nimm statt dem Quad SLI eben die 1180Ti nächstes Jahr und du hast den gleichen Effekt, nämlich dass es dir passieren kann, dass du nach dem Wechsel in ein CPU Limit rennst, weil du den reinen fps Output der CPU nicht kennst.


Gerade für die Esports Spiele hier ist dieser Test sogar in der anderen Richtung Realitätsfremd, weil niemand auf Max Settings spielt.
Die wollen alle ihre 150+fps in diesen Spielen haben, und hier sieht man dann sehr gut welche CPU das denn kann.
In CS:GO wäre das z.b. alles ab dem 8400.
Was bringt einem da die Info, dass man in 4K bei CS:GO mit jeder CPU 120fps erreicht?

Wer hohe fps will, dem ist mit einem CPU Test in 4K überhaupt nicht geholfen, weil man dann nicht sieht wie viel man rausholen könnte, wenn man die Settings zurückschraubt. Diese Info gibt einem einzig und allein das CPU Limit.
 
Zuletzt bearbeitet:
Vissi schrieb:
Andere Argumente als Minderheiten aufzuzählen, fällt dir wohl nicht ein.

Minderheiten? Mir kam die Nachfrage nach 144Hz Monitoren bisher größer vor als nach 4k, zumindest wenn man nach dem Forum hier geht. Und bei CS ist es doch eh üblich 800x600 bei Minimum Details zu nehmen um die FPS zu maximieren.

Und ich diffamiere hier niemanden, ich treffe nur eine Aussage zu den Kommentaren und das mit dem selben Wort das auch er benutzt hat.

Aber mein Hauptargument scheinst du überlesen zu haben: mit dem aktuellen Test kann jeder etwas anfangen, Leute die in hohen Auflösungen spielen wollen müssen halt nur im GPU Test raussuchen ab wann die GPU-Limitierung einsetzt. Aber mit einem Test in 4K könnte jemand der gerne hohe FPS hätte absolut nichts anfangen.
 
Taxxor schrieb:
Nicht jeder schraubt die Settings ganz nach oben, auch eine 1070 schafft mehr fps als viele der hier getesteten CPUs in den jeweiligen Spielen.
.

Das stimmt. Aber ehrlich, die Meisten spielen doch lieber mit höheren Settings als mit einer maximalen Framerate.

Mit höheren Settings, einer hübscheren Grafik, hat man mehr Spielefun.

Und weil das so ist, sind deine anderen Argumente auch keine mehr.
 
Vissi schrieb:
Das stimmt. Aber ehrlich, die Meisten spielen doch lieber mit höheren Settings als mit einer maximalen Framerate.
Tun sie das ?
Vissi schrieb:
Mit höheren Settings, einer hübscheren Grafik, hat man mehr Spielefun.
Hat man das?

Warum ist das so?
Vissi schrieb:
Und weil das so ist
Aha...

Also ich für meinen Teil, und wohl auch viele andere, die nicht zu dem 30fps Konsolenspielern gehören, haben lieber ein geschmeidiges Gameplay als hübschere Grafik.
Ich würde 144fps FHD jederzeit 60fps 4K vorziehen.
Genau wie ich 144fps Medium 60fps Ultra vorziehen würde.
Denn sobald beim laufen kleine Mikroruckler auftreten, und sei es nur ab und zu, nimmt mir das sehr viel mehr den Spielspaß, als wenn ein Baum nun 10.000 statt 15.000 Blätter hat.

Und noch mal, die beiden schließen sich nicht aus, wenn ich jetzt mit meiner GPU und CPU in Spielen 4K 60fps schaffe, hilft mir dieser Test, zu sehen ob ich in neueren Spielen und mit einer stärkeren GPU nächstes Jahr denn diese fps halten kann oder ob meine CPU jetzt schon am Limit ist.
Denn ein GPU Limit ist bei Spielen gewünscht, ein CPU Limit ist sehr schlecht.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Ich würde 144fps FHD jederzeit 60fps 4K vorziehen.

Wann meldet sich denn hier mal endlich einer, der auf Full-HD mit einer 1080ti zockt? Gibt keinen. Die, die bereits eine 500,- Euro Graka besitzen, haben auch für 500,- Euro einen Monitor. Und der schafft in der Regel mehr als nur das olle Full-HD.

Wie gesagt, die Minderheit mag das so machen, aber die Mehrheit nicht und deswegen empfinde ich persönlich den Test für weniger aussagekräftiger, für eher realitätsfern.
 
Die Mehrheit hat wohl eher einen 1080p 60hz Monitor und da kommt wieder mein GTA V Beispiel in dem einige CPUs gerade so die 60fps schaffen und demnach in folgenden Spielen nicht mehr ausreichen, wobei man aber nur durch Beseitigung des GPU Limits sieht, dass andere CPUs eben mehr Reserven haben.

Schaut man sich den Test zum 8700K an, sind da viele Spiele, die vor allem in den 99th fps unterhalb der 60 liegen. Beim 4K Test liegen durch das GPU Limit die großen dann auch dort unten, also weiß man nicht, mit welcher CPU man über 60fps kommen kann und mit welcher nicht.
Im Grunde hat man auf die Art nur eins, einen GPU Test für die 1080Ti.

Vissi schrieb:
Wann meldet sich denn hier mal endlich einer, der auf Full-HD mit einer 1080ti zockt? Gibt keinen.
Die meisten 1080Ti Besitzer, die dann auch einen entsprechenden 144hz Monitor oberhalb von FHD haben(ich mit meiner Vega übrigens auch), schrauben aber auch die Settings zurück, um die fps zu erreichen.
Was auf das Selbe rausläuft wie 1080p Max Settings zu testen, wie es hier gemacht wurde.
Die Balken würden auf 1440p Medium/High nicht anders aussehen als auf 1080p Max.

Der Hauptpunkt ist einfach die Aufrüstbarkeit.
Komme ich mit einer 1060 in einem Spiel in 1440p auf 60fps würde ich beim Neukauf einer CPU dann in einem Test wie von dir vorgeschlagen sehen, dass dort alle CPUs aufgrund eines GPU Limits auf 70fps kommen.
Plane ich aber später auf eine 1160 oder gar eine 1180 aufzurüsten, will ich aber ja jetzt wissen, welche CPU auf die 90fps kommt, die ich dann mit der neuen GPU erreichen könnte.
Ansonsten bringt mit die neue GPU nämlich absolut nichts.
 
Zuletzt bearbeitet:
Jetzt bitte mal den Vergleich auch noch mit Angabe vom Ram Speed sowie von verschiedenen Geschwindigkeiten. 2666 vs 3200 auf allen Platformen wäre sehr interessant. Gerade am Beispiel Overwatch könnte das einen enormen unterschied machen.
 
Vissi schrieb:
Wie gesagt, keine Sau mit einer 1080ti hat nur ein Full-HD-Panel, möge es auch 100hz+ schaffen. Deswegen ist der Test meiner Meinung nach realitätsfremd.

Wer jetzt eine CPU für die nächsten 5 Jahre kaufen will, wird vielleicht wegen der Wucherpreise zuerst seine alte GPU weiter nutzen, in 1-2 Jahren eine GTX 1170 oder Vega 2 nachrüsten, aber den FHD-Monitor behalten. Schon ist der Test relevant.

Vissi schrieb:
Mit höheren Settings, einer hübscheren Grafik, hat man mehr Spielefun.

Selbst wenn das zwangsläufig so wäre, dann wäre immer noch Geschmackssache, was man unter "hübscherer Grafik" versteht. 60 Hz ohne G-Sync/Freesync disqualifizieren sich da bei mir sofort wegen des grauenhaften Tearings. Bei Shootern wie Overwatch oder Quake sind 60 Hz sowieso raus - das Ruckeln wäre der dominante Bildqualitätsmangel. Da würde ich selbst die alte Röhrenkiste mit 1152x864@120 Hz vorziehen.

Und wenn ich bei Overwatch Details herunterschalten muss, um die 144 fps zu halten, nützt mir die höhere Auflösung auch nichts. Dann sind die Kanten vielleicht etwas feiner, aber dafür die Metallglanzeffekte weg.
 
Wadenbeisser schrieb:
@Krautmaster
Allein eine Fehlbehandlung der logischen Kerne kann bei SMT weitreichende Konsequenzen haben und man hat im dümmsten Fall (es werden nur 2 Kerne genutzt und statt 2 physischer Kerne werden die beiden logischen Kerne eines physischen Kerns genutzt) nur noch die halbe Leistung. Da sich SMT bei AMD und Intel unterscheidet ist das nicht auszuschließen.

ich meine was Threadverteilung angeht unterschiedet sich das eben nicht mehr. Seit Zen. Und das macht auch Windows, nicht der GPU Treiber. Der Kernel wurde kurz nach Launch gepatched wenn ichs recht im Kopf habe.

Bei TR mit verteilten Die muss man unabh von SMT schauen dass zusammen arbeitende Prozesse möglichst auf einer Die bleiben. Da gibt es ja die NUMA ähnlichen Implementationen.

Bei Ryzen wäre prinzipiell noch möglich erst Physische Kerne im selben CCX auszulasten, aber ich meine dass das Windows komplett random über die verfügbaren vornimmt da es nich wissen kann welche zu einem CCX gehören. Bei den verschiedenen Die gibt's vielleicht sowas wie ein Numa flag sodass man eben erst in einer Die bleibt. Aber naja, das hat wie gesagt nichts mit SMT am Hut.
 
Zuletzt bearbeitet:
Ihr könnt Vissi so viel korrigieren und fertig machen, der Test zeigt eben nicht, wie Taxxor schreibt, wie viel eine CPU berechnen kann, wenn die Grafikkarte nicht limmitiert wenn hier von Haus aus weniger Kerne genutzt werden, als die CPU bietet.

Es erregt eigentlich nur den Schluß, dass die Intel-CPUs generell besser sind als die von AMD, wie es Simanova schön falsch in ihrem im Auqarium versenkten Beitrag "gefeiert" hat. Zu mehr ist dieser Test nicht gut
 
Ich sehe irgendwie immer noch keinen Sinn meinen Prozessor aufzurüsten. Habe zwar auch schon mit einem Ryzen geliebäugelt, aber mein guter alter Xeon E3 v1230 v2 erfüllt immer noch für alles seine Zwecke und hat eh 4 Kerne
 
Zuletzt bearbeitet:
@Hägar Horrible

Hm? Nicht mal das zeigt der Test, es geht nur um die Esprit Titel und ja, Quintessenz is da wirklich dass IPC/ Leistung pro Thread das Maß der Dinge ist wenn man in hohen Framezahlen Bilder auf den Schirm bringen will. Und dass da Intel nicht zuletzt wegen fast 1 GHz mehr Turbo die Nase vorn hat ist offensichtlich und valide.

Auch das ist ein Ergebnis. Wäre ich auf 144hz und mehr bei 1080p in den getesteten Titeln aus (wie es eben Mio Spieler sind) dann zeigt mir dieser Test recht gut was ich kaufen sollte. Keinen i9, keinen Ryzen 1800X, sondern zB einen Quad mit möglichst hohem Takt.

Wenn dir der Test zeigt dass Intel CPU generell besser sind dann hast du eine Auffassungs- und Verarbeitungsschwäche.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@Hägar Horrible

Hm? Nicht mal das zeigt der Test, es geht nur um die Esprit Titel und ja, Quintessenz is da wirklich dass IPC/ Leistung pro Thread das Maß der Dinge ist wenn man in hohen Framezahlen Bilder auf den Schirm bringen will, und nicht in der Lage bin alle Kerne zu nutzen.

Ich habe deine Aussage mal so erweitert, dass sie auch stimmt. Dass die damit erzielten Ergebnisse nicht stimmen, und zwar weder bei AMD noch bei Intel wurde ja schon oft genug gesagt - aber wie immer herzhaft ignoriert. Es zeigt einfach nicht die Leitungsfähigkeit von CPUs. Das könnte nur ein sysnthetischer Test, der die gleiche Aufgabe bei jeder CPU ausführt und die maximale Anzahl von Kernen nutzt. Dann, aber auch nur dann könnte man wirklich bestimmen, was eine CPU zu leisten imstande ist.
 
Zurück
Oben