Test Intel Core i5-10400F im Test: Intels rundeste CPU für günstige Gaming-PCs

aldaric schrieb:
Vom 10400 gibt es Q0 und G1 Stepping, die extrem unterschiedlich performen. Da hätte ich erwartet das du das mittlerweile mitbekommen hast.

Hast mittlerweile eine Quelle für dein Märchen gefunden, oder brauchst du noch eine Woche?
 
KlaraElfer schrieb:
Hast mittlerweile eine Quelle für dein Märchen gefunden, oder brauchst du noch eine Woche?

Schau dir die extrem unterschiedlichen Reviews an. GamersNexus hatte z. B. ein Q0 Sample. Dieser basiert auf dem 10-Core Die und hat deutlich höhere Latenzen. Die G1 Samples haben deutlich niedrigere Latenzen.

Märchen erzählst leider nur du hier. Ich hätte bei deiner allumfassenden Weisheit wirklich erwartet, dass du das mittlerweile mitbekommen hast. @xexex hat sogar die verschiedenen Artikelnummern schon gepostet.

Zudem ist schon klar, dass es diese Unterscheidung bei den boxed CPU's nicht gibt. Dort erhält man also eine Mogelpackung und muss sehen was man kriegt.
 
aldaric schrieb:
Schau dir die extrem unterschiedlichen Reviews an.

Es gibt keine unterschiedlichen Reviews, lediglich die Messungen von GamersNexus mit DDR4 2667 sind falsch.
Computerbase hatte übrigens die potenziell langsamere CPU - weil sie nicht verlötet war und das native 6Core Design war.

Den Intel Core i5-10400(F) gibt es wie seinen Vorgänger Core i5-9400(F) in zwei Varianten. Auch den Core i5-10400(F) gibt es nämlich sowohl auf Basis vom Zehn-Kern-Die (alle neuen K-CPUs), sichtbar am Q0-Stepping, als auch mit nativem Hexa-Core-Die, zu erkennen am G1-Stepping. Das hat eine weitere Folge: Intel verlötet den Prozessor-Die mit dem Heatspreader nur bei den Zehn-Kern-Chips, die Sechs-Kern-Lösungen sind allesamt nur mit Wärmeleitpaste versehen.

Beim Vorgänger gab es einerseits das U0-Stepping mit nativem Sechs-Kern-Die, andererseits das P0- und das R0-Stepping mit verlötetem nativen 8-Kern-Die.

Die Informationen lassen sich über Intels Hausdatenbank ARK in Erfahrung bringen. Der Intel Core i5-10400F wird dort im Tab „Ordering and Compliance“ in zwei Varianten aufgeführt: Spec-Code SRH79 steht für die verlötete Lösung, SRH3D für Wärmeleitpaste. ComputerBase hat aus dem Handel das Modell mit Spec-Code SRH3D erhalten, also den mutmaßlich schlechteren Prozessor.

Hochinteressant, Computerbase hat also den mutmaßlich schlechteren Prozessor - weil nicht verlötet und misst also bessere Ergebnisse als Gamers Nexus, die wohl dann eine CPU gehabt haben müssen, welche trotz CL 15, iregndwie CL22 oder so einstellt, wahrscheinlich ein Nachbau aus China.^^

aldaric schrieb:
GamersNexus hatte z. B. ein Q0 Sample.

Also das verlötete Q0 Sample, basierend auf dem 10900K, soll also schlechter sein, als der native 6Core, obwohl der 10600K, welcher auch auf dem 10900K basiert, richtig gut performt? Absolut einleuchtend.
Dabei performt der 10400F nur mit dem DDR4 2667 schlecht, alle anderen Werte sind wieder gut.

aldaric schrieb:
Dieser basiert auf dem 10-Core Die und hat deutlich höhere Latenzen. Die G1 Samples haben deutlich niedrigere Latenzen.

Immer noch die Frage nach der Quelle.

aldaric schrieb:
Märchen erzählst leider nur du hier.

Also die massiven Leistungsdifferenzen sind eine reine Erfindung von dir.
Es ist völlig egal welches Stepping man besitzt. Ob das nun ein 10 Core Die oder ein nativer 6Core ist.
Der 10600K müsste, wie schon erwähnt, schlecht abschneiden.

aldaric schrieb:
Ich hätte bei deiner allumfassenden Weisheit wirklich erwartet, dass du das mittlerweile mitbekommen hast.

Warum verlinkst du es dann nicht? Verschiedene Artikelnummern, sind der Beleg für Prozessoren
die extrem unterschiedlich performen
??😅

Wie sieht denn diese "extrem unterschiedliche Performance" aus? Also ich bleib dabei, reine Erfindung deinerseits.
 
Zuletzt bearbeitet von einem Moderator:
KlaraElfer schrieb:
Also das verlötete Q0 Sample, basierend auf dem 10900K, soll also schlechter sein, als der native 6Core, obwohl der 10600K, welcher auch auf dem 10900K basiert, richtig gut performt? Absolut einleuchtend.

Für den 10600K gibt es in dem Fall keinen Vergleich, da es ihn nur in einer Variante gibt.

Schauen wir uns doch mal die Unterschiede an:
8% zwischen 10600K und 10400F in den FPS und Frametimes, hier und da mal ein GPU Limit mit dabei.
Der Allcore- sowie Singlecoreturbo unterscheidet sich jeweils um ca 11%, diese Differenz kommt also hin.


Da kannst du nicht sagen, dass die 10C Version des 10400 nicht schlechter ist als die native 6 Kern Version, weil der 10600K ja ebenfalls die 10C Version ist und gut performt, da die gute Performance des 10600K alleine durch den deutlich höheren Takt zu erklären ist.

Dass schlechte bzw. bessere Latenzen die Spieleleistung beeinflussen ist ja soweit bekannt, zuletzt wunderbar gesehen am 3300X, der ebenfalls deutlich besser(+10% im Schnitt) performt, als ein 3950X o.ä., den man auf 4C/8T in 2+2 Config runter konfiguriert (https://www.pcgameshardware.de/Ryze...rundlast-einen-Quadcore-auf-die-Knie-1350968/).
Ein nativer 6C 10400 könnte den Abstand zum 10600K durch die geringeren Latenzen also potenziell verringern.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Für den 10600K gibt es in dem Fall keinen Vergleich, da es ihn nur in einer Variante gibt.

Ja, als Q0 Variante, also als beschnittener Chip vom fetten 10c die.
Es wird dem nativen Die mit 6 Kernen hier ein Vorteil eingeräumt, der sich beim 10600K, welcher nur ein Kastrat des 10c ist, absolut nicht zeigt.

Also wo sind die greifbaren Messungen? Reiner Spekulatius.

Taxxor schrieb:
Da kannst du nicht sagen, dass die 10C Version des 10400 nicht schlechter ist als die native 6 Kern Version, weil der 10600K ja ebenfalls die 10C Version ist und gut performt, da die gute Performance des 10600K alleine durch den deutlich höheren Takt zu erklären ist.

Ja, die Behauptung ist ja, dass das verlötete 10c Kastrat schlechter wäre als das mit Wärmeleitpaste gekühlte 6 Core Nativ Design, wofür ich keinerlei Anhaltspunkte sehe.

Taxxor schrieb:
Ein nativer 6C 10400 könnte den Abstand zum 10600K durch die geringeren Latenzen also potenziell verringern.

Von welchen geringeren Latenzen reden wir hier? Die Latenzen sind bei AMD geringer, weil man sich die Kommunikation mit dem zweiten CCX spart, die über den I/O Chip läuft.
 
KlaraElfer schrieb:
Ja, als Q0 Variante, also als beschnittener Chip vom fetten 10c die.
Es wird dem nativen Die mit 6 Kernen hier ein Vorteil eingeräumt, der sich beim 10600K, welcher nur ein Kastrat des 10c ist, absolut nicht zeigt.
Ich frage nur, wie du den 10600K hier als "Beweis" anführen willst, dass der 10C nicht schlechter ist, wenn du die Performance eines 10600K mit nativem 6 Kern Die nicht kennst, weil es ihn so nicht gibt.
 
  • Gefällt mir
Reaktionen: Apocalypse
Mal die B/H Board Preise gesehen ? glaub Intel hat nen Clown gefrühstückt. Wobei es ja heißt das die B550 Boards auch teurer werden sollen ... ganz großes Kino was hier läuft. Ne PS5/XSX wird immer attraktiver irgendwie^^

edit
vor allem dann wenn Nvidia nun mit Ampere eine weitere Schippe Kohle drauf schlägt und die Mittelklasse mit einer RTX3060 bei 500-600€ aufwärts beginnt. Wobei ne 2060Super ja schon im Schnitt bei 450€ liegt.
 
Zuletzt bearbeitet:
Heschel schrieb:
Ein 3800 CL15 outperformed meinen 3200 CL14 Stock derart.
Der 3800er ist ja auch eine Latenz von 7.89ns, der 3200er kommt mit 8.75ns daher. Da ist schon ordentlich Luft, wenn die Latenzen der Bottleneck sind.
Ergänzung ()

Heschel schrieb:
Und gerade bei Budget-Systemen verfälscht dein 720p mehr als es Tatsachen schafft, weil die GPU aus der Sicht zum größten Teil irrelevant wurde! Nur: Es gibt noch Spiele, die selbst mit einer 2080ti ins GPU-Limit bei 1080p rennen. Anhand deiner 720p Tests wird es eine große Überraschung geben, wenn Du die Regler hoch setzt - ganz besonders, wenn Du eine low- oder Midrange Karte kaufst! Was nützt Dir deine 10% schnellere CPU, wenn Du an der Graka sparrst?
Zum einen nützt mir die 10% schnellere CPU was, wenn ich dann die zweite GPU ins System packe, normalerweise ist es halt bequemer die Plattform länger zu verwenden und die GPU im Lebenszyklus des Systems 1 oder auch 2 mal upzugraden. Nicht ganz so üblich im Budget Bereich, ich weiß.

Und zum anderen, ich lese keine CPU Benchmarks um mich für eine GPU zu entscheiden. Und GPUs werden ja nun nicht auf 720p getestet,

Das 720p-low nicht 1 zu 1 hochskaliert auf größere Auflösung stimmt natürlich trotzdem. So man im GPU Limit ist wäre, wäre ein 1080p Test alleine aber natürlich auch nicht das wahre.
 
Zuletzt bearbeitet:
Apocalypse schrieb:
Zum einen nützt mir die 10% schnellere CPU was, wenn ich dann die zweite GPU ins System packe, normalerweise ist es halt bequemer die Plattform länger zu verwenden und die GPU im Lebenszyklus des Systems 1 oder auch 2 mal upzugraden. Nicht ganz so üblich im Budget Bereich, ich weiß.

Kombo aus 2 Grafikkarten?

1. Müssen die Spiele es auch können. Können die es nicht, bist Du schon mit einer besser dran, als mit zwei. Das "erraten" welches Spiel mit SLi gut funktioniert.....
2. Lohnt es sich nur, wenn man die Top-Modelle nutzt. Ansonsten bist Du mit einer leistungsstärkeren GPU viel besser dran, als mit zwei.

SLi ist tot und das ist auch gut so.

Apocalypse schrieb:
Und zum anderen, ich lese keine CPU Benchmarks um mich für eine GPU zu entscheiden. Und GPUs werden ja nun nicht auf 720p getestet,

Sorry Apocalypse, aber dazu habe ich hier schon zu genüge erklärt.

720p, 1080p und Co. sind nur Werkzeuge. Diese müssen auch richtig benutzt werden (diesbezüglich ist eigenes Wissen Vorraussetzung für die richtige Nutzung/Wertung). Die 720p-Befürwortung hat aber hier im Forum garnichts mit Wissen zu tun, sondern mit dem Glauben. Man hat es irgendwann gelesen, es sich gemerkt und jetzt wiederholt man es "gebetsmühlenartig" - mehr aber auch nicht.

GPU-Limit? Mit einer 2080ti? Wozu kaufst die Karte, wenn Du nicht auf höheren Auflösungen und guter Detailstufe spielen willst? Ach, Du willst das Maximum an fps haben - sorry, hier geht nur das Top-Model der CPU, aber sicherlich bei keinem Budget-System ala 10400F oder 3600.

Die Ergebnisse hier bei CB oder PCGH und Co. sind nur grobe Umrisse bei der CPU-Wertung - egal ob in 720p oder 1080p.

Schau Dir RE2 an und wie die CPUs dort liegen. Wo ist der 10400F - der angeblich schneller ist als der 3600? Jetzt ist plötzlich der 3600 in diesem Spiel 5 % schneller, als der 10400F. Merkst was?

Nimm Dir ein Beispiel, dass Du ein Budget-System hast und später eine neue Graka aufrüsten willst. Ändert sich was in 1080p-Test etwas, wenn Du eine unter der 2080ti schwächere Graka (aber immer noch schneller als die alte) einbaust? Nein. Ändert sich was am Ergebnis des Tests, wenn Du eine 2080ti einbaust? Nein.

-----------------------

Zusatz:

Schau Dir an, wie einige hier oder bei

https://www.computerbase.de/forum/t...l2-werte-fuer-alle-cpus-preis.1950101/page-11

argumentieren. Ja ja, der 10400 ist schneller - dabei hebeln die vollkommen das Thema Budget aus (und verändern somit vollkommen die Rahmenbedingungen).
 
Zuletzt bearbeitet:
Heschel schrieb:
Wozu kaufst die Karte, wenn Du nicht auf höheren Auflösungen und guter Detailstufe spielen willst? Ach, Du willst das Maximum an fps haben - sorry, hier geht nur das Top-Model der CPU, aber sicherlich bei keinem Budget-System ala 10400F oder 3600.

Warum denkst du eigentlich nur in Extremen?

Nur weil ich in einen bestimmten FPS Bereich kommen möchte, bedeutet das nicht dass ich das Maximum an FPS haben will.

Wenn die 2080Ti im Test mit den Settings von CB 100fps schafft, ich aber 120 als Ziel habe, dann muss ich mir nicht unbedingt einen 10900K kaufen, der ohne GPU Limit auf 150fps kommt. Wenn ein 10400 auf 130fps kommt, reicht das auch aus.

Und somit kann ich ruhigen Gewissens zum 10400 greifen und Geld sparen.
Wobei ich im 1080P Ultra CPU Test für den 10900K und den 10400 beide Male um die 100fps gesehen hätte und eben nicht wüsste, ob ich auch mit dem 10400 über mein FPS Ziel komme, weil ich hier jediglich die Info bekomme, dass beide CPUs von der 2080Ti bei Ultra Settings komplett limitiert werden, aber eben nicht die Info wie stark sie jeweils limitiert werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
Apocalypse schrieb:
nein, das übliche gpu upgrade alle 4 jahre ;-)

Sorry, hab dich falsch verstanden.

Taxxor schrieb:
Warum denkst du eigentlich nur in Extremen?

Extreme? Wo den?

Taxxor schrieb:
Nur weil ich in einen bestimmten FPS Bereich kommen möchte, bedeutet das nicht dass ich das Maximum an FPS haben will.

Entschuldige, dich habe ich bei meiner Aussage überhaupt nicht gemeint. Da dachte ich eher an CS-Gamer.

Taxxor schrieb:
Wenn die 2080Ti im Test mit den Settings von CB 100fps schafft, ich aber 120 als Ziel habe, dann muss ich mir nicht unbedingt einen 10900K kaufen, der ohne GPU Limit auf 150fps kommt. Wenn ein 10400 auf 130fps kommt, reicht das auch aus.

Und wie ich Dir schon mal erklärt habe, sind deine 720p-Tests auch ungenügend. Dafür müsste es an der CPU-lastigsten Stelle gebencht werden. Es wird aber nichts genannt, oder behauptet. Allein der Glaube ist hier im Vordergrund. Reproduzierbar ist es nicht.

Wo Du am Benchmark mit CPU X 140 fps schaffst, kannst Du an anderen Stellen auch nur 100 fps haben. Schau Dir folgendes an:

https://www.pcgameshardware.de/Ryze...-3100-Benchmark-Kaufen-Preis-Release-1348811/
https://www.hardwareluxx.de/index.p...ine-ryzen-fuer-gamer-ganz-gross.html?start=10
https://www.computerbase.de/2020-05...ramm-test-shadow-of-the-tomb-raider-1920-1080

SotTR (siehe 3300X):

PCGH: avg. fps in 720p : 92,6
hardwareluxx: avg. fps in 1080p : 110
CB: avg. fps in 1080p: 110

Laut PCGH dürftest Du nicht mehr als 92,6 fps kriegen. CB und HL haben aber höhere FPS selbst bei höherer Auflösung und max. Details erreicht. Das sind 18,8 % Unterschied. :daumen:

Nun stellt sich die Frage: Hat PCGH hier eine relativ ggü. CB und HL genommen? Ja, aber ist es auch die absolute, oder können die fps weiter sinken (da es noch CPU-lastigere Stellen im Spiel gibt)?

Somit sind deine folgenden (Zitate) Aussagen falsch. Wenn die 10400 auf einer weniger CPU lastigen Stelle gebencht wurde, wirst Du nur am Anfang oder der bestimmten Stelle deine 120 fps bekommen. Beim Rest kann es schon noch runter gehen.

Taxxor schrieb:
Und somit kann ich ruhigen Gewissens zum 10400 greifen und Geld sparen.

Taxxor schrieb:
Wobei ich im 1080P Ultra CPU Test für den 10900K und den 10400 beide Male um die 100fps gesehen hätte und eben nicht wüsste, ob ich auch mit dem 10400 über mein FPS Ziel komme, weil ich hier jediglich die Info bekomme, dass beide CPUs von der 2080Ti bei Ultra Settings komplett limitiert werden, aber eben nicht die Info wie stark sie jeweils limitiert werden.

Deine gewollte Information kann also überhaupt nicht liefern, was Du von ihr erhoffst. Es kann oder es kann nicht. Auf den "Glauben" läuft alles hinaus - nicht auf das "Wissen".
 
  • Gefällt mir
Reaktionen: Apocalypse
Heschel schrieb:
Du machst es ja direkt schon wieder hier^^
Heschel schrieb:
Und wie ich Dir schon mal erklärt habe, sind deine 720p-Tests auch ungenügend. Dafür müsste es an der CPU-lastigsten Stelle gebencht werden. Es wird aber nichts genannt, oder behauptet. Allein der Glaube ist hier im Vordergrund. Reproduzierbar ist es nicht.
Also solange die FPS Werte, die in den Tests rauskommen nicht zu 100% den min fps im kompletten Spiel über jede nur erdenkliche Situation entsprechen, sind sie für eine grundlegende Beurteilung, ob man mit CPU A eher sein FPS Ziel halten kann als mit CPU B, für dich ungeeignet.

Somit wäre auch jeder GPU Test ungeeignet um sich für die eine oder andere GPU zu entscheiden, weil man ja nicht weiß, dass man über X fps mit dieser GPU hat, weil es ja auch Szenen geben könnte, wo man 5% der Zeit mal weniger als X hat. Selbst wenn man es relativ zueinander betrachtet, es gab auch schon Fälle, wo eine GPU in ein und dem selben Spiel einmal 10% besser und in einer anderen Testszene plötzlich 5% schlechter war, als eine andere GPU. Das gleiche kann dir bei CPUs passieren.
Ein wenig Vertrauen zur Testseite gehört da eben immer dazu, dass sie Szene ordentlich ausgewählt wurde und Aussagen über den restlichen Verlauf des Spiels korrekt sind.

Zumal das zwei verschiedene Themen sind, die du ansprichst. Was hält einen guten Tester denn davon ab, eine der CPU lastigsten Szene zu nehmen? Das ist völlig losgelöst davon, ob er in 720p oder 1080p bencht, aber je nach Spiel kann eben trotz der CPU lastigsten Szene immer noch die GPU limitieren.
Daher 720p egal welche Szene man gewählt hat, denn mit 1080p bringst du nur noch mehr ungewissheit rein, als durch eine potenziell nicht gut gewählte Testszene sowieso schon da ist.
Aber deine Logik hier ist ja, wie schon zuvor, dass 720p nichts bringt, weil ja auch an anderen Stellen Faktoren die Werte nicht aussagekräftig genug machen könnten.
Bei den Parcours mit mehreren Spielen war es die unterschiedliche Spieleauswahl, jetzt bei Einzelbetrachtung eines Spiels sind es unterschiedliche Testszenen.
Was aber nichts daran ändert, dass du mit 720p einen dieser Faktoren eliminierst und 2 potenziell verfälschende Faktoren immer noch besser sind als 3.


Und: Wenn ich sage mein FPS Ziel sind 120fps, dann bedeutet das nicht, dass ich zu 100% bei 120fps sein muss, damit die CPU interessant ist. Hier spielt dann auch dein oft genanntes Budget mit rein. Eine CPU die das in 90% der Zeit schafft, ist schon mal sehr viel besser als eine CPU die das fürs gleiche Geld nur in 75% der Zeit schafft und vom P/L gesehen auch empfehlenswerter als eine CPU, die es zwar zu 100% schafft, aber doppelt so teuer ist.


Heschel schrieb:
Wenn die 10400 auf einer weniger CPU lastigen Stelle gebencht wurde, wirst Du nur am Anfang oder der bestimmten Stelle deine 120 fps bekommen. Beim Rest kann es schon noch runter gehen.
Und die CPU die im Test in der weniger CPU Lastigen stelle bereits nur knapp auf oder unterhalb meines Ziels lag, wird noch weiter runtergehen, also liege ich mit der, die etwas mehr als 120 geschafft hat immer noch besser.

Zudem hatte ich auch schon dem Umstand erwähnt, dass die fps in CPU lastigeren Szenen nichtmal unbedingt gegenüber den Werten des Tests fallen müssen, wenn die CPU im Test bereits teilweise durch die 2080Ti limitiert wurde. Also in 1080p Tests.
Dann passiert in der CPU lastigeren Szenen nämlich nur, dass die GPU Last abnimmt und die CPU Last steigt. Da die CPU vorher aber nicht komplett ausgelastet war, kann sie hier auch potenziell die FPS oben halten.

Und wie ich dir ebenfalls schon erklärt habe, gehört zu einem guten CPU Test, dass man eine CPU Lastige Szene auswählt und dazu auch Angaben macht, ob es im Rest des Spiels vergleichsweise eher besser oder schlechter lief.
Darüber hinaus kann man sich auch anhand mehrerer Tests die unterschiedliche Szenen getestet haben, sein Urteil bilden, schreibt PCGH z.b. dass solch niedrige FPS wie in ihrer Szene ansonsten sehr selten vorkommen? CB erwähnt sowas bei den Tests meistens.

Dann kann man diesen Wert ignorieren und da die beiden anderen Seiten auch noch auf exakt das gleiche Ergebniss kommen, könnte man nun hier schauen ob auch die gleiche Szene verwendet wurde. Wenn nicht, sind diese 110fps ziemlich gut als Grundlage.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
Heschel schrieb:
Und wie ich Dir schon mal erklärt habe, sind deine 720p-Tests auch ungenügend. Dafür müsste es an der CPU-lastigsten Stelle gebencht werden.

Wieso wechselst du immer das Thema, wenn es ans eingemachte geht?
Wenn du so argumentierst, brauchst du gar nichts mehr testen, und schon gar kein 1080p, denn da kommst du erst recht nicht an CPU lastige Stellen, weil du die durchs GPU Limit schlechter siehst.
Oder argumentierst du nun für 720p Tests, denn dein Argument an CPU lastigen Stellen zu benchen, würde genau das zur Konsequenz haben.
 
  • Gefällt mir
Reaktionen: Der Paule
Taxxor schrieb:
Also solange die FPS Werte, die in den Tests rauskommen nicht zu 100% den min fps im kompletten Spiel über jede nur erdenkliche Situation entsprechen, sind sie für eine grundlegende Beurteilung, ob man mit CPU A eher sein FPS Ziel halten kann als mit CPU B, für dich ungeeignet.

Somit wäre auch jeder GPU Test ungeeignet um sich für die eine oder andere GPU zu entscheiden, weil man ja nicht weiß, dass man über X fps mit dieser GPU hat, weil es ja auch Szenen geben könnte, wo man 5% der Zeit mal weniger als X hat.

----------------------------------------------
Wie ist ein Bench aufgebaut?

Du hast eine bestimmte Stelle im Spiel, die Du entweder mit der stärksten Grafikkarte und unterschiedlichen CPUs oder mit der stärksten CPU unterschiedliche Grafikkarten testest. Dabei werden die Testsysteme gleich/ähnlich/nach deren Spezifizierung nach ihrer Leistung getestet.

Nichts anderes ist ein Spielebenchmark. Diesbezüglich liefern auch Benchmarks im selbem Spiel bei CB, Techpowerup, Techspot, PCGH und Co. auch unterschiedliche fps.

Und ja, die Benchmarks zeigen nur die unterschiedliche Leistung zwischen Grafikkarten und CPUs bei einer gewissen Stelle.

Taxxor schrieb:
Ein wenig Vertrauen zur Testseite gehört da eben immer dazu, dass sie Szene ordentlich ausgewählt wurde und Aussagen über den restlichen Verlauf des Spiels korrekt sind.

Und jetzt haben wir zwei Tests die das eine zeigen und zwei, die was anderes zeigen. ;)
Der Glaubenskrieg kann beginnen. Intel vs. AMD. 3600 vs 10400......

Taxxor schrieb:
Daher 720p egal welche Szene man gewählt hat, denn mit 1080p bringst du nur noch mehr ungewissheit rein, als durch eine potenziell nicht gut gewählte Testszene sowieso schon da ist.

Eigentlich nicht.
Wo zeigt dein 720p-Test das Grafikkartenlimit?
Du versuchst eine Ungewissheit zu liquidieren, in dem Du eine andere Ungewissheit erhöhst.

Frage:
Werden z.B. bei PCGH CPU-Tests und GPU-Tests mit dem selbem Benchmark (selbe Szene) getestet? Eigentlich nicht - oder?

Taxxor schrieb:
Und: Wenn ich sage mein FPS Ziel sind 120fps, dann bedeutet das nicht, dass ich zu 100% bei 120fps sein muss, damit die CPU interessant ist. Hier spielt dann auch dein oft genanntes Budget mit rein. Eine CPU die das in 90% der Zeit schafft, ist schon mal sehr viel besser als eine CPU die das fürs gleiche Geld nur in 75% der Zeit schafft und vom P/L gesehen auch empfehlenswerter als eine CPU, die es zwar zu 100% schafft, aber doppelt so teuer ist.

Und wiedermal .....

Deine Aussage ist nicht falsch - nur fehlen Dir wiedermal die Daten für deine Aussage (die ich in dem Zitat von Dir fett markiert und unterstrichen habe). Diese Aussage kannst Du garnicht aus den Benchmarks treffen. Und was bei einem Game so sein kann, kann bei einem anderem wiederrum anders sein (Resident Evil 2 - AMD - Intel CPUs - 2 untersch. Architekturen).
 
  • Gefällt mir
Reaktionen: BookerDeWitt
Heschel schrieb:
Wo zeigt dein 720p-Test das Grafikkartenlimit?
Du versuchst eine Ungewissheit zu liquidieren, in dem Du eine andere Ungewissheit erhöhst.
Die Chance, dass du in ein Grafikkartenlimit kommst, ist in 720p deutlich geringer als in 1080p.
Somit verringere ich die Ungewissheit darüber.
Selbst wenn du in 720p noch zu 10% im GPU Limit wärst, wärst du es in 1080p eben zu 50%.
Der Effekt, der die Leistung der CPU deckelt, wird also mindestens minimiert oder eben komplett eliminiert.

Ob du auch in 720p trotzdem noch irgendwo ein GPU Limit hast, könntest du bei uns in CapFrameX nachprüfen, wenn du es ganz genau wissen möchtest.
PCGH und CB nutzen es ja, also könnte man das eigentlich zukünftig auch angeben, wo die GPU bei 97-99% lag.

Heschel schrieb:
Frage:
Werden z.B. bei PCGH CPU-Tests und GPU-Tests mit dem selbem Benchmark (selbe Szene) getestet? Eigentlich nicht - oder?

[..]

Deine Aussage ist nicht falsch - nur fehlen Dir wiedermal die Daten für deine Aussage (die ich in dem Zitat von Dir fett markiert und unterstrichen habe). Diese Aussage kannst Du garnicht aus den Benchmarks treffen.

Deshalb hab ich ja gesagt gehört zu einem guten Test die Beschreibung der Testszene und auch eine Info, ob diese Szene einen Worst Case darstellt oder das Spiel allgemein in diesem Bereich läuft.
Speziell bei Einzelbenchmarks, wo einem Spiel ein kompletter Test gewidmet wird, sollte man von einem guten Test erwarten können, dass die Bench Szene so gewählt wurde, indem man verschiednene Szenen gespielt und die fordernste ausgewählt hat.

Hat ein CB Test dann für eine CPU 120fps stehen und im Text darunter steht, dass die getestete Szene eher den Worst Case darstellt und die FPS im Rest des Spiels meist höher liegen, dann habe ich eine ziemlich genaue Information darüber, ob ich häufiger Parts mit unter 120fps erwarten kann oder nicht.

Im letzten Test von Valorant war es genau umgekehrt, hier wurde ohne Mitspieler getestet und daher auch im Text erwähnt, dass die FPS real niedriger sind. Noch besser wären ein paar Werte im realen Spiel gewesen, die zwar nicht für Hardware Vergleiche brauchbar wären, aber zumindest eine einigermaßene Richtung angeben würden, um wie viel % die FPS ggü dem Test fallen.
 
Zuletzt bearbeitet:
Nolag schrieb:
Eine Quelle für was? Man deaktiviert seit Jahren schon verschiedene Cores und das gibt an manchen Stellen eben minimale Verzögerungen, welche aber auch da wären, wenn die Kerne nicht deaktiviert sind.
Je mehr Kerne mit einem Ringbus versorgt werden müssen umso höher die Latenzen, auch bei dem 10900K, in den Benchmarks fallen solche Minimalunterschiede nicht auf, der Flaschenhals sitzt da wo anders.

Die Schauergeschichten die sich AMD Fans hier erzählen und kolportieren, sind jedenfalls kompletter Unsinn und aus den Fingern gesogen.
 
So toll ich den 10400f finde. Es ist einfach sehr schade, dass RAM oc nicht auf b460 und h470 freigeschaltet ist. Wenn doch wenigstens die xmp Profile unterstützt wären mit entsprechendem Takt.

Doppelt schade: wenn der 10400f im Standard wenigstens 2933mhz hätte.

Gab es in Vergangenheit bezüglich der Problematik eigentlich biosmods wo man dann doch hand anlegen konnte!?
 
Zurück
Oben