Test Intel Core i5-10400F im Test: Intels rundeste CPU für günstige Gaming-PCs

eratte schrieb:
Das wird so dargestellt als ob es eine Tatsache ist und nicht deine Meinung.
und@Rockstar85

(ganz durchlesen)


Wir reden hier tatsächlich nicht über Meinungen. Für das was er zeigen möchte (CPU Leistung mit RAM-OC und Timings) sind 720p Tests besser geeignet, ein Wissen, dass leider verloren gegangen zu sein scheint und zwar nicht bei den Testern, das hat andere Gründe (s.u.) Warum wurde der RAM-OC 9900k vs 3900x Test hier aus der Community auf CB in 720p gemacht? PCGH testet CPUs korrekterweise wie?

Ich habe nichts gegen andere Meinungen, wegen mir, kannst Du auch meinen, dass Kühe fliegen können. Wenn ich allerdings etwas messen möchte, dann muss ich schon schauen, welche Methode dafür am geeigneten ist und die ist nun einmal nicht immer eine Frage der Meinung. Wenn Du eine Dissertation verfasst, kannst Du auch nicht meinen, Zitierregeln sind blöd oder Quellenangaben überflüssig.

Das das in der Praxis, wie auch hier, anders läuft, hat viele andere Gründe, und den Hauptgrund lieferst Du sogar mit Deinem Beitrag frei Haus gleich mit. Diejenigen die testen, haben nun einmal auch nur begrenzte Zeit, Ressourcen und eine Zielgruppe, die sie erreichen möchten/müssen. Das hat allerdings nichts damit zu tun, dass ich ihnen generell die Kompetenz abspreche. Dann müssen sie allerdings auch damit leben, dass man das kritisiert.

Wenn Du/ihr also Interesse am Sachverhalt habt, dann lest euch ein. Ein guter Einstieg, den Rest schafft der Kopf.

Zumindest gibt es auch hier keinen Grund persönlich zu werden. Hier dreht sich ohnehin alles nur noch im Kreis,
 
  • Gefällt mir
Reaktionen: KlaraElfer
Das Thema ist doch durch.. Recht haben wollen, wegen der Begründung man möge Recht haben, sei dir geschenkt.. Ich muss ehrlich sagen, ich habe nichts an Steve seinen Tests auszusetzen... Im gegensatz zu "other sites" ;)
Und ich erwarte eigentlich eine persönliche Entschuldigung, wenn man schon falsche Unterstellungen macht.
Andere haben es dir auch erklärt, aber klar du Hast Recht, weil du Recht hast... Welcome to Ignore
 

Der 3600er wird 5 bis 10% geschlagen, mit der teureren Z Board Kombination und "nur" einer 2070 OC.
Mittel: 7,6%. Dachte ich lasse den Channel mal da. ;)

Die Werte von Techpowerup sind auch interessant.
Da ist der 10400F mit lediglich DDR4 2667 CL16 und B Board 3% vor dem Ryzen 5 3600 mit DDR4 3200 CL14 und bestätigt die Werte von Computerbase, mit gleichem Speicher sind es dann ziemlich genau 10%.

https://www.techpowerup.com/review/intel-core-i5-10400f/14.html
Ergänzung ()

Rockstar85 schrieb:
Das Thema ist doch durch..

Ja, ist auch durch.

Fazit: Der Intel liefert meistens schon mit B Board, DDR4 2667 Speicher die Leistung eines AMD Ryzen 3600 und DDR4 3200 Speicher, bei vergleichbaren Anschaffungskosten und ist mit Z Board dann selbst bei Gamers Nexus @3200 CL14 gleich schnell, wie ein komplett ausgefahrener 3600er mit max CPU, RAM und IF OC.

Rockstar85 schrieb:
Recht haben wollen, wegen der Begründung man möge Recht haben...

Beide CPUs sind gut und kaufbar. Endlich gibt es mal wieder Konkurrenz, da muss man nicht zwanghaft einen Hersteller empfehlen.

Rockstar85 schrieb:
,Ich muss ehrlich sagen, ich habe nichts an Steve seinen Tests auszusetzen...

Er sollte mal auf 720p runter gehen, wenn er sehen will wie sich sein RAM OC auswirkt.

Heschel schrieb:
Wenn ich mit billigeren Micron-E auf 3400 OC, habe ich schon einen ähnlichen Wert, wie meine Standard-Riegel.
Und wenn man selbt die FlareX jetzt kaufen würde (Durchschn. 120 EUR), wäre es immer noch billiger als dein vorgegebenes System.

Mit Micron E Speicher bin ich oft auf 3600 CL16 gekommen, reicht trotzdem nicht um den 10400F mit DDR4 3200 CL16 zu schlagen, da muss ich schon nen anderen Kühler draufschnallen, meine 4,4GHz bekommen und dann noch meine subtimings optimieren.
Und mit FlareX, bist du nicht günstiger als das Intel System, schon gar nicht mit CPU OC, denn das kann man sich mit dem Boxed Kühler klemmen.

Heschel schrieb:
Für den Aufpreis kannst aber beim Ryzen gleich die FlareX nehmen und auf 3600 CL14 tunen - leistungsmäßig und preislich besser, als dein 10400 mit Z-Board und RAM-OC.

Letztendlich ist keine Kombination besonders viel günstiger oder schneller, aber zu der Einsicht wirst du denke ich nicht kommen, da kann man noch x Tests konsumieren, am Ende bleibt der 10400F nur mit B460 Board und DDR4 2667 CL14 für den ~ gleichen Preis minimal hinter der AMD Lösung. Will ich die Leistungswerte von Gamers Nexus erzielen, kann ich dem 10400F auch in Z Board spendieren und dann ist die maximale AMD Konfig auch nicht schneller als der 10400F mit DDR4 3200 und auch nicht günstiger, das kannst du dir hindrehen wie du möchtest. Mit einem halbwegs gutem B450 Board, spart man eben rund 60 Euro, aber die Intel Preise werden noch sinken. Welche CPU man nimmt ist schlicht und ergreifend egal.

Nimmt man Listenpreise, muss der 10400F noch auf ~150 Euro fallen.
 
Zuletzt bearbeitet von einem Moderator:
@KlaraElfer
Ich würde zum Thema 720P was sagen, aber ich lasse es mal.
720P Tests sind heutzutage nicht mehr Relevant, wie man an 90% aller anderen 1080P tests schaut.. Denn eine 2080Ti ist sehr sehr selten auf FHD im GPU Limit..

Und auch an dich: Dein Rechthabenwollen geht nicht nur mir auf den Sack.

Ich sagte etwas ähnliches vor 5 Tagen.. Warum musst du am Ende wieder Recht haben wollen, wo man dir schon vor Tagen zustimmte?
Sowas ist kein guter Forumsstil. Bitte Gewöhn dir das ab, wir wollen nicht ein Heise Forum werden :)
 
Rockstar85 schrieb:
720P Tests sind heutzutage nicht mehr Relevant, wie man an 90% aller anderen 1080P tests schaut..

1080p Tests sind heute nicht mehr relevant, wenn man 90% aller 1440P Tests schaut..^^
Es geht ja darum nicht x Tests anzusehen, sondern sofort mit der besten Methode zu testen, dann reicht ja einer...
Rockstar85 schrieb:
Denn eine 2080Ti ist sehr sehr selten auf FHD im GPU Limit..

Und dennoch ists kein methodisch richtiger CPU Test.

Rockstar85 schrieb:
Dein Rechthabenwollen geht nicht nur mir auf den Sack.

Ich will nicht recht haben, ich kann es nur nicht leiden wenn Produkte kaputtgeschrieben werden und sich Ergebnisse so lange zurecht gebogen werden, dass sie passen.
Wie Aldaric mit günstigem E Die RAM DDR4 3800CL15 1:1:1 hinbekommen will und mit dem boxed Kühler den Ryzen auf 4,4Ghz clocked und das ganze noch stabil sein soll, kann er mir ja mal erklären.
Ihr nehmt hier permanent das beste Ergebnis des Ryzens und behauptet gleichzeitig die Zusammenstellung sei "günstig". Nein, die ist teuer, mindestens so teuer wie der Intel mit Z Board und Billig AEGIS 3200er.
 
Zuletzt bearbeitet von einem Moderator:
Stand heute ist sie nicht zu teuer..
Du darfst dir aber gerne die Preise und vor allem die Verfügbarkeiten selber anschauen.
Weder sagen es Aldaric noch ich, also unterlasse solche Unterstellungen bitte.

Und wegen 5% möchtest du die Deutungshoheit haben, das nenne ich schon Rechthaben wollen.
Man sollte wissen, wann es genug ist. Und dass Benchmarks nicht allgemein gütig sind. Was ich seit Wochen predige.
 
  • Gefällt mir
Reaktionen: Heschel und Apocalypse
KlaraElfer schrieb:
Ich will nicht recht haben, ich kann es nur nicht leiden wenn Produkte kaputtgeschrieben werden und sich Ergebnisse so lange zurecht gebogen werden, dass sie passen.

Machst du in jedem Thread. Du redest auch hier wieder den 10400F stärker als er ist. Diese CPU wird auf dem Retail-Markt keine große Nachfrage erfahren, dies kann man jetzt schon absehen.

KlaraElfer schrieb:
Wie Aldaric mit günstigem E Die RAM DDR4 3800CL15 1:1:1 hinbekommen will und mit dem boxed Kühler den Ryzen auf 4,4Ghz clocked und das ganze noch stabil sein soll, kann er mir ja mal erklären.
Ihr nehmt hier permanent das beste Ergebnis des Ryzens und behauptet gleichzeitig die Zusammenstellung sei "günstig". Nein, die ist teuer, mindestens so teuer wie der Intel mit Z Board und Billig AEGIS 3200er.

Ich hatte bei meiner CPU noch nichtmal den 3200er Balistix genommen. Aber wenn du so viel über das Thema weißt, dann kennst du auch die Ram OC Community, und die beliebten Micron-E Werte von ZeroCoolRiddler. (die auf jedem Micron-E ohne Probleme laufen)

Meine billigen Balistix 3000 CL16, laufen hier geschmeidig auf 3800 CL15. Siehe CB Ram-Empfehlungen. Das war sogar eine News, dass keiner mehr die überteuerten B-Dies kaufen soll, die du immer wieder gerne beim Ryzen in den Warenkorb stecken willst.

Wo ist das Problem? Wenn du es nicht zum laufen kriegst, liegt das Problem wahrscheinlich nicht am Ram. :evillol:

Und jammer doch nicht immer über die 4.4 Ghz. Der 3600 wäre auch mit Stock-Takt und dem getuneten Ram schneller als der 10400F.

Wenn dir das Fazit von vielen Tech-Youtubern, oder hier GamersNexus, nicht gefällt, beschwer dich bei ihnen. Sie haben ihr Review mit Daten belegt und haben zurecht über diese CPU geurteilt.

Die einzige CPU im Comet-Lake Lineup die man empfehlen kann, wenn es das Budget hergibt, ist der 10600K.
 
Ja "Der Paule", was ein überhebliches Geschreipsel ohne Substanz. Kurz er hat den Durchblick, die Reviewer und wir nicht - nicht nur die müssen mit Kritik leben auch er. Und nichts anderes machen hier User.

Ja das Thema ist durch aber komischerweise setzen immer die 2 Selben nach obwohl sie das auch schreiben aber wohl nicht so meinen.
 
KlaraElfer schrieb:
Der 3600er wird 5 bis 10% geschlagen, mit der teureren Z Board Kombination und "nur" einer 2070 OC.
Mittel: 7,6%. Dachte ich lasse den Channel mal da.

Im Video:

Systems:
X570 Aorus Ultra
16 GB RAM - 3200MHz CL14
1TB NVMe SSD
Alphacool Eisbaer 360 LT - CPU cooler

Z490 Gaming X 16 GB RAM -
3200MHz CL14
1TB NVMe SSD
Alphacool Eisbaer 360 LT - CPU cooler

:daumen::daumen::daumen:

Das Schönste ist die €/$ pro fps Rechnung.
Ja, immer schön die anderen Komponenten außer acht lassen - sehr intelligent. Anscheinend hast Du und Co. immer noch nicht begriffen, was ein Budget-System bedeutet.

----------------------------------

Ach ja, die 3200 CL14 ist schon lange kein Sweet-Spot für Ryzen-CPUs, siehe meinen Test.
Die Zeiten von Zen1 sind auch vorbei, wo man teure Samsung Chips am Anfang brauchte, um RAM-OC auf 3200 zu betreiben. Ein 3800 CL15 outperformed meinen 3200 CL14 Stock derart. Selbst ein 3733 CL15, oder 3600 CL15 würde das tun. Und dafür braucht man nichtmal ein teureres X570 Motherboard.

https://www.computerbase.de/2019-08...#abschnitt_benchmarks_der_xmpprofile_mit_ifoc

aldaric schrieb:
Die einzige CPU im Comet-Lake Lineup die man empfehlen kann, wenn es das Budget hergibt, ist der 10600K.

Genau so ist es.

Wenn man nicht genug Geld hat, greift man zum 3600. Mit einem billigem Board und RAM-OC (wobei die RAM nichtmal teuer sein müssen). Der 10400 hat mit einem billigem (wenn es mal kommt) Board keine Möglichkeit von RAM-OC und ein gutes Z-Board ist dementsprechend teurer.

Der Witz ist:

Selbst mit einem billigerem MB (410/460) wäre der 10600k non OC mit 2666 MHz RAM schneller, als der 10400 auf Steroiden.

https://www.techpowerup.com/review/intel-core-i5-10400f/14.html
(Ja, die Vorlage hat Elfer geliefert :))
 
Rockstar85 schrieb:
Das Thema ist doch durch....

Und ich erwarte eigentlich eine persönliche Entschuldigung, wenn man schon falsche Unterstellungen macht.
Andere haben es dir auch erklärt, aber klar du Hast Recht, weil du Recht hast...

Richtig, das Thema ist/war durch, warum also dieser Beitrag ohne Argument mit (jetzt) eindeutigem Ziel? Das führt doch automatisch wieder zu einer (hier notwendigen) Reaktion. Und wie erwartest Du eine Entschuldigung bei gleichzeitigem nutzen der Ignore Funktion? Da stimmt doch etwas nicht.

Du siehst leider nicht, dass der Fehler hier bei Dir lag. Ich habe mehrfach darauf hingewiesen, dass ich überhaupt keine Notwendigkeit sehe, über derlei Dinge zu diskutieren. Warum habe ich es also getan und am Ende geliefert?

Aufgrund Deiner Diskussionsführung mit Angriffen persönlicher Art gegen mich und ohne Argumente, wie ich oben erwähnte. Mit meinem letzten beiden Beiträgen habe ich Dir sogar Möglichkeiten geschaffen, wie Du aus der Nummer wieder rauskommst, beide auch wieder abgelehnt.

Sofern Du also mit mir etwas persönlicher Natur zu klären hast, dann schreibe mich via PM an und trag Deine persönlichen Aversionen nicht in die Öffentlichkeit, auch das ist nämlich Dein Stil.

Und auch hier noch einmal der Hinweis. Wenn Du mich direkt ansprichst, dann zitiere oder erwähne mich entsprechend, so dass ich auch benachrichtigt werden. Das habe ich Dir schon einmal gesagt. Hier unterstelle ich Dir jetzt Absicht, und ich benenne so etwas auch ganz klar.

--------------

Rockstar85 schrieb:
Ich würde zum Thema 720P was sagen, aber ich lasse es mal.

Nein, ich bitte darum, liefere jetzt und zwar Argumente. Es mag ja sein, dass ich da etwas übersehen habe. Es ist doch irrelevant ob eine 2080TI "sehr selten" in 1080p im GPU Limit ist, oder nicht. Ist sie es nur in einer Millisekunde, sind die Daten im Hinblick auf das zu Messende verfälscht und fließt dieses Ergebnis in eine Übersicht mit ein, ist auch diese für den Hintern.

Warum dann überhaupt so messen, wenn es anders geht, ohne Zusatzaufwand? Nur weil der Leser überfordert ist mit dem richtigen Vorgehen? Nur weil AMD/Intel (je nach Vorliebe) den längeren Schatten werfen soll, man also das sehen will, was man möchte?

Genau, und genau das ist das sind die zentralen Argumente auf die es hier wohl hinausläuft.

Messmethoden sind keine Frage des Recht habens oder der Meinung. Da gibt es wenig Spielraum für Grauzonen. Entweder sie erfassen das, was sie messen sollen, oder sie erfassen es nicht.

Tun sie es nicht, muss der Leser das zumindest wissen. Das dann allerdings abzustreiten ist in meinen Augen, und hier sind wir jetzt bei Meinungen, nämlich der meinen, selten dämlich.

An sachlichen Gegenargumenten bin ich zumindest jederzeit interessiert.
 
Ich teste in 720p und finde heraus CPU X ist schneller als Y.

und nun teste ich das ganze in üblichen Kombinationen einer Grafikkarte für deren übliche sinnvoll zu erstrebende Auflösung.

Dabei kommt heraus, das X und Y nahezu gleich auf liegen.

Was sagt mir dann der 720p Test?

Theoretisch ist die eine CPU schneller, praktisch vielleicht auch, aber messbar und nicht fühlbar.

Vergleichbarkeit in Tests ist wichtig, aber ob 720p eine Sinnvolle Aussage trifft... mh 🤔
 
@Der Paule

Deine 720p ist hier vollkommen off-topic und vollkommen irrelevant. Schau mal bei Steve die 1.0 % LOW Werte genauer an. der maximale Wert bei 1 % LOW mit einer 2080ti bildet der 10600 OC mit 78,6 fps bei Hitman 2. Gäbe es hier ein GPU-Limit, würden die restlichen CPUs ala 10400 und 3600 ähnliche fps Werte bei 1.0 % LOW liefern - nur tun es diese nicht.

Hier mal ein Game welches im GPU-Limit steckt:
https://www.computerbase.de/2020-04...full_hd_wqhd_und_ultra_hd_mit_dx11_und_vulkan

Unbenannt.jpg

Sprich: Bei Steves Tests bewegt man sich schon im (RAM und somit auch) CPU-Limit. Für das, wozu er die Daten braucht, um seine Aussage zu untermauern, reicht dieser Datensatz vollkommen aus.

Du sprichst ständig vom Wissen - aber wiederholst es nur sinnlos (zeigt sich daran, dass Du nichtmal weißt, wie man diese Werte als Datensatz für eine Argumentation nutzt).

Nur mal so ein Beispiel:

10900k vs 10400 - beides mit einer 2080ti

10900k in einem Spiel:
avg fps: 150 fps
1 % low: 90 fps

10400 im selbem Spiel:
avg fps: 120 fps
1 % low: 75 fps

Da wirste egal mit welcher 3080ti oder 4080ti nimmals ums Verrecken mit einem 10400 über die fps-Werte (die man mit der 2080ti gemacht hat) kommen, weil die RAM/CPU hier limitiert, denn die Graka schafft es wohl bei GPU-lastigen Stellen 90 fps zu liefern! Die einzigen unterschiedlichen Messungen mit einer leistungsstärkeren Graka würden in einer Messtoleranz liegen.
 
  • Gefällt mir
Reaktionen: eratte und BookerDeWitt
Karre schrieb:
Ich teste in 720p und finde heraus CPU X ist schneller als Y.

und nun teste ich das ganze in üblichen Kombinationen einer Grafikkarte für deren übliche sinnvoll zu erstrebende Auflösung.

Dabei kommt heraus, das X und Y nahezu gleich auf liegen.

Was sagt mir dann der 720p Test?
Dass du, wenn du in einem Spiel mal mit deiner Karte zu wenig FPS haben solltest, die Settings runterdrehen kann und X das länger mitmacht als Y.

Dass du, wenn du deine GPU in Zukunft mal upgraden willst oder wenn du in Zukunft Features wie DLSS 2.0 oder die noch nicht verfügbare AMD Variante davon nutzen möchtest, um deine FPS drastisch zu steigern, mit CPU Y schneller im CPU Limit landen wirst, als mit CPU X.

Ganz allgemein, wenn ich mir 120fps als Ziel gesetzt habe und hier in einem 1080P CPU Test mit Ultra Settings die Top 5 CPUs im Bereich von 90-95fps liegen, weil die 2080Ti mit diesen Settings limitiert, sagt mir der Test überhaupt nichts, denn ich möchte ja wissen, welche CPU die 120fps stabil halten kann, nachdem ich die GPU Settings soweit runtergedreht habe, dass ich mit der 2080Ti auf 120fps kommen würde.

Mache ich den Test in 720p und sehe, dass eine CPU immer noch bei 90 liegt, zwei um die 100, eine bei 110 und die Top CPU bei 130, dann weiß ich, dass nur diese CPU für mich Sinn macht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse, Der Paule und gunmarine
wenn ich nun aber max fps in xyz setting mit einer 2080TI haben möchte, kauf ich mir die für Spiele schnellste CPU am markt dafür sind die Aussagen also auch eher unbrauchbar. Man kommt ja gar nicht drum herum, als die schnellste CPU zu kaufen.

also was genau sagt mir der 720p Test?

Gerade das argument man kann am Regler drhen für mehr FPS zeigt mir doch, das tendenziell ein GPU Limit vorliegt.
Eben jenes soll mit 720p ja ausgeschlossen werden ..

Das sind hier alles Argumentationen, die erschließen sich mir nicht .. Bin wohl zu alt dafür um 120 oder gar 240 FPS Argumente zu verstehen ..
 
Hier kriegt man sehr schön aufgezeigt mit was ein Reviewer sich auseinandersetzen muss um nicht "verfälschte" Ergebnisse zu bekommen (das betrifft Intel und AMD Boards der Hersteller):

Don't Run Z490 Motherboards with Default Settings: Thermals, Power, Boosting, & MCE for 10th Gen CPUs (Gamer Nexus)


Die Quelle wird natürlich Einigen wieder nicht passen :)
 
Karre schrieb:
wenn ich nun aber max fps in xyz setting mit einer 2080TI haben möchte, kauf ich mir die für Spiele schnellste CPU am markt dafür sind die Aussagen also auch eher unbrauchbar. Man kommt ja gar nicht drum herum, als die schnellste CPU zu kaufen.

also was genau sagt mir der 720p Test?
Er sagt dir welche die für Spiele schnellste CPU ist bzw wie viel schlechter die anderen Möglichkeiten sind.

Zeigt dir ein 720p Test der komplett ohne GPU Limit lief, immer noch nur 5% Unterschied zwischen der Top CPU für 600€ und einer anderen CPU für 350€, dann würdest du wohl eher die 350€ CPU nehmen.

Zeigt dir ein 1080p Test das gleiche, würdest du auch eher die 350€ CPU nehmen, wüsstest dann aber nicht, ob du wenn du in 4-5 Monaten mal ne stärkere GPU dazu nimmst oder Settings reduzierst, wirklich nur 5% schlechter dastehst als mit der 600€ CPU.

Karre schrieb:
Gerade das argument man kann am Regler drhen für mehr FPS zeigt mir doch, das tendenziell ein GPU Limit vorliegt.
Eben jenes soll mit 720p ja ausgeschlossen werden ..
Das ist doch der Punkt, mit den 720p Test simulierst du das runterdrehen der Regler bzw. speziell das Reduzieren der Einstellungen, die explizit auf die GPU Last gehen.
Ansonsten weißt du eben nicht, wie viel FPS deine CPU in der Spitze stemmen kann.
 
  • Gefällt mir
Reaktionen: Der Paule
Karre schrieb:
wenn ich nun aber max fps in xyz setting mit einer 2080TI haben möchte, kauf ich mir die für Spiele schnellste CPU am markt dafür sind die Aussagen also auch eher unbrauchbar. Man kommt ja gar nicht drum herum, als die schnellste CPU zu kaufen.

:daumen: :daumen: :daumen:

Das ist das Spiel der "Spass am Testen der Hardware-Fraktion".

Taxxor schrieb:
Zeigt dir ein 1080p Test das gleiche, würdest du auch eher die 350€ CPU nehmen, wüsstest dann aber nicht, ob du wenn du in 4-5 Monaten mal ne stärkere GPU dazu nimmst oder Settings reduzierst, wirklich nur 5% schlechter dastehst als mit der 600€ CPU.

Weshalb testet man es wohl mit der 2080ti? Hmmmm?
Weshalb nimmt man die beste Gaming-CPU als Test für die Grafikkarten?
Weshalb nimmt man GPU- und CPU lastige Games zur Berechnung?

Wer ein Budget-System kauft, kauft sich keine 2080ti und kein 10900k - da kommt eine 1060, 1050ti und Co. mit einer anderen CPU rein (und wer sich einen 10900k und eine 2080ti kauft, den interessieren die Werte nur noch für OC für eigene Spielchen mit längerem Balken). Und Du willst uns hier erzählen, dass man es in 1080p Tests (und zukünftigen Tests - wenn neue CPUs und GPUs raus kommen) nicht sehen kann, was ein Upgrade bringen würde?

Fall 1 Spiel im CPU-Limit:

Wenn bei Spielen jetzt schon die CPU limitiert (mit einer 2080ti), so wird diese auch in Zukunft limitieren. Und wenn Du in der Zukunft die GPU upgraden willst, wird die CPU ebenfalls limitieren - das Maximum kannst Du an dem Wert der 2080ti im Test ablesen (den mehr fps kann die GPU nicht liefern, weil die CPU es nicht schafft)! Das einzige, was Du hier tun kannst ist, wenn Du durch die Settings CPU-lastige Einstellungen runterdrehtst, um etwas mehr fps zu erhalten. Ein GPU-Wechsel wird hier nichts bringen!

Fall 2 Spiel im GPU-Limit:

Wenn Du später die GPU auf die Leistung einer 2080ti aufrüsten willst, stellt die 2080ti die Grenze dar (in GPU-lastigen Spielen - wo viele CPUs mit dem Top-Model nah beiannander liegen) - da kannst Du nur die Grafikdetails runterschrauben, um mehr fps zu bekommen.

Was Ihr aber nicht beachtet:

Wenn neue GPU-Modelle auf den Markt kommen, wird bei GPU-lastigen Spielen die Grenze für fps erweitert und neu getestet. Wenn eine 3080ti auf den Markt kommt, wird die 3080ti das Maximum bei GPU-lastigen spielen sein usw...

Da kommt es bei den CPUs zu neuen CPU- und Graka-Limits. Wenn aber schon die CPU davor in einigen Games limitiert hat, so wird diese auch in der Zukunft limitieren. Und für GPU-Limits gibt es einen neuen Test mit einem neuen Big-Boss aka 3080ti und Co..

Nur, wer upgradet (wer kein Bastler ist) mit einem älterem Low-Budget-CPU auf eine 3080ti? Keiner! Und oh Wunder, die Tests mit leistungsschwächeren Karten wären auch wieder da (als man die CPUs mit der 3080ti getestet hat).

Euer 720p Test macht für Budget-Käufer überhaupt keinen Sinn - denn dort ist das Limit das GELD! Wer sich das Beste leisten kann, den interessiert nur das Maximum (egal ob +5 % avg. in Spielen).
 
Zuletzt bearbeitet:
Karre schrieb:
wenn ich nun aber max fps in xyz setting mit einer 2080TI haben möchte, kauf ich mir die für Spiele schnellste CPU am markt dafür sind die Aussagen also auch eher unbrauchbar. Man kommt ja gar nicht drum herum, als die schnellste CPU zu kaufen.

also was genau sagt mir der 720p Test?

Gerade das argument man kann am Regler drhen für mehr FPS zeigt mir doch, das tendenziell ein GPU Limit vorliegt.
Eben jenes soll mit 720p ja ausgeschlossen werden ..

Das sind hier alles Argumentationen, die erschließen sich mir nicht .. Bin wohl zu alt dafür um 120 oder gar 240 FPS Argumente zu verstehen ..

auch hier wieder zu kurz gedacht, die 3070 ist die neue 2080 ti, die 4070 die neue 3080 ti. und ne cpu nutzt man länger als 2 jahre. und was kommt dieses jahr? richtig die 3000er...und 2022 kommen die 4000er
 
Und was sagt mir ein 720p GPU Test in z. B. GTA V, wenn ich aber Cyberpunk 2077 spielen will ?

Ein 720p Test ist eine Momentaufnahme in Spiel X. In Spiel Y hilft mir das aber 0,00. Engines entwickeln sich weiter, wo heute vll. eine 6-Kern CPU vorne ist, kann es morgen die gleichpreisige 8-Kern CPU sein.

Ich kann mit diesen Daten keine zukünftigen Ergebnisse ableiten.
 
  • Gefällt mir
Reaktionen: Apocalypse und Heschel
gunmarine schrieb:
auch hier wieder zu kurz gedacht, die 3070 ist die neue 2080 ti, die 4070 die neue 3080 ti. und ne cpu nutzt man länger als 2 jahre. und was kommt dieses jahr? richtig die 3000er...und 2022 kommen die 4000er

Und oh wunder: Man hat die Tests der 2080ti schon :)
Und da wird die neue GPU aka 3080ti wieder mit den CPUs getestet - neue Grenzen bei CPU- und GPU-Limits.

Da sind schon wieder alle Werte da, die man braucht.

Wenns die CPU schon eine 2080ti ins GPU-Limit gebracht hat, so wird diese auch die 3070 ins GPU-Limit bringen können. Und wenn die alte CPU die neue 3080ti nicht mehr ans Limit bringt, so stellt der Wert das Maximum der fps des Wertes, welchen die 3080ti für deine CPU vorgegeben hat.

Dazu braucht man deinen 720p Test nicht!
Ergänzung ()

aldaric schrieb:
Und was sagt mir ein 720p GPU Test in z. B. GTA V, wenn ich aber Cyberpunk 2077 spielen will ?

Ein 720p Test ist eine Momentaufnahme in Spiel X. In Spiel Y hilft mir das aber 0,00. Engines entwickeln sich weiter, wo heute vll. eine 6-Kern CPU vorne ist, kann es morgen die gleichpreisige 8-Kern CPU sein.

Ich kann mit diesen Daten keine zukünftigen Ergebnisse ableiten.

Das ist der weitere Denkfehler ihrerseits.
 
Zurück
Oben