Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

@cypeak

einer der wenigen realistischen Kommentare, danke.
Wenn man das Alter der Technologie bedenkt, schlagen sich die alten 8700K und 9900K wunderbarerweise sehr, sehr gut. Und wenn man alte Forenposts aus 2700X-Zeiten liest, wie der 9900K runtergemacht wurde, kann man es heute kaum glauben Er war ja, trotz hohem Preis, mit noch beherrschbaren Temperaturen und ebensolcher Stromaufnahme, zum großen Teil deutlich schneller. Dagegen fällt die Entscheidung 10900K oder 3900X doch sehr viel leichter in Richtung AMD aus, trotz kleiner Schwächen des AMD.
 
Matze89 schrieb:
Ich finde die 1080p-Tests realitätsnäher als 720p. Klar, man könnte das GPU-Limit besser ausschließen aber 1080p ist einfach nachvollziehbarer weil es einfach ein realistisches Szenario ist. Niemand zockt in 720p, warum also den Gaming-Test in dieser Auflösung, wenn die Realität (1080p oder größer) dann doch anders aussieht.

Gibt ja zum Glück verschiedene Tests mit verschiedenen Testmethoden. So kann sich jeder den Test suchen, der den eigenen Anforderungen gerecht wird.
Gibt ja zum Glück bald eine 3080 Ti, die dann wohl auch das Limit von 720p nach 1080p transportiert. Und dann wird mit wqhd argumentiert ...
 
  • Gefällt mir
Reaktionen: Der Paule, KlaraElfer, Florianw0w und 2 andere
meckswell schrieb:
Benötigt der 10600K für 5G wirklich 1.46V? Oder droppt das unter Last runter? Aber 220Watt im R20 is net normal. Mein 8700K braucht mit 170Watt 50Watt weniger.

Anhang anzeigen 921540
Nein- Das was ich bis jetzt so im Netz gelesen habe, bescheinigt dem 10900K genau den gleichen Voltage- Rahmen wie bei den vorhergehenden Generationen auch.

Bei 5GHz wird er um die 1.33V brauchen. Deswegen dreht es mir die Zehennägel hoch, wenn ich seh, mit welchen Horrorwerten hier einige getestet haben.
Naja- Wenns die Mainboards "Default" so einstellen....

LG
Zero
 
  • Gefällt mir
Reaktionen: Ctrl und meckswell
Buggi85 schrieb:
Gibt ja zum Glück bald eine 3080 Ti, die dann wohl auch das Limit von 720p nach 1080p transportiert. Und dann wird mit wqhd argumentiert ...
Laut letzten Leaks, soll die 3080 Ti sogar auf 1440P limitieren
 
AlphaKennyBody schrieb:
Gibt's ne Erklärung dafür, dass der 10900K schneller ist als der 9900KS? Eigentlich müsste er ja langsamer sein, wenn man sich die technischen Daten ansieht. Liegt das daran, dass beim Test unterschiedlicher RAM verwendet wurde? Falls ja: könnte man das nochmal nachtesten und beiden den schnellen RAM geben?

Ziemlich sicher.
Im Endeffekt, mit gleichem Ram, wenig bis gar kein Unterschied in Games.
 
Caramelito schrieb:
Ziemlich sicher.
Im Endeffekt, mit gleichem Ram, wenig bis gar kein Unterschied in Games.
Und da nach den vielen Aussagen hier ja niemand Intel CPUs mit RAM nach Specs betreibt, ist dieser Test sogar noch wohlwollend für Comet Lake ausgelegt^^
Nachtests mit gleichem RAM für beide sind soweit ich mitbekommen habe geplant, oder?
 
meckswell schrieb:
Benötigt der 10600K für 5G wirklich 1.46V? Oder droppt das unter Last runter? Aber 220Watt im R20 is net normal. Mein 8700K braucht mit 170Watt 50Watt weniger.

Anhang anzeigen 921540
Das übliche Problem, die Boardhersteller hauen zu viel Vcore drauf, dadurch geht die Leistungsaufnahme in die Höhe und die Wärmeentwicklung steigt immens an. In der Folge taktet die CPU wesentlich früher runter und niedriger, weil das Powerlimit bei weniger Last schon erreicht wird.
Die meisten Redakteure testen mit schlechten Vcores weil Out of Box Boards und dann fallen Tests entsprechend aus.
 
  • Gefällt mir
Reaktionen: meckswell und .Sentinel.
Hades85 schrieb:
Die Assoziation muss aber lang her sein. Ich verbinde eher damit, dass Intel-Fanboys bei jedem Release von einer neuen Ryzen Gen auf die Schublade von Intel verwiesen. Nach dem Motto Intel packt bald den Hammer raus und zerstört AMDs Rebellen Aufstand.

Das ist Wort für Wort genau was ich gesagt habe.
 
Buggi85 schrieb:
Die meisten Redakteure testen mit schlechten Vcores weil Out of Box Boards und dann fallen Tests entsprechend aus.
Andersrum, würden die Bordhersteller sich alle an die Specs halten, fielen die Tests auch entsprechend aus^^
 
  • Gefällt mir
Reaktionen: LukS, Celinna, yummycandy und 2 andere
ZeroZerp schrieb:
Wieso soll sich die Redaktion deswegen, trotz x- Facher Erklärung laufend mit den Lesern auseinandersetzen?
Dei WOLLEN denn Sinn dahinter nicht verstehen, weil sie nicht wissen, wie auf rasterisierung basierte Spiele funktionieren und dass die Szenendatenaufbereitung und Übertragung größtenteils Auflösungsunabhängig passiert.

Woher will man denn auch wissen, dass die CPU Leistung durch alle Auflösungen hindurch linear skaliert? Gibts da auch irgendwelche Belege zu? Es gibt ja durchaus valide Gründe für die Annahme das zwei unterschiedliche CPU Architekturen sich da dann doch unterschiedlich verhalten.

Die 720p Beführworter stellen ganz gern einfach mal Behauptungen auf die so auch nicht überprüfbar sind.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Sind die Benchmarks in 1080p und 4k only?
Mir fehlt 1440p.

Danke dennoch für den Test der Gordon Freeman Gedächtnis-Brechstange.
 
Ned Flanders schrieb:
Woher will man denn auch wissen, dass die CPU Leistung durch alle Auflösungen hindurch linear skaliert?
Wenn man sich ein ältere Game nimmt, wo selbst 1440p keinerlei GPU Limit mit einer 2080ti verursacht, könnte man ja mal den Test machen und eine Szene in 720p, 1080p und 1440p testen, vielleicht sogar noch 720p mit 50% Renderauflösung, was bei älteren Spielen aber eher nicht in den Optionen stecken dürfte^^
 
Taxxor schrieb:
Andersrum, würden die Bordhersteller sich alle an die Specs halten, fielen die Tests auch entsprechend aus^^
Ja, aber das machen die nicht, nicht bei der Vcore. Die Hersteller geben nur extrem viel drauf damit jedes noch so schlechte Exemplar (was wahrscheinlich nicht mal das Werk verlässt) darauf stabil läuft. Bei 1,45v wird niemand RMA machen wegen der CPU. Außerdem müssen die sich nicht weiter mit der CPU befassen. Pauschal nen hohen Wert und fertig ist dieser Lack im BIOS.
 
so_oder_so schrieb:
Sind die Benchmarks in 1080p und 4k only?
Mir fehlt 1440p.
Ich verlange eine schlüssige Erklärung, was dir dieser Test bringen würde^^
Ehrlich, was stellst du mit den 1440p Werten dann an?

Als die für dich zu erwartenden FPS kannst du sie nicht nehmen, solange du nicht exakt diese GPU mit exakt diesen Taktraten besitzt und die Spiele auch exakt mit diesen Settings spielst.
Was ist der Unterschied ob du dir aus einem 1440p Test oder einem 1080p CPU Test die Werte nimmst und sie mit den Werten deiner GPU in 1440p abgleichst?
 
  • Gefällt mir
Reaktionen: KlaraElfer und Blekota
Dann weiss man es zumindest retrospektiv für dieses eine Spiel. Die Übertragbarkeit auf eine andere Engine hast du aber wieder nicht. Das ist halt das Problem bei derart synthetischen Tests.

Das ganze ist zwar technisch vom nerdigen Aspekt her ganz interessant, ob ich mir das aber als Computerbase ans bein flicken lassen würde nur weil 15 Forenuser von 100k Zugriffen das so skandieren würd ich mir auch überlegen.

Ich bin jedenfalls auch kein großer Fan von lowres tests... dafür ist mir das einfach zu synthetisch und mit Unsicherheit behaftet die sich nicht kontrolieren, ja nichteinmal testen lassen.

Es ist imho einfach nicht das gleiche eine 2080Ti in 4K mit einem 9900KS zu testen wie es ist einen 9900ks mit einer 2080Ti in 720p zu testen. Das eine passiert real, das andere passiert real nie.
 
Und über den FX-9590 haben alle gelacht damals ;)
 
  • Gefällt mir
Reaktionen: DMHas
Mich würde dieses Diagramm von Leistungsaufnahme bei Games auch bei anderen CPU/Systemen interessieren.
Ansonsten eher eine qualvolle Evolution. Aber viele Optionen hat Intel auch nicht.

Die Vollast Aufnahme erreicht man auch hier natürlich nur wenn man seine CPU auslastet. Und die wenigsten lasten 10 oder mehr Kerne aus.

Mein 18C ist vielleicht 5 h pro Woche auf Vollast. Und trotzdem hab ich dann gern meine 18C. Aber auf den Verbrauch meiner Workstation absolut hat das wenig Einfluss.
 
drake23 schrieb:
Und über den FX-9590 haben alle gelacht damals ;)
Der war trotz seines Verbrauch ja auch nicht an der Spitze im Gaming. Hier bekommt man wenigstens etwas zurück^^
 
  • Gefällt mir
Reaktionen: karl_laschnikow, knoxxi, Dome87 und 3 andere
Ned Flanders schrieb:
Die 720p Beführworter stellen ganz gern einfach mal Behauptungen auf die so auch nicht überprüfbar sind.
Du kannst den Datenstrom der an die GPU geschickt wird debuggen.
Der ist in jeder Auflösung identisch bis auf das Flag, welches der GPU mitteilt, auf welcher Auflösung sie das auszugeben/umzurechnen hat.

Die CPU- Last bleibt gleich, da statt Information:
Zeichne Dreieck XY in relativer Postition in der Projektionsmatrix relativ zur Auflösung YZ an Ort X.
YZ ist die einzige Änderung, die der GPU sagt, dass sie da ganze an die höhere Renderauflösung anpassen soll.

Was sich bei modernen Streaming- Engines ändern kann ist das Handling von Texturen.
Dann ändert sich auch tatsächlich das Transfervolumen, welches über die CPU abgewickelt wird (z.B. virtual Texturing, oder eigens verwaltete Texturdatenbanken/Container), Kompression/Dekompression.

Insofern ist eine Korrelation der Leistung von niedrigst aufgelöster Darstellung zu der einer höheren Auflösungsstufe durchaus vorhanden, weil ein typischer gaming- Workload simuliert wird, der im Groben und Ganzen ne lange Zeitspanne immer gleich abläuft.

Der Irrtum, dem viele aufsitzen ist, dass in einer geringeren Auflösung die Szene auch mit weniger geometrischen Details berechnet würde, weil diverse Geometrie in der Auflösungsunschärfe "untergeht".

Werden aber nicht dedizierte Techniken wie Umbra eingesetzt, bleibt der Rasterizier Bruteforce und die CPU schiebt alle Daten durch, die sie zu fassen kriegt. Auflösungsunabhängig.
Das erste Culling (meist z-culling) läuft dann bereits über die GPU ab.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck, adAstra, Meleager und 3 andere
Krautmaster schrieb:
Die Vollast Aufnahme erreicht man auch hier natürlich nur wenn man seine CPU auslastet. Und die wenigsten lasten 10 oder mehr Kerne aus.
Wer eine 10C CPU kauft, die in Spielen 9% schneller als eine halb so teure 6C CPU ist, wobei die Hälfte dieser 9% nur von den höheren RAM Specs kommt, die man als Enduser dann eh nicht nutzt, von dem sollte man erwarten, dass er mit den Kernen auch was macht^^
 
Zurück
Oben