Test Intel Core i9-9900KS im Test: Intel stößt sich selbst vom Thron

Heschel schrieb:
CB verwendet hauptsächlich eben "Auto"-Settings mit der Spezifikation der CPU (Ram-Takt, etc.). Also das, was Grundsätzlich das System hergibt.
gegen funktionierende "Auto"-Settings ist auch nichts einzuwenden, aber mit den Asus ROG Boards ist das leider nicht möglich da die CPU im „Automodus“ außerhalb der Spezifikationen betrieben wird - und darum sind die im Test erzielten Werte (Verbrauch und Temp.) eigentlich wertlos.

Und wenn man dann trotzdem die CPU auf 5.4GHz hoch prügelt und ein OC Board benutzt sollte man auch entsprechenden Speicher verwenden und das XMP Profil laden und mal eines richtigen Vergleichstest aufführen – sonst ist das hier weder Fisch noch Fleisch.
 
  • Gefällt mir
Reaktionen: Der Paule
@Scrush
Ich kann nicht erkennen das sich da irgendetwas beißen würde denn im Gegensatz zu dir verallgemeiner ich nicht. Das war nur eine simple Frage die du offenbar nicht wirklich beantworten kannst.
Wenn du mit deiner FPS Aufzählung darlegen willst das diese je nach Person flüssiger als flüssig wären dann kann ich dem nur zustimmen. Dann wären sie schließlich überflüssig.
Warum ich speziell auf Strategiespiele wie Anno im Zusammenhang mit dem singleplayer Modus angesprochen hatte? Weil diese sich erfahrungsgemäß mit weniger FPS zufrieden geben da ganz einfach die zusätzlichen Latenzen für die Kommunikation zwischen den Usern fehlen. Da geht es dann nur noch darum wie sehr die KI vom Spiel übervorteilt wird. Gerade bei solchen eher gemächlichen Spielen reichen z.B. mir persönlich 30-45 FPS, erst recht wenn ein gesyncter Monitor im Spiel ist.
Schon geht deine Aussage den Bach runter......

@Jim Panze
4% sind Kinderkram.
Selbst bei 100 FPS würden bestenfalls 2-4 FPS bei rauskommen. Das ist vielleicht doll für den virtuellen Sch***zvergleich, geht in der Realität aber fast schon im Bereich der Messungenauigkeit unter.
200 MHz waren mal viel als wir an der 1 GHz Grenze kratzten denn da betrug der Unterschied ca. 20%.
 
  • Gefällt mir
Reaktionen: mealtman, Sennox und Baal Netbeck
Scrush schrieb:
nein, es ist die identische!

weil die auflösung mit der cpu nix zu tun hat. wie oft denn noch


Der echte Kunde spielt aber nicht im CPU-Limit!
Er spielt mit FHD aufwärts!

Da kannst du so oft messen bis es dir passt. Fakt ist dass niemand in 720p spielt und deswegen solche Tests für einen Kunden scheißegal sein können/sollten
 
  • Gefällt mir
Reaktionen: iron_monkey
Ohweia Intel muss sich jetzt fühlen wie AMD zu Bulldozer Zeiten:D. Die Architektur ist absolut am Ende und der Stromverbrauch brachial. Der Mehrgewinn ist winzig im Vergleich was mehr warme Luft hinten raus geblasen wird. Wird Zeit das ein neuer Fertigungsprozess kommt + eine neue Architektur vom CPU Genie Jim Keller:daumen:. Das wird wohl noch dauern...
 
Haenger schrieb:
Der echte Kunde spielt aber nicht im CPU-Limit!
Er spielt mit FHD aufwärts!

Da kannst du so oft messen bis es dir passt. Fakt ist dass niemand in 720p spielt und deswegen solche Tests für einen Kunden scheißegal sein können/sollten

dann hast du es nicht verstanden. dann kauf ruhig den ryzen 1200 ;) wenn du der meinung bist die cpu ist wurscht

von welchen normalen kunden sprichst du?

der ottonormalverbraucher?

der guckt sich diese tests niemals an sondern lässt sich im kaufberatungsthread ne mühle hinknallen und fertig
 
Scrush schrieb:
ja die fps werden niedriger sobald die gpu weniger als die cpu packt, korrekt

das was der kollege schreib bezieht sich aber auf die cpu leistung und diese verändert sich mit steigener auflösung nicht
Die Aussage war, dass unter realen Bedingungen weniger von der Leistung beim Nutzer ankommen wird, als im 720p CPU Test, und das stimmt, da man unter realen Bedingungen ein GPU Limit hat.
 
Taxxor schrieb:
Die Aussage war, dass unter realen Bedingungen weniger von der Leistung beim Nutzer ankommen wird, als im 720p CPU Test, und das stimmt, da man unter realen Bedingungen ein GPU Limit hat.
seine aussage bezog sich auf die CPU!

leistung messen im bezug auf die cpu war seine intention
 
Scrush schrieb:
seine aussage bezog sich auf die CPU!

leistung messen im bezug auf die cpu war seine intention
Und ist das, was von dieser Leistung nachher zuhause siehst, identisch mit dem, was du im 720p Test gesehen hast? Das ist seine Aussage.

Scrush schrieb:
dann kauf ruhig den ryzen 1200 ;) wenn du der meinung bist die cpu ist wurscht
Weil ein Ryzen 1200 in 1080p identisch zum 9900KS performt? Stimmt, der 9900KS ist in 1080p ja nur 95% schneller als ein 2200G.
Bitte Leute, tut doch nicht so als läge CB hier wegen 1080p permanent im GPU Limit. Dass der Unterschied von 9900K zu 9900KS ziemlich genau das beträgt, was man vom Taktunterschied erwarten konnte, zeigt doch, dass der 9900KS hier so gut wie nie limitiert wurde.
 
  • Gefällt mir
Reaktionen: Alphanerd
Haenger schrieb:
Der echte Kunde spielt aber nicht im CPU-Limit!

siehst du mein video:


das lässt sich alles in GTA V, Anno, cities skylines, WoW, und vielen weiteren titel mühelos nachstellen. vor allem in full hd gar nicht so schwer.

hört doch bitte auf davon auszugehen die leute zocken hier alle gpu killer ala crysis oder sonstwas
 
  • Gefällt mir
Reaktionen: Heschel
Taxxor schrieb:
Und ist das, was von dieser Leistung nachher zuhause siehst, identisch mit dem, was du im 720p Test gesehen hast? Das ist seine Aussage.

sehe ich nicht so. ich gehe davon aus dass er rein von der cpu spricht. hier geht es übrigens auch rein um eine cpu und nicht um irgendwelche gpu leistungen :)
 
Scrush schrieb:
das lässt sich alles in GTA V, cities skylines, WoW, und vielen weiteren titel mühelos nachstellen. vor allem in full hd gar nicht so schwer.
So, und wozu dann noch 720p Tests, wenn dein Video prima zeigt, dass man auch 1080p selbst bei einer sehr viel schwächeren GPU als der 2080Ti hier im CPU Limit ist?
 
Scrush schrieb:
sehe ich nicht so. ich gehe davon aus dass er rein von der cpu spricht. hier geht es übrigens auch rein um eine cpu und nicht um irgendwelche gpu leistungen :)
Das kann @Haenger ja gerne noch mal konkretisieren, allerdings sehe ich da keinen Interpretationsspielraum, die aussage lautete exakt so

Was dann aber beim Kunden unter "realen" Einstellungen ankommt
Also, das was von dieser CPU Leistung ankommt, eben wie sich das Gesamtsystem damit schlägt.
Ergänzung ()

Scrush schrieb:
mein video ist 720p^^
Ups^^
Aber deine 1080 dümpelt da teilweise bei 50% rum, eine 2080Ti, wie hier verwendet, würde da richtung 20-30% gehen und selbst in 1440p noch von der CPU limitiert werden.
 
  • Gefällt mir
Reaktionen: Heschel
egal wie er es am ende gemeint hat, unter realen einstellungen also identische settings nur die auflösung dann wieder auf realem niveau (1080p und höher) sehen wir identische cpu leistungen wie in 720p. teilweise eben von der gpu verdeckt.

ja richtig. bestreite ich doch nicht, ist doch korrekt
 
Scrush schrieb:
seine aussage bezog sich auf die CPU!

leistung messen im bezug auf die cpu war seine intention

Ich redete von REALEN Szenarien beim (Gamer-)Endkunden. Demnach höhere Auflösungen
Und genau in der Situation werden die FPS sowie der (getestete) Performancezuwachs sinken!

Das ist zwar nicht der CPU geschuldet, aber so sieht die Realität aus
 
Scrush schrieb:
unter realen einstellungen also identische settings nur die auflösung dann wieder auf realem niveau (1080p und höher) sehen wir identische cpu leistungen wie in 720p. teilweise eben von der gpu verdeckt.
Das ist doch ein Widerspruch in sich, wenn sie von der GPU verdeckt werden, sehen wir sie eben nicht^^ Wir wissen durch den 720p Test nur, dass sie theoretisch da wären.
 
Taxxor schrieb:
Ups^^
Aber deine 1080 dümpelt da teilweise bei 50% rum, eine 2080Ti, wie hier verwendet, würde da richtung 20-30% gehen und selbst in 1440p noch von der CPU limitiert werden.
liegt halt am spiel, kann ich ja nix für :D

ich hätte das video natürlich auch in 1080p machen können. aber warum? warum soll ich das risiko eingehen und vll doch irgendwo mal ins gpu limt rutschen? ;)
 
Ist doch ganz einfach, wenn ich CPUs vergleichen will, muss ich möglichst alle anderen Einflüsse die das Ergebnis verfälschen raus nehmen. Also soweit es geht ohne GPU Limit benchen. Sonst ist das Ergebnis verfälscht. Ob dieser Unterschied sich dann in der Praxis bemerkbar macht, steht auf einem anderen Blatt und darf in Sondertests gerne mitgebencht werden.
Was die CPU theoretisch im Stande ist zu leisten ist vielleicht für viele heute nicht wichtig, in Zukunft aber schon. Sei es weil die GPUs stärker werden oder weil die Anforderungen der Games/Anwendungen steigen.
 
max9123 schrieb:
Was stimmt den daran nicht?

Siehe Edit. Das ist der einzige offiziell von Intel spezifizierter DDR4-2666 Speicher.
1572462448368.png


Und nein! Bevor hier wieder mit etwas unterstellt wird, ich poche nicht darauf zwingend diesen Speicher zum Test zu verwenden. Man sollte nur vergleichbaren Speicher nehmen oder halt den Speicher nehmen, mit dem solche CPUs meist ausgerüstet werden.

Wer sich ein AMD oder Intel "K" System selbst baut, wird zu in den meisten Fällen zu einem DDR4-3200CL16 RAM greifen. Es dürfte mittlerweile der meistverkaufte Speichertyp für Bastler sein. Wer eine OEM Kiste kauft, wird dort DDR4-2666CL19 (Intel) oder DDR4-3200CL22 (AMD) vorfinden, wobei bei AMD Kisten derzeit leider meist langsamerer Speicher verbaut wird.

Also gibt es eigentlich nur zwei Arten von Tests, die halbwegs Sinn machen würden. Entweder richtig Stock oder ungefähr das was die Masse kauft. Derzeit setzt CB aber Speicher zum testen ein, den so zumindest bei Intel niemand einsetzen wird und auch nicht kaufen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: max9123 und Ctrl
Zurück
Oben