Test Intel Core i9-9900KS im Test: Intel stößt sich selbst vom Thron

die meiste Software läuft nur auf einem kern....
und ich erinner mich noch damals AMD ist gleichschnell wie Intel aber kostet 20% weniger.... argument.... dann auf der LAN party:
Nachbar Kollege mit Inel komprimiert MP3, berechnet nochmal was und zockt neben her....
Der AMD war dann schon mit Zocken total ausgelastet....
Und so ist das heute noch.... vor allem neigt AMD extrem dazu wie die autohersteller bei benchmark tests umzuschalten auf benchmark optimierten betrieb...
also wie beim abgas test mal kurz weniger verbrauchen
ich persönlich zahl lieber das 4 fache fürn intel als mir noch einmal im leben nen AMD anzuschaffen....
 
Ctrl schrieb:
IMMO sind dann die Tests bezogen auf die Verbrauchswerte und erreichten Temperaturen nicht wirklich aussagekräftig!

Das schlimme daran ist, wenn CB wirklich mit "SVID Behavior" auf "Auto" die ganzen vergangenen Tests gemacht hat, dann sind fast alle Verbrauchswerte für die Tonne. Das ist der gleiche Mist wie "Multicore Enhancements", bei dem die CPU auch standardmäßig bis zur Kotzgrenze übertaktet wurde.

Eine Klärung wäre nicht schlecht @Volker !

Hier noch einmal eine kurze Erklärung
There’s also a feature called “SVID behaviour” which affects the level of input voltage the CPU will use at a given voltage. There’s an option to run this as “best-case”, “typical”, “worst case” or “Intel’s Fail Safe” scenarios but effectively what it means is that, in that order, power consumption goes from lowest to highest. A best-case scenario assumes a high-quality chip that requires less power to operate, and Intel’s fail safe is the opposite.
In practice, manually setting the CPU VCore overrides the SVID behaviour but anyone who just dials in a 50x multiplier for 5GHz and leaves the voltage to auto, would be affected by the SVID behaviour. This is also relevant when using Adaptive and Offset VCore modes since those modes will add or subtract voltage from the VCore based on the SVID set voltage, so a higher or lower the baseline level set by the SVID behaviour will affect the final VCore under load.
https://www.kitguru.net/components/...rog-strix-z390-e-gaming-motherboard-review/4/

Bei einer so hoch gebinnten CPU müsste man von "Best Case" ausgehen. Meine eigene Erfahrung mit einem auf 5Ghz laufendem i7-8086K hat gezeigt, dass dann statt 1,35-1,45v (Auto) nur noch eher standardmäßige ca. 1,25-1,32v gefahren werden. Aus einer Kochplatte, die mit Luft nicht mehr kühlbar war, wurde eine wunderbar laufende CPU.
1572458764590.png


Das scheint letztlich ein Problem der ganzen OC Boards zu sein, die voreingestellten Werte entsprechen nicht einmal Ansatzweise dem, was Intel für die CPUs vorgesehen hat.

EDIT: Hier beim 3min Prime Kurzlauf.
1572459391026.png

1572459421203.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaasKersting, Nixdorf und Ctrl
@Jim Panze
Du sollst nicht zu viel in den Kommentaren bei Heise lesen und das dann kopieren!
 
  • Gefällt mir
Reaktionen: Brailee, PS828, Steini1990 und 2 andere
Averomoe schrieb:
Selbst bei 1080p Gaming eine sehr zu vernachlässigende Leistungssteigerung. Gähn.

verglichen zu was? zum i9-9900k? die sind ja auch nicht die Zielgruppe
mich juckt es in den Fingern, denke aber das ich noch 1-2 Generationen aushalten werde
 
Sorry aber die Auswahl der Spiele hier ist nicht besonders aussagekräftig. Hier ist kein Fornite, PlayerUnknown’s Battlegrounds , CSGO, World of Tanks usw. Das sind die Spiele die wirklich viele Leute Online spielen. Es sitzt doch keiner mehr zu Hause und zockt alleine in seinen Zimmer. Wie sich die CPUs dann im Multiplayer Modus schlagen wird hier doch überhaupt nicht getestet. Ich kann mir nur vorstellen das dort CPUs mit mehr CPU Kernen die Zukunft sind und der 9900KS hat nun mal NUR 8 CPU Kerne. Das ist leider alter Scheiß von gestern. Wer in die Zukunft investieren will kauf ein 3900x. Außerdem zock doch auch keiner in Full HD. Die Leute die 600€ für eien CPU ausgeben kaufen dann auch eine 2080TI und ein 4k Monitor. Die Leute die in Full HD zocken kaufen einen 3600X und eine 2070TI oder noch kleiner und dann limitiert meistens die GPU
 
@Jim Panze
Das was du von dir gibst ist nicht nur reinster Müll, sondern hat nichtmal ansatzweise etwas mit Argumentation zu tun

Nur Fanboy-getrolle
 
  • Gefällt mir
Reaktionen: LukS, Steini1990, Kuba und 3 andere
xexex schrieb:
Das schlimme daran ist, wenn CB wirklich mit "SVID Behavior" auf "Auto" die ganzen vergangenen Tests gemacht hat, dann sind fast alle Verbrauchswerte für die Tonne. Das ist der gleiche Mist wie "Multicore Enhancements", bei dem die CPU auch standardmäßig bis zur Kotzgrenze übertaktet wurde.

Sorry, aber wie sollte man sonst testen, wenn nicht "Auto".
Wieviele aus der breiten Masse nutzen diese, oder sollte man "Golden Samples" hernehmen?
Für die Masse passt es schon - für die, die selbst gerne Hand anlegen allerdings nicht so.

Das einzige, was man mit einfügen könnte, wäre OC/UV als seperaten Test - auch mit "SVID Behavior" etc..
 
  • Gefällt mir
Reaktionen: yummycandy
und nach erscheinen der neuen HEDT Serie senkt Intel die Preise der Mainstream CPU's !?

Der KS sieht für mich vielmehr der Grund aus die alten Preise (die aktuell sogar steigen) zu rechtfertigen.
 
Iwie ist die Cpu überflüssig , aber sie wird ganz sicher Käufer finden.
Steht das KS nun für "kann schneller" oder "Kernschmelze"?
@ Jim P....
Neulich hast du noch die Roten gedizzt , dann die Blauen und jetzt wieder die Roten :confused_alt:
Bist wohl noch in der Findungphase (Pubertät? Langeweile? beides?).
 
@tunichgut

kaum schneller :D

Aber davon ab: reizt mich die CPU - hätte gerne eine die meine 32GB mit 4.133 Mhz 17-17-37 schafft,
das wärs mir wert (mein K schafft immerhin 3900Mhz)

Aber ich hab meist eh immer Pech in der Siliziumlotterie...
 
  • Gefällt mir
Reaktionen: tunichgut
Im Gaming Westen nix Neues. Intel legt vor und AMD hechelt hinterher, kommt aber nie wirklich dran an eine uralte Architektur. Schade. Dafür nimmt Intel die Brechstange. Für Zen 3 erhoffe ich auf mindestens 15% mehr Leistung, sonst können sie den behalten.

@CB
Entweder ich teste CPUs in Alltagssetting (1080p) oder so, wie man CPUs eigentlich testet (720p) Wenn ich mich schon für ersteres entscheide, dann nehme ich auch Alltagsspeicher, so kann ich nämlich aus den Benchmarks nicht viel mitnehmen und bin auf andere Seiten angewiesen. Ebenfalls schade.
 
Eno77 schrieb:
Oh Du hast Recht, den Professionellen Bereich mit begrenzter Auflösung usw. habe ich tatsächlich nicht im Auge gehabt.
Bringt es denn bei den betreffenden Spielen noch etwas, wenn die fps bspw. von 240 auf 270 steigen? (Sehen kann man das eh nichtmehr, aber ggf. einen Vorteil bei den Reaktionszeiten? Da kommts dann wahrschl. auch zusätzlich auf Input Lag und "Screen Darstellungs" Lag an denke ich.
Aber ja - in dem Bereich gibt es solche Szenarien dann wohl und spielen eine Rolle.

ja gerade da hat es einen enormen Impact. CS:GO fühlt sich mit 300+ FPS ganz anders an als mit 144. Es wirkt unrunder, das Input Lag ist größer, die 1000 hz Mäuse brauchen halt auch hohe FPS um sauber auf dem Bildschirm "rüber zu kommen". Man merkt den Unterschied auch auf 144 hz Bildschirmen deutlich ob da 144 oder 300 FPS rüber kommen. PUBG das gleiche. Man gewöhnt sich ja in der Regel an das Mausgefühl mit hohen FPS, sobald die FPS droppen merkt man einen starken Unterschied.

PUBG ist bei mir das beste Beispiel, in der Regel macht meine CPU noch 150-200 FPS mit, aber sobald zu viel Action ist, ist die CPU im Limit und ich Dümpel bei 70 FPS rum. Für mich ist das unspielbar, ich bin es ja gewohnt (auch von cs:go) mit einem absolut sauberen Bild flüssig zu aimen, gerade schnellere Aimbewegungen werden unsauber, bzw. das Gehirn reagiert anders, weil der Input vom Bildschirm anders rüber kommt. Verarbeite ich die Information "mausbewegung mit crosshair" stimmt mit meiner Arm/Handbewegung überein treffe ich. Jetzt ruckelt es aber dank 70 FPS und schon versucht man die fehlerhafte Information (bedingt durch das Ruckeln) zu korrigieren, als ob man sonst bei hohen FPS veraimed und zieht es in Millisekunden intuitiv noch gerade. Und jetzt versau ich mir die Aimbewegung weil ich idr. richtig aime, durch das geruckel mit low fps und den fehlerhaften Input dann die "korrekte" Aimbewegung "korrigiere" und die Korrektur somit falsch ist.

Ich betrachte das ganze relativ nüchtern und rational, ich hab mittlerweile genug Abstand und Erfahrung um zu schauen wieso ich schlecht aime. Wenn ich wegen meiner Unfähigkeit schlecht aime, dann weiss ich das zu differenzieren. Ich habe in den letzten 20 Jahren ziemlich viel in mein RAW (CS) Aiming investiert, auch wenn ich CS:GO nie professionell gespielt habe, mehr JFF (allerdings auch mit und gegen genug eps spielern). Ich habs mit Ende 20/Anfang 30 auch nochmal geschafft mein Aiming zumindest auf Profilevel zu pushen, einfach durch hartes Aimtraining. Wobei ich die Zeit nicht mehr gefunden habe, es dort über mehr als 3-4 Monate zu halten, weil man in dem Alter einfach mehr Zeit fürs Aiming investieren muss, als ein Anfang oder Mitte 20 Jähriger.

Man muss aber fairerweise dazu sagen, dass man erstmal auf hohem Aimlevel spielen muss, um da Nuancen zwischen 200 und 300 FPS zu merken. Aber je konstanter man dort spielt, desto eher fällt das ins Gewicht. Ich sag mal die oberen 3000 in Deutschland merken das. Und die tausenden Nachwuchsspieler legen halt auch genau darauf gewicht, man versucht ja die letzten paar % Punkte aus sich raus zu holen. Und nimmt man gleichstarke Spieler, kann der eine mit 50 FPS dank seines besseren PCs mehr bis zu einem gewissen Bereich einfach konstanter spielen. Und das kann letzten Endes den Unterschied ausmachen ob man von nem guten Team gepickt wird und ggf. Geld mit dem Spiel verdient oder nicht. Daher ist es auch für Semi Professionelle Spieler oder welchen die dort hin wollen zu empfehlen, den Hardwarenachteil komplett auszumerzen, man bekommt nicht viele Chancen in die Profiszene rein zu rutschen.
 
  • Gefällt mir
Reaktionen: t3chn0 und Prophetic
Also wenn ich jetzt mit dem 3700x vergleiche: +200 € CPU. +150 € für ein taugliches Board ( bezogen auf solide B450 Lösung ) +100€ Kühllösung. Ein Gehäuse wo ich die Kühllösung auch verbauen kann + passendes Netzteil. 500,- Euronen für jenseits Full HD keine reale Mehrleistung. Sinnbefreiter Blödsinn in meinen Augen.
 
  • Gefällt mir
Reaktionen: Benji21
Heschel schrieb:
Sorry, aber wie sollte man sonst testen, wenn nicht "Auto".

auf dem „Bios“ Screenshot ist zu erkennen das vermutlich ein „Enthusiasten“ Board eingesetzt wird (ROG Serie? - falls ich mich täusche Schande über mein Haupt) und das setzt voraus das man sich dann mit dem UEFI auskennt.. dort sind mehr oder weniger im Automodus stark überzogene Voreinstellungen gesetzt die den Verbrauch und die Temp. unnötig in die Höhe treiben und absolut absurde Werte liefern (jenseits der CPU Hersteller Specs)– diese Boards sind nicht dafür gedacht in diesem Modus zu laufen und setzten erfahrene User voraus.

- So einen "Test" durchzuführen ist ohne Worte.. bei 99°C unter Last sollte man dann mal aufwachen und nochmal darüber nachdenken.. ^^ aber jaa.. :freak:
 
Zuletzt bearbeitet von einem Moderator:
Der Paule schrieb:
Entweder ich teste CPUs in Alltagssetting (1080p) oder so, wie man CPUs eigentlich testet (720p) Wenn ich mich schon für ersteres entscheide, dann nehme ich auch Alltagsspeicher, so kann ich nämlich aus den Benchmarks nicht viel mitnehmen und bin auf andere Seiten angewiesen. Ebenfalls schade.

Was bitteschön sind "Alltagsspeicher"?

3000 mhz CL16? 3200 CL14/16? 3600 CL16? SR/DR? Hynix/Samsung-Die?
Ram-OC? Nicht alle Ram haben die gleichen Vorraussetzungen. Einer schafft es, der andere nicht. Was mit Riegel 1 funktioniert, muss nicht zwangsläufig mit Riegel 2 funktionieren.

Es wird nach Spezifikation (meißt) getestet. Alles drüber ist OC - kann gut und besser funktionieren, muss es aber nicht.
 
[QU
Taxxor schrieb:
Eher was dann, Intel? Denn die 5Ghz sehe ich in 10nm in den nächsten 2-3 Jahren nicht.
Könnte Intel 5 GHz in 10nm hätten wir schon lange die Desktop CPUs.
Sie können halt aus (selbstgemachten) Marketinggründen keine 10nm CPU mit 4,3-4,5 GHz mit gleicher Leistung und weniger Verbrauch als die jetzigen bringen. Und ich konnte mir schon vorstellen, dass für Intel diese CPU momentan machbar wäre. Aber nicht "Verkaufbar".
Also heißt es noch laaaange warten, für 2021 sehe ich auch nix kommen. So ein 10 Kerner in 14+++ zählt da nicht. War ja auch nur ein Notnagel.
 
Zurück
Oben