Test Intel Core i9-9900KS im Test: Intel stößt sich selbst vom Thron

Jim Panze schrieb:
Was soll das blöde Gör den tun, Intel die Leviten lesen oder was??
Hier wird wieder mit Biegen und Brechen versucht Gutes schlecht zu reden. /:

Intel, da weiß man, was man hat!
Shame on you Intel, Shame on you!
Du hast mir meine Kindheit gestohlen, dank deinem 386er hab ich damals viel zu viel Zeit verzockt.
 
SirSilent schrieb:
Shame on you Intel, Shame on you!
Du hast mir meine Kindheit gestohlen, dank deinem 386er hab ich damals viel zu viel Zeit verzockt.
Das stimmt nicht, daran war ganz allein Commodore schuld.:daumen:
 
  • Gefällt mir
Reaktionen: GINAC, TheDr, McTheRipper und 2 andere
Intel macht sich lächerlich ; ) sollen mal kleiner bauen.
 
  • Gefällt mir
Reaktionen: TheDr und asgaard
Und in 10-15 Jahren sind wir froh, wenn Intel etwas gegen den Marktführer AMD bringen kann :)
 
  • Gefällt mir
Reaktionen: Sennox
Bei Intel bekommst man wenigstens was fürs Geld, so eine dicke und stabile Struktur bekommt man nirgendwo sonst.
Das ist noch Qualität, fetter geht's nicht für das Geld!
 
Soso, Qualität also.. Meine AMD prozzis muss ich immernoch per Hand ankurbeln :rolleyes:
Was eine Aussage.. Wow :D
 
  • Gefällt mir
Reaktionen: g0dy, Sennox und DonL_
ist doch völlig egal, Intel ist quasi eh veraltet und völlig unattraktiv. gebrauchte Chips im low-budget gaming wie meine sanydbridge, ja. Aber Neukauf von stärkeren CPUs gibt es keine auf Vernunft basierende Alternative zu AMD. Können sie ihren xyz-Lake binnen zum 20sten mal.
 
  • Gefällt mir
Reaktionen: JohnVescoya
Esenel schrieb:
Getestet wurde hier mit 2666 CL14 und mit 3200 CL14.
Und das ist ja der Punkt.
Entweder komplett nach Spec, oder beides mit dem gleichen RAM.
Was dann aber (mal wieder...) zwangsläufig zum Nachteil von AMD wäre weil entweder dessen Speicher deutlich ausgebremst wird oder der vom Intel Chip deutlich übertaktet wird. Da gefällt mir der Mittelweg hier deutlich besser. Beide laufen mit ihrem vollen Speichertakt und lediglich die Timings fallen besser aus.
 
BxBender schrieb:
Schade, Computerbase hat immer noch nicht dazu gelernt.
Wer eine CPU nicht in 720p und deaktivierten Grafikkartenlastszenarien testet, der testet einzig und alleine die Leistung der Grafikkarte, oder halt deren Einfluss auf das Gesamtsystem.
Jain. ;)

Natürlich ist das der beste Weg, um möglichst deutlich die CPU Leistung in Spielen hervorzuheben....

Für die, die nicht mit der "720p-Methode" vertraut sind:
Um Einflüsse der Grafikkarte möglichst gering zu halten, verwendet man in der Theorie die schnellste Grafikkarte, in einer geringen Auflösung wie 720p und am besten noch ohne reine GPU Settings wie AA.

Am besten sucht man sich auch noch Spiele raus, die möglichst stark durch die CPU limitiert sind.....dabei gerne Bereiche mit möglichst vielen FPS, da sich hier besonders deutlich Unterschiede zeigen.

Ergänzend dazu macht man Grafikkartentests mit der schnellsten CPU, viel und schnellem Ram....in mehreren Auflösungen bei maximalen Details.....

...und hier natürlich da wo die CPUs wenig Einfluss haben....für RPGs z.B. im Wald mit viel Vegetation oder viel Weitsicht....vielen Effekten....eben da wo die FPS wegen hoher GPU Belastung möglichst gering sind.

Dann kann eine Seite wie CB theoretisch perfekt helfen bei der Auswahl der passenden CPU und passenden GPU für Selbstbauer.... Welche Spiele spiele ich und welche CPU/GPU brauche ich, um hier meinen Ansprüchen zu genügen?

Will ich z.B 100FPS in Spiel X und die CPU A kann 110.....und die GPU A die ich eigentlich wollte, kann in meiner Auflösung sogar 180 FPS...dann kann ich bei der GPU sparen....oder sonstwie mein System auf meine Anforderungen optimieren.
....theoretisch klingt das erstmal perfekt. ;)

In der Praxis ist das nicht so einfach umzusetzen wie es klingt..... und die Meinungen zu dieser Methode sind auch nicht so gleichgeschaltet wie man annehmen würde.

Ich bin schon lange ein ziemlicher Kritiker der Benchmarks von CB, aber sie haben sich in den letzten zwei Jahren deutlich weiterentwickelt! :daumen:
....ich stimme nicht mit allen Entscheidungen überein und vor allem würde ich mir mehr Transparenz zu den CPU Benchmarks wünschen.... für die GPU Benchmarks gibt es ja jetzt wieder eine Vorstellung der Szenen.... für CPUs fehlt diese meines Wissens....wenn ich da was übersehe, bitte ich das zu entschuldigen!
CB hat sich jedoch für bestimmte Regeln entschieden und versucht diesen zu folgen.....das akzeptiere ich als eine Herangehensweise....im Netz findet man ja noch mehr Herangehensweisen und es wäre kontraproduktiv, wenn alle das Gleiche machen würden.


An der 720p Methode kann man kritisieren, dass sie eben nicht so allgemeingültig auf jede Hardwarekombo übertragen werden kann, wie sie den Anschein macht......dass sie Unterschiede zeigt, die dann bei den Käufern zuhause so gar nicht auftreten....
...Und natürlich gibt es das immer vorhandene Problem, dass ganz viele Leser dieser Tests gar nicht die Einzelergebnisse angucken...gar nicht verstehen, dass sie sich zu den Spielen auch die Limitierungen ihrer eigenen Grafikkarte angucken sollten.....und dann nur auf Basis des Durchschnitts eine viel zu teure CPU kaufen, obwohl sie nachher deren Vorteile gar nicht ausnutzen.

Die Realität im Spielebetrieb ist leider sehr komplex!
GPU und CPU Limits sind nicht so einfach zu trennen....Oft ist es doch eine Mischung, bei der die FPS zwar im Durchschnitt stark von der GPU gegeben sind....die CPU aber ganz leicht dieses "GPU_Limit" nach oben und unten schiebt....oder durch einzelne Frametimepeaks die Frametimes versaut...aber sind es zu wenige, tauchen diese in den Percentile Werten gar nicht auf....ein Peak mehr oder weniger kann gefühlt egal sein, die Percentile Werte aber komplett umkrempeln. :(
Zu hohe FPS können in manchen Spielen "Schluckauf machen...GTA V fällt mir da ein....mehr FPS aber schlechteres Spielerlebnis.
Die gewählte Szene ist extrem wichtig....wird die CPU Last vor allem durch relativ gut zu "multithreadende" Spielabläufe beeinflusst, oder ist es eine limitierung des Render Threads durch viele Drawcalls?
Einmal mag eine CPU mit vielen Threads ihre Stärke zeigen und einmal vor allem die CPU mit dem höheren Takt*IPC*Ramspeed.

Und von der Grafikkartenarchtiektur hängt es auch ab!
Bei Vega gegen Maxwell war in den vielen DX11 Spielen die AMD Karten deutlich eher im CPU Limit...das hat nicht nur Einfluss auf GPU Tests, sondern auch auf CPU Tests!
Mit Navi hat AMD die Situation verbessert und die neuen Spiele sind auch öfter mit brauchbarem DX12 oder gar Vulkan ausgestattet....und Touring hat sich ja auch von DX11 hin zu DX12 orientiert.
So allgemeingültig sind die CPU Tests mit einer bestimmten Grafikkarte also gar nicht....

Und die menschliche Wahrnehmung ist für die Zahlen der Benchmarks egal, für Leute die die Daten differenziert betrachten aber nicht!

Ich bin kein Shooter-King....ich mag zwar eine gute Maus und ein flüssige Darstellung ohne trägen input lag....ich fühle aber nicht den Unterschied von 300 zu 500 FPS.....ich will nicht ausschließen, dass andere das fühlen könnten...
..ich selbst konzentriere mich auf das was ich fühle....und da fühle ich bei den avg FPS so +-15% unter 50 avg FPS recht deutlich....unter 15 FPS ist es mir ziemlich egal, weil eh alles ruckelt.....und bis 70-90 FPS rauf spüre ich oft noch Unterschiede im Input lag....daher strebe ich auch 70-90 FPS in Spielen aus der Ego-Perspektive oder mit Verfolgerkamera an....das ist jedoch von Spiel zu Spiel etwas anders.
Strategiespiele dürfen auch weniger haben.
Leider sind oft die Frametimes nicht so konstant, dass man sie ignorieren kann....
Ruckler und FPS Einbrüche, zeigen sich oft gar nicht in den avg FPS....teils nichtmal in den Percentile Werten....da müsste man genauer hingucken als 99% der reviews es machen.

Aber was ich sagen möchte, ist dass es mir egal ist ob ich 100 oder 120FPS in Game X habe...20% schneller klingt wichtig, aber wenn ich es gar nicht bemerke muss es aus meiner Sicht auch nicht getestet werden.

Ob ein Spiel 40 oder 48 FPS hat, ist mir hingegen wichtig....den Unterschied kann ich spüren....der würde meine Kaufentscheidung beeinflussen.

Für meine eigenen Benchmarks habe ich ja vor allem Ramgeschwindigkeiten getestet....das war zwar sehr aufschlussreich, aber da bin ich immer mehr zu dem Schluss gekommen, dass es in vielen Spielen eben nicht so wichtig ist.....und ich teste inzwischen mit 1440p und bei Settings, die ich auch fürs Spielen verwende...also durchaus im GPU Limit bei z.B. grob 90 FPS.

Die Unterschiede suche ich dann gezielt in Szenen die besondere worst case Bereiche für die FPS und Frametimes darstellen.....late game szenen in Strategiespielen...durchqueren von Innenstädten mit vielen NPCs und Streaming in RPGs.....Kampfszenen mit möglichst vielen Spielern in Multiplayerspielen....
Leider ist das dann nur sehr schwer reproduzierbar zu messen.....ich musste immer mehr Aufwand betreiben und immer genauer Arbeiten...viel öfter messen....
Erst dann kann man die Frametimes zuverlässig messen und kann sagen, was der schnellere Ram für einen Unterschied gemacht hat.....und leider muss ich da oft sagen, dass es zwar prozentual deutlich ist, aber nicht in einem spürbaren Bereich....

CB kann das so gar nicht leisten weil sie die Tests zum NDA Datum fertig haben müssen....sie könnten sich sicherlich noch verbessern, aber trotzdem ist für sie eine einfache Reproduzierbarkeit von höherer Priorität.

Und sie müssen versuchen ohne eigenen Bias die Hardware zu testen!
Und da haben sie sich für bestimmte Herangehensweien entschieden, die ich nicht immer selbst so gewählt habe, deren Beweggründe ich jedoch verstehen kann.

CB testet eher in 1080p...und UHD wobei das irgendwie witzlos ist....UHD zeigt kaum nennenswerte Unterschiede, was tendenziell schlechteren CPUs entgegen kommt.
Wobei die Intel CPUs mit ihren etwas geringeren Latenzen trotzdem leichte Vorteile haben.
720p würde Intel noch stärker bevorzugen und für viele Leser eine unrealistische Auflösung darstellen.
1080p ist da aus meiner Sicht ein gute Mittelweg.....wenn es mit einer 2080 TI in 1080p noch nicht deutlich ist, ist es nicht relevant!

Den Ram nach spezifizierter Frequenz zu betreiben ist aus einer Sicht irgendwie richtig....aber aus Sicht vieler Selbstbauer irrelevant...da wird man aber nie auf einen Nenner kommen.....ich habe hier im Forum auch Leute erlebt, die zwanghaft JEDEC Ram mit 3200MHz wollten....auch wenn sich niemand der selbst baut, Ram mit so schlechten Timings zu so hohen Preisen antun sollte.....hat sich bei anderen dann auch als nicht nutzbar erwiesen, weil die 3200MHz mit 1,2V gar nicht ins Bios gekommen sind. ;)
Die Timings sind auch so eine Sache!
Sollte man die grauenhaften JEDEC Timings nehmen, von Ram der nichtmal ins Bios kommt, nur weil es dann irgendeinem Standard entspricht, den nur OEM Systeme interessieren sollte?
Aus meiner Sicht nein....aber dann braucht man auch nicht auf die Frequenz achten und könnte einfach den geichen Ram nutzen.....Intels H Chipsätze, lassen aber nichts über 2666 zu......bei AMD geht auch auf den güstigen B450 Boards mehr.....aber auf Intels Z Chipsätzen geht dann auch mehr als 3600MHz, wo bei AMD der IF nicht mehr synchron läuft.....auf was einigt man sich dann? 2666 als kleinsten Nenner?...maximale Übertaktung, die dann Unterschiedlich ausfällt....oder 3200 der Mittelweg?
Man könnte dann auch anfangen ob die Timings manuell angeglichen sein sollten oder automatisch gewählt.
....leider wissen wir einfach nichts über die Ramtimings....CB schweigt sich da ja aus, weshalb ich einfach mal von automatischen Timings ausgehe....da würde ich mir mehr Transparenz wünschen....Bandbreiten und Latenzen von Aida64 oder so...naja.

Die Spiele sind relativ bunt gewürfelt, aber nicht unbedingt nach CPU und GPU intensiv ausgesucht.
Immerhin verwendet CB inzwischen wohl oft andere Testszenen für CPU und GPU Tests, wo früher oft die GPU Szenen auch bei CPUs angewendet wurden.
Soweit ich weiß wird auch nicht aktiv nach CPU und GPU limits gesucht....ist alles etwas undurchsichtig. ;)

Also ich sehe viele Punkte, über die man mal diskutieren könnte....
...aber es gibt zu allen Bereichen Vor- und Nachteile....der eine will es möglichst steril nach maximalen Unterschieden.....der nächste möglichst realitätsnah....und jeder versteht dabei was anderes....und ich hätte es gerne genauer auf Frametimeprobleme bezogen....

Ich glaube CB kann es nie allen recht machen. ;)
ZeroZerp schrieb:
Den Test sollten sich eh mal einige genauer ansehen:
So automatisierte Benchmarks sehe ich immer etwas kritisch....da verliert man den Überblick, was überhaupt getestet wurde....und wie....und der Verbrauch der gemessen wurde passt so gar nicht zum Verbrauch, den andere messen.

Auch wenn der KS Sicherheutslücken per Hardware geschlossen haben sollte, sollte das für den K in neuem Stepping genauso gelten...ist ja die gleiche CPU nur besser gebinnt.

Also irgendwie bleibt der Test aus meiner Sicht sehr fragwürdig....ich habe jetzt schon mehrere Testberichte gelesen und kein anderer findet diese Ergebnisse.
 
  • Gefällt mir
Reaktionen: Drölfzehn, McTheRipper, Heschel und eine weitere Person
@Baal Netbeck der längste Kommentar den ich jemals gesehen habe :D

Aber ich muss dir zustimmen. Diese ewige Diskussion führt zu nichts, da man einen Tod immer sterben muss.

Die Anwendungen und Lasten sind zu komplex als das man sie für alle ausbalanciert gewichtet testen kann. Da finde ich schon dass es naheliegend ist alles wie vom hersteller zu lassen und die gpu in einem realistischen low load Szenario einzubringen und ihren Einfluss möglichst irrelevant zu machen, was durch die stärkste Karte am Markt erreicht wird.

Von daher alles gut. Die Freiheit des Selbstbauers ist es ja sein System an dessen Wünsche anpassen zu können.

Und das ist etwas sehr gutes. Egal ob Intel oder AMD.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Wadenbeisser schrieb:
Beide laufen mit ihrem vollen Speichertakt und lediglich die Timings fallen besser aus.

Nein!

Beide laufen mit ihrer spezifizierten Speicherbandbreite jedoch von den Timings her gesehen zugunsten von AMD. Das dir das "gefällt" mag ja sein, nur ist damit keine Vergleichbarkeit gegeben.

Kein Mensch würde sich einen DDR4-2666 OC Speicher mit CL14 kaufen, denn wenn man schon OC macht, dann auch gleich richtig. Bei AMD ist DDR-3200CL14 hingegen ein auf Timings optimierter Speicher, der ebenfalls nichts mit einer offiziellen JEDEC Spezifikation am Hut hat und vergleichsweise teuer in der Anschaffung ist.

Die Speichertimings die CB verwendet sind weder Fisch noch Fleisch und benachteiligen von den Zugriffszeiten alle Systeme, die mit weniger als 1600Mhz auf den Speicher zugreifen.
1572484561707.png


DDR4-2400CL14 = 11,6ns
DDR4-3200CL14 = 8,75ns

Bei normal erhältlichen Speichermodulen bleibt die Latenz mit höheren Taktraten nahezu konstant, nur die Bandbreite steigt. Genau das hebelt CB aber komplett aus und macht aus einem geringen Unterschied durch Speicherbandbreite, einen höheren durch Bandbreite + Zugriffszeit.
1572485121721.png

1572485225016.png


Das Ergebnis wird unnötig verfälscht und ist so nicht aussagekräftig, gerade wenn es dann um wenige Prozentpunkte geht, ist sowas doch total hirnrissig. Dann brauche ich keine Tests, sondern kann die Leistung auch einfach schätzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Eno77
Für Spiele einer der besten Prozessoren. Es zeigt mal wieder das die Anzahl der Kerne nicht endlos Vorteile bringen wird. Gerade bei Anno 1800, F1 und Kingdom Come was viel berechnet an Physik und Simulation schlägt das Leistungspotential voll zu.

Der Preis ist natürlich ein Hinderungsgrund aber auch der einzige. Für Nutzer älterer CPUs im Bereich über 4 GHz lohnt ein Upgrade viel zu selten, ich hoffe das Intel die Fertigung mal in den Griff bekommt und ein leichtes Upgrade in Form von 10-12 Kernen dafür aber 5 oder 5,2 GHz bringen kann im neuen Fertigungsverfahren. Alles darunter ist leider nicht wirklich sinnvoll im Praxiseinsatz eines Gamers. Übrigens profitieren davon ja auch die alten Spiele wie Fussball Manager, die immer noch ewige Rechenzeiten haben bei voller Datenbank.
 
xexex schrieb:
Beide laufen mit ihrer spezifizierten Speicherbandbreite jedoch von den Timings her gesehen zugunsten von AMD. Das dir das "gefällt" mag ja sein, nur ist damit keine Vergleichbarkeit gegeben.

Im Gegensatz zu AMD hat Intel aber den empfohlenen Speichertakt nicht angehoben obwohl sie oft genug die Gelegenheit dazu hatten. Das zeigt mir das sie das nicht für notwendig halten weil sie wohl der Ansicht sind das
2666MHz RAM Takt für ihre CPU´s das Optimum sind.

Ob einem das jetzt gefällt oder nicht - CB testet da schon fair.
Man könnte allerdings die Timings der langsameren Taktraten nach unten korrigieren, da bin ich bei Dir.
 
captain kirk schrieb:
Nette CPU so out of the Box ich bin begeistert

Und ebenso der IMC 4600 Mhz Ram Takt na dann...

Anhang anzeigen 836449

erste sahne, batch?

130w laut coretemp nach 10 minuten prime? das kommt nicht hin

...lass mal hwinfo laufen statt coretemp.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PhoenixMDA
Nur ein Jahr Garantie seitens Intel? Also weiß Intel, das die CPU jenseits jeglichen vernünftigen Rahmens betrieben wird. Was soll an diesem Produkt gut sein🤷‍♂️
 
  • Gefällt mir
Reaktionen: iron_monkey, PS828, TheDr und eine weitere Person
cookie_dent schrieb:
Im Gegensatz zu AMD hat Intel aber den empfohlenen Speichertakt nicht angehoben

Falls du es nicht verstanden haben solltest, um den Speichertakt geht es nicht, sondern um die Latenzen die durch CB verfälscht werden. Die Latenzen ändern sich mit dem Takt normalerweise nicht, nur der Durchsatz wird erhöht.

CB macht hier sogar einen doppelten Fehler. Dadurch das man statt DDR4-2666CL19 einen Speicher mit CL14 verwendet verpufft ein Teil der Optimierungen die der Speicherlatenz entgegen wirken sollen. Cachegrösse und Verbesserung der Sprungvorhersage, wirkt sich so weniger auf das Ergebnis aus. Umgekehrt treten aber die Nachteile durch die Mitigationen der Sicherheitslücken ebenfalls weniger stark aus, weil bei diesen häufig eben der Cache geleert wird.

So sind die Ergebnisse schlichtweg mit Vorsicht zu genießen und das man die Temps völlig vergessen kann, weil das Board im Test mit OV gearbeitet hat, kommt letztlich nur noch oben drauf. Wenn man schon vorgibt die CPU auch so zu testen wie Intel es vorgesehen hat, dann hätte man auf diesen Punkt auch achten sollen.

So testet man mit Speicher der angeblich der Herstellerspezifikation entspricht, es aber nicht tut und mit Power Limits die dem eines OEM PCs entsprechen sollen, aber bolzt um die 0,15v zu viel drauf. So wird weder ein OEM noch ein Selbstbau-PC jemals aussehen und so sind die Werte auch kaum mit anderen Quellen vergleichbar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cookie_dent
Alphanerd schrieb:
98% aller verkauften 9900k werden so gefahren. Die stecken nämlich in OEM PCs.

Also bei den OEM-PCs für Unternehmenskunden werden idR die Versionen ohne K konfiguriert.

Der KS unterstützt ja nicht mal vPro und TXT, der wird in dem Bereich nicht eingesetzt werden.

OEM für den Endkundenmarkt ist natürlich etwas anderes.
 
yummycandy schrieb:
"This ultra-rare thing isn’t sold to consumers – Intel only sells it to select partners, and even then it is only sold via an auction, once per quarter, with no warranty from Intel. "

Die CPU gibt es allerdings bei Caseking zu kaufen. Derzeit immerhin um 37% reduziert.
 
ohne Kommentar:

1572501191749.png
 
  • Gefällt mir
Reaktionen: McTheRipper
Zurück
Oben