Test Core i9-9900K & i7-9700K im Test: Sehr schnell. Sehr durstig. Extrem teuer.

Status
Für weitere Antworten geschlossen.
DarkStarXxX schrieb:
Oh mann.,

Nächstes Jahr gibt's die 3000er Serie.

Muss man zu alles seinen Senf abgeben`?
Falsche Aussagen sollte man schon korrigieren dürfen.

Und selbst wenn du Zen3 gemeint hast, der kommt in ca 1,5-2 Jahren. "Ein paar Jahre" klingt für mich nach mindestens 3-4
 
  • Gefällt mir
Reaktionen: Luzifer71
Taxxor schrieb:
Falsche Aussagen sollte man schon korrigieren dürfen.

Und selbst wenn du Zen3 gemeint hast, der kommt in ca 1,5-2 Jahren. "Ein paar Jahre" klingt für mich nach mindestens 3-4
Der wird auch frühestens in drei Jahren kommen. In einem Jahr kommt gerade erst mal Zen 2, falls alles nach Plan läuft wovon ich nicht ausgehen werde.
 
Das ist einfach Massiv was intel hier abliefert..... :D Ich für meinen Teil warte auch auf Zen2. Mal gucken was die zeit so mit sich bringt. Wenn ein Komplett system zum gaming wieder bazahlbar wird und auch 4K größtenteils fächendeckend packt wird das ganze interessant. Auf Gsync kann ich als extra verzichten, solange son aufpreis dafür verlangt wird. Hab ja noch zeit und die Spiele dich ich aktuell zocke, packt die 1070 auch so auf 4k :)
 
Matisse ist für 2019 gesetzt (1 Jahr) und Vermeer für 2020 (2 Jahre), wobei letzterer bereits auf der Zen 3 Architektur aufbauen dürfte.
AMD liegt nach eigenen Aussagen auch im Zeitplan.
 
Hallo @ all,

also das kommt dabei raus wenn Intel plötzlich einen auf AMD macht. Da kommen Erinnerungen auf an einen Pentium-P4. Ein 9900K war von Intel mit Sicherheit so nicht von Intel geplant gewesen, sondern erst als 10nm Chip geplant. Also kam der 8-Kerner schon mit 14nm. Daran ist nur AMD schuld. :evillol: Sie wollten sich einfach nicht mit der Rolle des ewigen Verlierers zufrieden geben, und brachten Ryzen. Und jetzt rennt Intel wie ein kopfloses Huhn umher, und macht einen Fehler nach dem anderen.

Jahrelang machte Intel aus ihrer Sicht alles richtig. Es gab zwar keinen großen Leistungssprünge, aber die CPUs wurde immer effektiver und begnügten sich mit immer weniger Leistung. Sie wurden auch nicht wie so ein 9900K als Heizkraftwerk betrieben, sondern weit unter ihren Möglichkeiten. Also weit unterhalb der mit OC maximal möglichen Taktrate. Das erst ermöglichte eine sehr hohe Chip-Ausbeute und hohe Gewinnmargen.

Ein Chip wie ein 9900K ist gegen jegliche Vernunft. Was bringt es die schnellste CPU zu haben, wenn der Verbrauch deutlich höher ist als bei einem 7820x? Der kann wenigstens auf ein Quad-Channel-RAM-Interface zurückgreifen.

So etwas ist normalerweise immer die Herangehensweise von AMD gewesen. Sowohl bei CPUs wie GPUs versuchten sie immer wieder technologischen Rückschritt mit Taktraten auszugleichen, die näher am Limit sind, und dabei höheren Strombedarf und daraus resultierend höhere Temperaturen billigend in Kauf nehmend. Wenn Intel nun diesen Weg einschlägt, dann schädigen sie nur ihren guten Ruf damit. Leistung losgelöst von jeglicher Vernunft ist nicht alles. Zumindest für den ernsthaften Anwender der sich nicht von Gamer-Marketing und FPS-Scheuklappendenken blenden lässt.

Dabei wäre es ein leichtes für Intel den richtigen Weg einzuschlagen. Anstatt mehr Kerne in die CPU einzubauen, hätte man lieber einen neuen Chipsatz rausbringen sollen, der sein Geld wert wäre, und endlich der Mainstream-Plattform ein paar PCIe-Lanes mehr spendieren sollen. Statt dessen kriegt man was? WLAN für einen High-End Mainstream Desktop PC, ja sicher.

PS:
Ich für meinen Teil warte lieber auf einen 9820X, wenn der nicht mit ähnlichen enormen Aufschlägen behaftet wird und unter 1000€ zu haben sein wird, dann wird das die bessere Wahl. Denn Gott sei Dank hat Intel eingesehen daß sie mit X299 / Skylake-X alles falsch gemacht haben was man falsch machen kann, und sehr viele potentielle HEDT Nutzer mit ihrer Zahnpasta und den Einschränkungen in PCIe-Lanes/RAID usw verprellt haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: darkcrawler
Nun labern kann man viel. Intel behauptet nun ja auch zum 5? mal dass sie mit 10nm im Plan liegen. Fakt ist aber dass von Zen2 bzw. Rome bereits seit geraumer Zeit Samples bei den Partner liegen und getestet werden. Das spricht nicht dafür, dass es zu zeitlichen Verzögerungen kommt. NAja evtl weiß man am Mittwoch mehr, da wird AMD neue Zahlen präsentieren und evtl. auch etwas zu Zen 2 sagen.
 
Ich find es toll, dass Computerbase pünktlich zum Intel Mainstream 8 Kerner-Start a) alle nicht perfekt parallelisierten Anwedungen über Bord geworfen hat und nun b) auch wieder das Gesamtanwendungsrating zurück ist. Für ein rundes Bild sind die großen Threadripper auch sicherheitshalber ausgeblendet.
 
  • Gefällt mir
Reaktionen: RAZORLIGHT, Yar, Cronos83 und 6 andere
BlackWidowmaker schrieb:
also das kommt dabei raus wenn Intel plötzlich einen auf AMD macht. Da kommen Erinnerungen auf an einen Pentium-P4. Ein 9900K war von Intel mit Sicherheit so nicht von Intel geplant gewesen, sondern erst als 10nm Chip geplant. Also kam der 8-Kerner schon mit 14nm. Daran ist nur AMD schuld.

Ich sehe da weniger die Schuld bei AMD als vielmehr die Problematik der (von Dir erwähnten) 10nm Fertigung, die Intel seit Jahren einfach nicht auf die Reihe bekommt. Erst wenn das läuft, wird sich bei der Effizienz wieder was tun.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Wie hoch ist eigentlich der Default AVX Offset? Oder werden die 4.7 GHz dort auch gehalten?
 
Sorigir schrieb:
Ich weiß gar nicht was an dem Stromverbrauch so schlimm sein soll? Im Vergleich mit dem 2700X bekommt man durchschnittlich 20% mehr Performance bei weniger!? Verbrauch, wenn ich den Test richtig lese (prime zählt nicht, das läuft bei mir nicht jeden Tag).

Zunächst einmal ist der Verbrauch für den Cinebench im erwarteten Rahmen, für Prime95 nur bedingt. Rechnet man den 8700K von 8 auf 6 Kerne um und von 4,3 auf 4,7 Ghz, dann kommt man auf 189W. Der Messwert von 185W ist nah dran. Bei Prime95 kommt man 261W, wo der Messwert von 287 drüber liegt. Da ist nicht klar, ob bei einer der CPUs ein AVX-Offset aktiv war, oder ob der 8700K auch schon ein gewisses Power Limit hatte, oder ob der 9900K wegen Verlötung nicht drosselt und der 8700K tat es. (Update: Wahrscheinlich sind es die Leckströme wegen hoher Temperaturen, von denen TomsHW berichtet) Letztendlich nicht so wichtig, auch 261W wäre sehr hoch, denn das sind auch schon 220W nur für die CPU und das VRM. Das im Artikel besprochene Power Limit ist zu niedrig, der völlig unlimitierte Betrieb ist zu hoch, denn 220W kann man nur mit absoluten Monster-Kühlern sauber abführen.

Der 2700X macht es insofern "besser", als er bei Prime95 das Idle-Last-Delta bei 161W belässt. Das ist auch schon sehr hoch für eine CPU auf einem Mainstream-Sockel. Nun liegt das an zwei Dingen: Zum einen macht der 2700X für die CPU Package bei etwa 141W dicht. Die restlichen 20W sind dann VRM. Das ist ein sehr viel intelligenter gewähltes Limit, welches normale Anwendungen kaum betrifft. Zum anderen - und deswegen oben die Anführungszeichen - kann der 2700X AVX2 nur mit halber Geschwindigkeit ausführen; beim 9900K geht gerade wegen des flotten AVX2 der Verbrauch in Prime durch die Decke.

Übrigens ist der Betrieb des 9900K völlig ohne Limit in etwa so, als ob man beim 2700X den Precision Boost Overdrive auf die höchste Stufe stellt. Dann gewinnt der 2700X auch noch ein wenig Leistung dazu (vielleicht 3-4% im Leistungsrating, wild geschätzt) und geht als "Belohnung" überproportional hoch mit dem Verbrauch. Kein normaler Anwender will das.

Die Aussage, dass Prime nicht jeden Tag läuft, ist insofern nicht hilfreich, als es durchaus echte Anwendungen mit ähnlichen Lasten gibt. Dazu zählen Blender und das x265-Encoding. Wenn die täglich genutzt werden, dann wird der Verbrauch ähnlich aussehen. Vielleicht nicht ganz so hoch, aber klar höher als im Cinebench.

Ich persönlich empfehle, das Limit ähnlich wie beim 2700X zu wählen. Bei 95W beschneidet man den 9900K zu deutlich, ohne Limit lässt er sich nur schwer adäquat kühlen, und außerdem verbrauchen die letzten paar Mhz Takt unverhältnismäßig viel Strom. Mit einem Long Duration Power Limit von 140W wird der 9900K immer noch flotter als der 2700X sein, und man kann ihn problemlos mit üblichen, guten Tower-Kühlern kühlen. Der Vorsprung sinkt dann vielleicht von 22% auf 16-18%, mehr nicht.

Wenn man diesen Quatsch hinsichtlich des Verbrauchs abgestellt hat, und das dauert eine Minute im UEFI, dann hat der 9900K nur noch ein Problem, und das ist der Preis. Von den momentan 700€ rede ich gar nicht, auch zum Listenpreis und dann vielleicht 500€ ist die CPU immer noch etwa 60% teurer als der 2700X, für vielleicht 17% mehr Performance. Nur in den seltensten Fällen ist das ein guter Kauf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MUKK86, FlohaufHund, Oneplusfan und eine weitere Person
BlackWidowmaker schrieb:
Ein Chip wie ein 9900K ist gegen jegliche Vernunft. Was bringt es die schnellste CPU zu haben, wenn der Verbrauch deutlich höher ist als bei einem 7820x? Der kann wenigstens auf ein Quad-Channel-RAM-Interface zurückgreifen.

Der 9900K ist schneller und einen Tick effizienter als der 2700X und sitzt ebenfalls auf einer günstigeren Consumer statt HEDT Plattform. Ein QC SI bei 8C und den heute möglichen DDR4 Frequenzen bringt keine Performance denn Bandbreite ist so mehr als genug vorhanden.

Über die Höhe der Verlustleistung kann man viel lamentieren. Die geht am Ende in Ordnung da der Zugewinn an Performance im Verhältnis steht. Gegen jede Vernunft wäre es wenn die Effizienz massiv schlechter wäre als beispielsweise bei einem 8700K oder 2700X. Das ist nicht der Fall. Somit ist der 9900K nicht nur für Spiele sondern auch für viele verbreitete Anwendungen wie AutoCAD, Solidworks, Adobe CC etc. welche nicht sonderlich gut mit der Anzahl der Kerne skalieren das Maß der Dinge. Der einzige Haken ist halt der Preis und das muss jeder für sich selbst entscheiden. Der 2700X ist deshalb ja keine schlechte CPU und hat ein tolles P/L Verhältnis. Für eine "normale" produktive Workstation (nicht Hobby) würde ich den aber genauso wenig nehmen wie TR oder SKL-X. Da ist der 9900K einfach ein zu rundes Paket. Mit 8C/16T ist man gut dabei und gleichzeitig lässt sich über die hohen Taktfrequenzen viel abfangen was nicht optimal skaliert.
 
Zuletzt bearbeitet:
MrZweistein schrieb:
Welches Motherboard und welchen Speicher verwendest Du denn, wenn ich fragen darf? Ich stelle gerade ein System zusammen und nehme diesbezüglich gerne Rat an.
Zu dem Zeitpunkt war das Msi X470 Gaming Plus einer der ersten Boards auf dem Markt und daher auch in meinen beiden Systemen in Verwendung. Speicher sind die Corsair Vengeance LPX 16GB DDR4 3200Mhz CL16 die ich per XMP Profil ohne weiteres@3200Mhz betreiben kann. Zudem nun auch auf CL14 gedrückt am laufen habe
 
Faust2011 schrieb:
Ich sehe da weniger die Schuld bei AMD als vielmehr die Problematik der (von Dir erwähnten) 10nm Fertigung, ....

Also wenn zitiert dann bitte richtig. Der Smiley am Schluss des "daran ist nur AMD Schuld" kennzeichnet eigentlich deutlich den ironischen Charakter des Spruchs.

Wobei das nicht nur Ironie ist. Ohne einen Ryzen gäbe es einen 9900K wahrscheinlich auch einen 8700K erst mit 10nm, und beide wären dann halt als Quad-Cores rausgebracht worden. Wobei so ein theoretischer i7-9700K Quadcore mit HT und nicht kastriertem L3-Cache bei einem Takt von 5GHz auf allen Kernen im Schnitt über ALLE Spiele (nicht irgendwelchen ausgesuchten CPU-lastigen) immer noch der schnellste Prozessor wäre.

Denn eines haben alle Tests in allen Magazinen gemeinsam: Sie spiegeln nicht die Spiele-Realität wieder. In mehr als 95% aller PC-Spiele werden maximal 4 Cores oder weniger unterstützt. Ich schätze in 50% der Games sind es nur 2 Cores oder nur einer. Auf jeden Fall ist die Anzahl von Games die nur einen Kern unterstützen ein mehrfaches der Anzahl von Games die mehr Cores unterstützen.

Wobei bitte nicht zu vergessen ist, daß mit allen Games auch wirklich alle Games gemeint sind und nicht nur irgendwelche AAA 3D Games. Nein auch ein Browsergame wie z.B. Tetris oder andere Low-End Games mit hoher Verbreitung sind darin enthalten.
 
BlackWidowmaker schrieb:
Wobei bitte nicht zu vergessen ist, daß mit allen Games auch wirklich alle Games gemeint sind [...] Nein auch ein Browsergame wie z.B. Tetris oder andere Low-End Games mit hoher Verbreitung sind darin enthalten.
Nur warum sollte man sich für diese Games mehr als einen i5 oder 5er Ryzen holen? Die laufen doch quasi mit jeder CPU.

Grüße
Franeklevy
 
In der Reaktion war der Intel Core i9-9900K mit dem Luftkühler letztlich zu einem Einsatz von 5,1 GHz auf allen 16 Threads (+400 MHz beziehungsweise 9 Prozent)

Whut? Von 3,6 auf 5,1 sind's schon ein bisschen mehr als 400 MHz. Reden wir von permanent eingeschaltetem Turno von 4,7Ghz, dann ja, sind's 400MHz. Aber mal ehrlich....16 Threads bei 4,7GHz...das reicht den Leuten nicht? Ich gammel hier mit meinem 2600k auf 4,5GHz rum.

Und das Teil hier kommt vom Werk, ohne Übertaktung mal eben auf 4,7 GHz. Also für mich mehr als ausreichend...
 
@BlackWidowmaker

ich denke die Zielgruppe des 9900K wird nicht der Tetris oder Candy Crush Spieler sein.
Immer mehr Spiele unterstützen mehr als 4 Kerne, dass muss halt noch bei den Entwicklern ankommen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
franeklevy schrieb:
Nur warum sollte man sich für diese Games mehr als einen i5 oder 5er Ryzen holen? Die laufen doch quasi mit jeder CPU.

Stimmt natürlich. Aber man kauft halt eine CPU nicht nur wegen einem Game, zumindest nicht wenn man vernünftig mitdenkt. Ein Gamer spielt ein Game des Spielspaßes wegen. Man kann durchaus einerseits Tetris gern zocken, andererseits ein sehr CPU-lastiges Game wie Anno oder Total War. Was ich damit sagen wollte ist, daß man sein Augenmerk nicht (zu sehr) auf wenige Einzelfälle beschränken sollte, sondern "breiter" denken sollte.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben