Test Core i9-9900K & i7-9700K im Test: Sehr schnell. Sehr durstig. Extrem teuer.

Status
Für weitere Antworten geschlossen.
Krautmaster schrieb:
Das ist richtig, trifft aber auch auf Intel zu, die skalieren damit auch gut siehe meine Sig mit Link zur Liste. Bei Intel ist die Basis höher, aber mit richtigem Optimizing geht da auch einiges. Bei SLX sowieso, aber auch bei Coffee
Ergänzung ()


Das geht mit den billigsten B350 Boards. Hol dir nen Brett um 100 Euro, dann spielst du den Preisvorteil auch richtig aus.
ruthi91 schrieb:
Am besten nimmst du ein Ram Kit mit Samsung B Die Chips und stellst die "The Stilts memory timings" ein.
https://www.hardwareluxx.de/communi...liste-alle-hersteller-18-10-18-a-1161530.html
Und hier ab Minute 5 die Timings:
CyberdyneSystem schrieb:
Zu dem Zeitpunkt war das Msi X470 Gaming Plus einer der ersten Boards auf dem Markt und daher auch in meinen beiden Systemen in Verwendung. Speicher sind die Corsair Vengeance LPX 16GB DDR4 3200Mhz CL16 die ich per XMP Profil ohne weiteres@3200Mhz betreiben kann. Zudem nun auch auf CL14 gedrückt am laufen habe
Danke für eure Infos und Tipps. Die Corsair Vengeance hatte ich schon auf dem Zettel auch da sie auf Certified RAM Liste von AMD stehen. Hatte allerdings die 3000er im Sinn.
 
cookie_dent schrieb:

Entwickler gehen vom Ist-Zustand aus, z.B. von Steam-Statistiken. Und dort sehen sie, daß nur ein extrem kleiner Teil aller Gamer eine CPU mit 4-Cores haben. Das sind mit Sicherheit weniger als 5%. Dementsprechend werden keinerlei Ressourcen dafür aufgewendet. Das wird sich auch in den nächsten Jahren nicht ändern. Das vielleicht eine Handvoll AAA-Games mehr Cores brauchen und auch nutzen können, ist nur die Ausnahme, nicht die Regel.

PS: Viele Games nutzen nicht eine eigene Engine, sondern lizensieren günstig fremde wie Unreal. Wenn das Spiel dann mehr als 4 Cores unterstützt, dann nur weil die dazu gekaufte Engine das tut. Von allein würden aber die meisten Game-Entwickler nie auf den Gedanken kommen. Die bringen es heutzutage nichtmal fertig, ein Spiel fertig zu stellen, bevor es auf den Markt kommt. Daß ein Spiel heute im Alpha-Stadium bereits verkauft wird, ist nicht nur traurige Realität, sondern wird sogar als Feature extra monetisiert. Da ist einfach kein Raum mehr für irgendwelche Optimierungen.
 
Zuletzt bearbeitet:
SaschaHa schrieb:
Scheinbar hast du nur das Fazit gelesen und nicht einmal dieses verstanden.
Du scheinst echt nicht mit Intilligenz gesegnet zu sein... einfach mal irgendwas unterstellen.
Von so nen PC anfänger muß ich mich nicht beleidigen lassen.
SaschaHa schrieb:
Wie - außer mit hohen Auflösungen (4k und höher) und Anforderungen - willst du denn sonst ins GPU-Limit kommen, wenn du genau dieses testen und einen Vergleich zum CPU-Limit ziehen willst?
Es geht um die faulheit von CB, so eine Pauschal aussage zu machen und dann noch nicht 8-10 Spiele zu Testen, geschweige denn 1440p oder auch CPU Lastige games wie Elite Dangerous, Project Cars2, City Skylines usw zu Testen! Statt dessen wird dort im Fazit so eine Aussage gemacht... basierend auf 3 lächerlichen Grafikblendern wo eh kaum was von ner CPU berechnet wird.

Und in FullHD mit ner 2080ti und nen 9900k CPU zu Testen, als würde jemand der 700€+1200€ Grafikkarte hat noch in 1080p zocken.
Zumal die 2080ti überhaupt nicht für FullHD Optimiert ist... da läuft sogar in einigen games ne 1080ti schneller.
 
  • Gefällt mir
Reaktionen: Bard
naja wenn es um Min Frames in 1080p geht die mit der CPU Leistung skalieren, dann werden eben diese Min Frames in 1440p und 4k auch nicht höher sein, im Gegenteil. Auch da liegt eben bei den Min Frames je nach Engine ein CPU Limit vor. Ganz unter den Teppich kehren würde ich das nicht. DLSS ist zb in 4k auch auf 1080p gerechnet.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Ja, CPU Tests müsste man eigentlich in 720p machen.
Es gibt halt doch das ein oder andere Spiel, was selbst auf 1080p von der GPU limitiert wird.

Ihr schreibt auch, dass man Übertakten mit nem Luftkühler vergessen kann. Bezieht sich das auf den Noctua NH U12? Weil ich kann mir nicht vorstellen, dass ein Dualtower mit 2 Lüftern auch so krasse Temperaturen zulässt. Den U12 würde ich eher für i5 oder Ryzen 5 einsetzen, als zu versuchen, die Top CPU mit OC zu kühlen.
Was verwenden die anderen Seiten so für Kühler?
 
LeWhopper schrieb:
Also ich seh da elf Spiele und acht Anwendungen. Außerdem warum sollte man nicht auf 4k testen? Soll die CPU sich langweilen und nicht ihr volles Potential preisgeben?
Die elf Spiele wurden ausschließlich nur in fullhd getestet.

Das gegenteil ist der Fall... in 1440p findet das bessere Balancing zwischen CPU/GPU Flaschenhals statt und wenn man auf die 1% Mindest FPS achtet merkt man sehr schnell ob da was nicht rund läuft.
 
Cool Master schrieb:
Das wäre wie bei einem Autohersteller der vMax mit 250 km/h angibt aber sagt wenn man schneller als 250 fährt (Berg runter, rücken wind) erlischt die Garantie.
Wenn das Auto bei 250 Abgeriegelt ist fährt es auch mit Rückenwind nicht schneller.
 
m.Kobold schrieb:
Du scheinst echt nicht mit Intilligenz gesegnet zu sein... einfach mal irgendwas unterstellen.
Von so nen PC anfänger muß ich mich nicht beleidigen lassen.

Es geht um die faulheit von CB, so eine Pauschal aussage zu machen und dann noch nicht 8-10 Spiele zu Testen, geschweige denn 1440p oder auch CPU Lastige games wie Elite Dangerous, Project Cars2, City Skylines usw zu Testen! Statt dessen wird dort im Fazit so eine Aussage gemacht... basierend auf 3 lächerlichen Grafikblendern wo eh kaum was von ner CPU berechnet wird.

Und in FullHD mit ner 2080ti und nen 9900k CPU zu Testen, als würde jemand der 700€+1200€ Grafikkarte hat noch in 1080p zocken.
Zumal die 2080ti überhaupt nicht für FullHD Optimiert ist... da läuft sogar in einigen games ne 1080ti schneller.
Naja ich werde, vermutlich, immer in FullHD zocken. Warum sollte ich mehr wollen? Die 60 oder evt. 144 FPS möchte ich dennoch auskosten, bei maximaler Grafik.
 
5,1GHz ist keine "leichte Übertaktung". So einen hohen Takt schaffen vielleicht 5-10% aller 8700k, und das mit sehr sehr sehr viel Kernspannung, die nicht mehr alltags tauglich ist. Der 9900k hat nochmals 2 Kerne mehr, was die ganze Angelegenheit mit dem Übertakten nur noch schwieriger macht.

Vor kurzem wollten alle unbedingt die magische Grenze von 5GHz erreichen. Jetzt wollen die Leute die Grenze nicht nur erreichen, sondern gleich deutlich überbieten/übertreffen. Und mit welchem Preis das erkauft wird, will keiner so richtig verstehen, und fängt gleich zu meckern. Wer ultimative Leistung haben will, dem soll es auch klar sein, welche Konsequenzen das haben wird. Auf kühlem Popo sitzen und gleichzeitig mit Lichtgeschwindigkeit nach vorne fliegen, das lässt Physik leider nicht zu.
 
  • Gefällt mir
Reaktionen: Rockstar85
hi und hallo

so mein 9900k ist heute vormittag angekommen und habe ihn sogleich auf meinem z370 board montiert , vorab habe ich mit dem 8700k das bios auf dem aktuellstem stand gebracht

ausgangsposition :
itx gehäuse : NcaseM1
Graka : 1080ti founders
Ram : 16gig
Mainboard: ASRock Fatal1ty z370 gaming blub , bios 3.20 2018/10/11
cpu Kühler AIO : H100I Pro
Windows 10 pro 1803 build 17134.345
ausgelesen mit CPUID HWMonitor V1.36.0

für das erste dem bios alle lüftereinstellungen bzw pumpen geschwindigkeit überlassen , aber ich kann sagen schonmal sehr sehr leise

cinebenchR15
Single Core 217 punkte / peak temp 56grad ehr leicht weniger / Powers Package circa 32W
all core 2011 punkte / peak temp 70grad ehr leicht niedirger / Powers Package 157,54W

aida 64 : stress cpu (ohne stress fpu) stress cache , stress system memo
vorerst 5min laufen lassen all core 100% @4,7ghz
60-70 grad mit peaks bei 75 grad
Powers Package circa 135W leicht schwankend

idle : bei 800mhz+- / 30 grad +- (28-33) bei raum temp circa 20 grad / Powers Package 9-10W


Unbenannt.jpg

Unbenannt2.jpg



Bei beiden all core benchmarks lagen immer 4,7ghz an bei cinebench single core geht ehr auf 5ghz springt aber auch von core zu core

Auch wie unter mir erwähnt wurde, warum das ganze.... Weil es geht, warum packen Leute große Motoren in kleine Autos weil es GEHT, :)
Hobby bleibt hobby da muss man keinen Sinn suchen

Werde später mal die Software zu der aio installieren und bißchen weiter benchen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CBL, .Sentinel., frank00000 und 3 andere
Krautmaster schrieb:
naja wenn es um Min Frames in 1080p geht die mit der CPU Leistung skalieren, dann werden eben diese Min Frames in 1440p und 4k auch nicht höher sein, im Gegenteil.
Ich habs doch begründet... die 2080ti wurde nicht vernünftig für FullHD Optimiert, mit der Karte ein CPU Test in der Auflösung
zu machen gibt kein sinn, erst recht nicht wenn man kaum Simulationen/Strategie Spiele Testet... wo die CPU um ein vielfach mehr benutzt wird.

Krautmaster schrieb:
Ganz unter den Teppich kehren würde ich das nicht. DLSS ist zb in 4k auch auf 1080p gerechnet.
Versteh ich nicht... DLSS implementierung gibt es bis jetzt noch nicht in richtigen Spielen... abgesehen von 3 Benches in einen genau abgestimmten bereich, wo nvidia nur positive Punkten kann.
 
Von der Leistung her super, aber die Preise atm :freak:
AMD ist auch keine wirkliche alternative, da zu langsam.

Da heißt es wohl erstmal abwarten.
 
@MrZweistein also um einfach nur 3000 CL14 hinzubekommen, tuts auch dein angesprochendes günstiges Kit, bis 1,4V Ram Spannung und 1,1V SoC ist ja auch alles easy.
Für die Stilts Timings brauchst du aber Samsung B-Die soweit ich weiß.
 
@Oneplusfan
720p ist mehr als realitätsfern.
Das Gleiche gilt auch für 1080p. (mit Ausnahme von professionellen eSports Spielern vielleicht, aber das sind vllt 0,000001% der Käufer)

Wer die High-End Modelle von Intel und AMD kauft (9900K / 2700X) wird unter keinen Umständen unter 1440p spielen wollen, bzw. nur 4K.
 
Kurzer Erfahrungsbericht:

Ich lasse den Prozessor auf meinem Gigabyte Z370 Aorus Gaming 7 in den Default Einstellungen (alles auf Auto) mit manuellem VCore Override von 1,3V laufen. Beim Cinebench Test taktet die CPU all-Core zwischen 4.6 Ghz und 5 Ghz:

1.png


Die Temperaturen kommen dabei auf max 75° mit der kleinen AiO Corsair H60 (2018'er Modell) und saugt max 130 Watt :

2.png


Cinebench liefert dann eine Score von 2018 (all Core) und 210 (single Core):

3.png


Und dieses Setting werde ich auch lassen. Klar könnte man noch mehr rausholen, aber so ist es denke ich ein guter Kompromiss. Prime & Co. Tests halte ich für Quatsch. Deren Belastungstests haben so garnix mit dem normalen Gebrauch der CPU zu tun.

Und hier noch zwei 3DMark Benches:

Time Spy Extreme
Fire Strike Ultra

Interessanterweise liegt nur im DX11 Test Fire Strike Ultra die CPU 19% über dem 8086k - im DX12 Test Time Spy Extreme beträgt der Unterschied nur einen mickrigen Prozent.

Morgen werde ich dann noch fleißig Assassins Creed Odyssee zocken - welches extrem empfindlich auf das Overclocking des Vorgängers 8086k reagiert hat. Mal schauen wie stabil mein Setup damit läuft. Mit dem "Auto" Setup beim 8086k lief aber alles problemlos. Jetzt hoffentlich auch.

Und zum guten Schluss noch die Antwort auf die nicht gestellte Frage "war das Upgrade wirklich nötig?" => Nö - aber man lebt nur einmal und das Leben ist zu kurz für langsame Hardware. ;)

Edit: halbe Stunde Assassins Creed gezockt - alles stabil! So muss das! :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: yummycandy, t3chn0, Amok4All und eine weitere Person
Absolut uninteressante CPU's. Eine X-Jahre alte CPU Architektur welche an die Kotzgrenze getrieben wurde, uninteressanter gehts ja wohl kaum. Der AMD FX-9590 war ja auch so ein Kandidat.
 
  • Gefällt mir
Reaktionen: Qonqueror
Syrato schrieb:
Naja ich werde, vermutlich, immer in FullHD zocken. Warum sollte ich mehr wollen? Die 60 oder evt. 144 FPS möchte ich dennoch auskosten, bei maximaler Grafik.

Man ist ja teilweise auch indirekt dazu gezwungen sich von FullHD zu verabschieden... zumindest wenn man wie ich VR zocken möchte und vor hat sich ne 2080ti zu holen um in VR mit maximaler Auflösung zu Spielen.

Und wenn dann die 2080ti fast die selben FPS in den meisten FullHD Spielen bekommt wie mit ner 1080ti...
man sieht ja das die 2080ti erst in 1440p richtig gut skalliert... und das selbe läuft ja auch schon zwischen 1080 vs
1080ti ab. Da ist in FullHD die 1080ti nur 12% schneller als ne 1080er aber in 1440p und höher gibts dann 22-27% mehr Performance.
 
  • Gefällt mir
Reaktionen: .Sentinel.
BlackWidowmaker schrieb:
Entwickler gehen vom Ist-Zustand aus, z.B. von Steam-Statistiken.

Steam-Statistik würde ich persönlich niemals glauben. Wieso? Ich spiele GTAV über Steam, und im Spiel wird es mir angezeigt, dass ich in meinen Händen gerade mit einem X-Box Kontroller spiele. In der Realität spiele ich aber an einem PC mit einer PC-Maus. Und was lese ich danach in der Steam-Statistik? Genau, die Mehrheit der Steam-Spieler benutzt beim Spielen am PC einen X-Box Kontroller.
 
Syrato schrieb:
Naja ich werde, vermutlich, immer in FullHD zocken. Warum sollte ich mehr wollen? Die 60 oder evt. 144 FPS möchte ich dennoch auskosten, bei maximaler Grafik.

Ist doch jetzt ein Widerspruch in sich, Du willst bis zum Lebensende in FHD zocken, aber die Grafik soll dann maximal sein?
Hast Du überhaupt jemals einen direkten Vergleich zwischen FHD, WQHD und 4K gesehen? Du wirst staunen und nie wieder FHD spielen wollen.
 
  • Gefällt mir
Reaktionen: TheBear1517, Sorigir, Dai6oro und eine weitere Person
1080P heißt nicht unbedingt FullHD.

Ich habe einen 34" UW mit 2560x1080P und dafür 160Hz. Da kann die CPU und GPU nicht schnell genug sein.

In BF1 kommt man in der Auflösung bei einem 8700K und 5Ghz auf maximal 94% GPU Load. Man hängt also immer knapp im CPU Limit. Eine 1080Ti habe ich immer ins GPU Limit bekommen.

Ich hoffe dass der 9900K nun nochmal den Rest on Top legt.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben