Test Intel Core i9-9900KS im Test: Intel stößt sich selbst vom Thron

Nur rein aus Neugier würde ich den gerne mal UV Testen und sehen wie weit man den Verbrauch senken kann, natürlich auch mit anständigem RAM.
 
@QuasarAI Genau das meine ich. Hauptsache Gründe aufführen, warum AMD lächerliche CPUs baut. Aber Intels Sicherheitslücken werden immer runtergespielt und die sind Jahre bekannt. Aber wenn AMD den Turbo um 20 MHz verfehlt brennt der Baum.
Ps: wenn man kein PCI 4.0 braucht kann man sich auch problemlos ein x470 Board (oder drunter holen).
 
  • Gefällt mir
Reaktionen: nazgul77, Benji21, mealtman und 2 andere
  • Gefällt mir
Reaktionen: nazgul77, WolledasKnäul, iron_monkey und 4 andere
Eno77 schrieb:
Das Problem ist, dass er in keinem Fall eine Gaming Alternative ist:
High End: Da spielt man in WQHD oder UHD - Da kriegst Du nicht mal mehr auf dem Papier einen Unterschied, der sich nicht im Bereich von Messungenauigkeiten bewegt. Es reichte quasi auch ein 3600er Ryzen.
Budget/FullHD Gaming: Allein wegen der Kosten Schwachsinnig - das gesparte Geld zum 3600 Ryzen (oder meinetwegen zum 3700X) in eine bessere Graka investiert bringt deutlich mehr, als die paar Prozent durch den Prozessor.
Bei Anwendungen ist das Bild eh klar - da sieht Intel mit der aktuellen Architektur eh kein Land.
Du vergisst professionelle Spieler (und solche die es gerne wären). Generell kompetitive Spiele. Da wird höchstens in FHD gespielt, und man will so viele FPS wie möglich. Da kommen dann bei vorhandenem Geldbeutel durchaus ein i9-9900KFC und eine RTX 2080 Ti in FHD zum Einsatz.
 
Nozomu schrieb:
Wusste gar nicht, das Intel noch ne weitere CPU Angekündigt hat ^^
Ich nenne den jetzt immer so.
s436.gif
 
  • Gefällt mir
Reaktionen: Nozomu
Alphanerd schrieb:
Man merkt die 5 fps mit sync genauso gut, wie ein Audiophiler bei Mondlicht mit den Füßen mundgeklöppelte Cinch Kabel merkt.

Beide bilden es sich ein.

ich merke die, ob du es glaubst oder nicht
Ergänzung ()

Wadenbeisser schrieb:
Die Framerate aber schon.
Liegt das CPU Limit des Spiels z.B. bei 160 FPS, das Limit der Grafikkarte aber deutlich darunter dann ist das CPU Limit herzlich egal und da mit steigender Auflösung vor allem die GPU belastet wird rutscht die Framerate beim GPU Limit mit steigender Auflösung immer weiter nach unten wärend das CPU Limit relativ konstant bleibt.
Genau deshalb ist eine super duper mega fette CPU bei einer UHD Daddel Station auch die größte Geldverschwendung die man betreiben kann, vorausgesetzt man legt wert auf Grafikqualität.

das brauchst du mir nicht eklären. das weiß ich selbst. genau darum gehts mir ja.

allerdings bist auch du wieder der meinung dass die leute bei steigender auflösung "sowieso" im gpu limit hängen, was völliger humbug ist

schau dir bitte folgendes video an.

mein 9900k droppt hier auf 70 fps. bei richtig action sogar drunter.

WARUM in Gottes Namen sollte ich in 1440p oder 4k die gpu settings so weit anziehen, dass ich noch weniger als 70 oder 60fps habe?

bitte erkläre mir das!

hätte ich eine gpu, die stark genug ist, würde ich die settings natürlich so setzen dass ich die 70fps nur unterschreite wenn die cpu zu schwach ist. warum sollte ich mir auch sonst nen 144hz schirm besorgen wenn ich die gpu settings so weit anziehe, dass ich bei 70fps rumeier?

Macht absolut keinen sinn.

ERGO hab ich selbst in 4k auch immer noch eine CPU, die mitmachen muss.

also hört doch bitte ENDLICH damit auch zu behaupten, bei steigender auflösung wird die cpu unwichtig.

das ist schlicht Falsch!

 
Zuletzt bearbeitet von einem Moderator:
Don Sanchez schrieb:
Du vergisst professionelle Spieler (und solche die es gerne wären). Generell kompetitive Spiele. Da wird höchstens in FHD gespielt, und man will so viele FPS wie möglich. Da kommen dann bei vorhandenem Geldbeutel durchaus ein i9-9900KFC und eine RTX 2080 Ti in FHD zum Einsatz.

Oh Du hast Recht, den Professionellen Bereich mit begrenzter Auflösung usw. habe ich tatsächlich nicht im Auge gehabt.
Bringt es denn bei den betreffenden Spielen noch etwas, wenn die fps bspw. von 240 auf 270 steigen? (Sehen kann man das eh nichtmehr, aber ggf. einen Vorteil bei den Reaktionszeiten? Da kommts dann wahrschl. auch zusätzlich auf Input Lag und "Screen Darstellungs" Lag an denke ich.
Aber ja - in dem Bereich gibt es solche Szenarien dann wohl und spielen eine Rolle.
 
@Volker leider wurde die Frage noch nicht bestätigt, wie das Testsystem denn aktuell aussieht. Insbesondere der verwendete Kühler wäre wichtig, um das OC Ergebnis und den Verbrauch einschätzen zu können.
 
Ctrl schrieb:
was für ein Geheule.. interessant ist das OC 5.4GHz möglich sein könnten..
fast jeder 9900K kann mit anständiger Kühlung 5GHz packen ohne dabei 99°C zu erreichen.. keine Ahnung was Volker hier wieder gemach hat ^^

AMD bias halt, die community freuts.

dass hier auch mal mit ddr4000+ getestet werden koennte, was locker mal nen OC performance vorsprung von 40%+ vor AMD zeigen wuerde (je nach anwendung), wird natuerlich nicht gedacht. wehe bloss.
 
  • Gefällt mir
Reaktionen: Ctrl
Nur 1 Jahr Garantie stört mich wirklich sehr und für die gebotene Technik zu teuer.

Da ist der Ryzen 3900X oder 3950X die bessere Alternative, vor allem für Spiele.

(Spiele werden immer mehr auf Multithreading optimiert, da hab ich in 1 Jahr mit einem 3900X mehr Vorteile als mit dem 9900KS.)
 
dante`afk schrieb:
dass hier auch mal mit ddr4000+ getestet werden koennte, was locker mal nen OC performance vorsprung von 40%+ vor AMD zeigen wuerde (je nach anwendung), wird natuerlich nicht gedacht. wehe bloss.

Tja, Du könntest es ja rein Posten - irgendwoher müsstest Du doch die Zahlen her haben.....
 
  • Gefällt mir
Reaktionen: WolledasKnäul
Eno77 schrieb:
17%? Lächerlich!

66% Mehrleistung bei Serious Sam unter Linux für den 3900X im Vergleich zum 9900K (zum KS werdens dann noch ~60% sein) - kann man nicht ignorieren!

https://openbenchmarking.org/embed.php?i=1910018-AS-RYZEN939067&sha=8987832&p=2

Merkst selbst, wie beliebig derlei Kommentare sind, gell? ;)

was soll denn bitte der quatsch? - wenn man schon irgendwas zusammenflickt sollte man darauf achten das auch überall die selbe Grafikkarte drin ist sonst ist der Vergleich sinnlos!

auf dieser Seite gibt es genug Benchmarks wo die Intel CPU mit einer 2080Ti über 160FPS erreicht.. (Serious Sam 3: BFE 1920 x 1080 - Quality: Ultra)
bitte vorher mal überprüfen bevor man hier Fakenews verbreitet!
 
  • Gefällt mir
Reaktionen: Ben81
Eno77 schrieb:
Oh Du hast Recht, den Professionellen Bereich mit begrenzter Auflösung usw. habe ich tatsächlich nicht im Auge gehabt.
Bringt es denn bei den betreffenden Spielen noch etwas, wenn die fps bspw. von 240 auf 270 steigen? (Sehen kann man das eh nichtmehr, aber ggf. einen Vorteil bei den Reaktionszeiten? Da kommts dann wahrschl. auch zusätzlich auf Input Lag und "Screen Darstellungs" Lag an denke ich.
Aber ja - in dem Bereich gibt es solche Szenarien dann wohl und spielen eine Rolle.

es braucht nichtmal competetive games um das zu zeigen.

da reicht auch ein brandaktuelles SP/Group game dafür

 
hamju63 schrieb:
Ich überlege nicht beim Intel. Ich schaue mir die Leistung an.
Genau wie vorher auch bei den Ryzen CPUs
Überlegen beginnt dann ab einem signifikanten Leistungsplus.

Klang aber eher so, als würde Ryzen keine Option sein, weil sie dir zu wenig leisten, obwohl der Sprung derselbe ist wie beim Intel von deinem jetzigen.
 
RAZORLIGHT schrieb:
Warum Intel bei Anno 1800 so viel besser ist werde ich wohl nie verstehen.

Anno brauch zwar auch ein paar Kerne, allem voran aber Takt, Takt und nochmals Takt. Da Intel da vorne liegt ist es eigentlich nur logisch das Intel bei Anno besser ist.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Pisaro schrieb:
Anno brauch zwar auch ein paar Kerne, allem voran aber Takt, Takt und nochmals Takt. Da Intel da vorne liegt ist es eigentlich nur logisch das Intel bei Anno besser ist.
Dafür hat AMD aber die bessere IPC, also das was da an Takt Vorteil von Intel noch da ist, müsste in realer Performance auf maximal 5% Vorsprung zusammenschrumpfen. Zudem hat AMD ja hier bei CB noch den Vorteil 3200er RAM nutzen zu dürfen, wodurch diese 5% auch fallen müssten.

Ich denke daher eher, dass Anno stark auf Latenzen reagiert, oder die Engine einfach sehr Intel freundlich arbeitet^^

Insgesamt ist Anno1800 hier aber ein komischer Benchmark, da der 2700X 1% über der gesamten Ryzen 3000 Riege steht, der 2600X gar 3% besser als der 3600 ist, wo im Schnitt ohne Anno 1800 18% zwischen den beiden liegen.
Irgendwas kann da also sowieso nicht passen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nazgul77, Celinna, Cruentatus und eine weitere Person
Zurück
Oben