Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

Peinlich, Intel, peinlich!

Aber gut, soll mich nicht stören, denn von Intel kommt zukünftig eh keine CPU mehr in meinen Rechner!
 
  • Gefällt mir
Reaktionen: Öcher Tivoli und WebBeat84
@Paddy0293

Bei mir ist das noch schlimmer da ich Qualität der Quantität deutlich vorziehe. ;)
Was bringen mir ach so viele FPS wenn dadurch die Grafik Qualität leidet?
Also baller ich rauf was an für mich akzeptablen Frameraten geht und hänge damit immer im massiven GPU Limit. :D
Bei meinem Gaming Anspruch ist die CPU das mit Abstand unwichtigste am System.
 
Paddy0293 schrieb:
Ich glaube dafür ist es noch zu früh.. Leonidas wird da Klarheit bringen.. Du hast am Ende einfach zu wenig Daten. Wenn AMD wirklich, wie von Igor vermutet, 20% IPC und mehr Takt drauf legt, dann muss Intel 5,5Ghz fahren und auch mehr. Das möchte ich bezweifeln, dass das Stand heute ein Prozess dauerhaft und auch eben Supporttechnisch Wasserdicht schafft. Man erinnere sich an die Garantie von einem Jahr (die nach EU Recht auch gegen EU Gewährleistungsgesetze widerspricht). Intels 10600K könnte aber wieder der Gaming Mainstream werden. Der 10700K wird spannend, ob dieser sich vom 9900KS in Sachen Lastverbrauch absetzt. Ich sehe hier noch kein besseres Binning, aber das wird der 10700K zeigen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
@DavidG Problem ist aber dass in der Realität bei langen Lasten und gesetzten Limits der 10900K 20% zusätzlich an all core verliert wenn er nicht mehr saufen darf und dann ist der 3900X auf und davon. Dazu ist der auch noch billiger.
Das Ding ist leider nicht für sowas geeignet aus genannten Gründen.
 
Was mich mal interessieren würde ist, was die paar Frames mehr die man mit einer Intel-CPU ggf. bei Spielen erreichen kann wirklich ausmachen, bzw. inwieweit man das wirklich merkt.

Ich merke da jedenfalls keinen Unterschied ob ich nun z. B. 10 oder 20 Frames mehr habe. Sofern man sich was die Frames angeht nicht in einem Bereich bewegt das es sonst nicht mehr spielbar ist, aber dann hängt man idR ja sowieso im Grafikkartenlimit und die CPU ist aussen vor.

Effektiv ist ist das für mich somit nur eine Show damit irgendwer sagen kann er hat aber den längeren Balken in Benchmark XYZ mit keinerlei praktischem nutzen.
 
  • Gefällt mir
Reaktionen: karl_laschnikow und WebBeat84
4ndroid schrieb:
Klar, wir kaufen uns für >2k einen Gaming PC und zocken dann in 720p um uns bei den Bench-Werten einen von der Palme zu wedeln... nicht? Wer ein vernünftiges Highend System kaufen möchte, hat die Wahl zwischen R9 oder Intel i9. Wer auf Effizienz/Silent Wert legt, greift tendiert zu AMD. Wer exzessiv die Bench-Palme wedelt, greift zu Intel.
Du willst mir also versichern, dass ich mit einem Reisen 9 und einer 3080TI in 1440p nicht CPU limitiert wäre? Dass ich freiwillig auf die letzten paar fps verzichten soll?
 
Wadenbeisser schrieb:
@Paddy0293
Bei meinem Gaming Anspruch ist die CPU das mit Abstand unwichtigste am System.
Ja GPU macht am meisten beim Thema Gaming aus :)
Kann ja selbst mit meinem 3570k @4,5Ghz noch "fast" alles zocken :)
Aber brauch wirklich bald was neues, konnte das neueste COD nicht spielen da ich im CPU Limit hing und Discord dadurch so abschmierte, das ich nicht reden konnte :D (Teamspeak ist das keine Option-> Discord bietet zu viele Vorteile und wegen einem Game immer auf TS zu switchen, war mir dann doch zu blöd :D)
 
Weiß man eigentlich schon, wie hoch Rocket Lake takten wird? Theoretisch müssten doch 5,5-5,7 GHz drin sein.
 
Lag ich mit meinen 1000 comments innerhalb 24 Stunden gar nich schlecht...

Auf geht's Buam! Da is noch Druck aufm Kessel 🤟 💪
 
Galaxytourist schrieb:
Was mich mal interessieren würde ist, was die paar Frames mehr die man mit einer Intel-CPU ggf. bei Spielen erreichen kann wirklich ausmachen, bzw. inwieweit man das wirklich merkt.

Ich merke da jedenfalls keinen Unterschied ob ich nun z. B. 10 oder 20 Frames mehr habe. Sofern man sich was die Frames angeht nicht in einem Bereich bewegt das es sonst nicht mehr spielbar ist, aber dann hängt man idR ja sowieso im Grafikkartenlimit und die CPU ist aussen vor.

Effektiv ist ist das für mich somit nur eine Show damit irgendwer sagen kann er hat aber den längeren Balken in Benchmark XYZ mit keinerlei praktischem nutzen.


Denke auch, dass man klar, bei 30fps und 40fps oder 50 und 60 ein Unterschied merkt, aber man wird ihn nicht mehr im Bereich über 70-80 merken. Ob man nun 80 oder 90 fps hat.
Deshalb finde ich auch dass ein 100hz Monitor maximal 144hz vollkommen ausreicht, denn mehr als 100 bzw 144fps schafft kaum eine Karte je nach Spiel und man merkt es eh nicht mehr.

Ich zockte CS:GO, damals ohne FreeSync usw. unbegrenzter fps immer so bei 150-200 fps.
Jetzt zocke ich CS:GO mit FreeSync fix auf 100hz/fps mit sync und es ist GENAUSO FLÜSSIG und sogar noch besser von den framtimes her. Es kommt viel angenehmer rüber. Treff seit dem auch mehr.

Finde alles darüber ist reine Geldmacherei.

Ist ja so als wenn ich ein 150PS Motor im Auto hätte und damit ich mehr als 200km/h schaffe, die Maximale Drehzahl künstlich erweitere auf 9000U/min damit ich 220 schaffe :D

Monitore mit 260hz usw... In welchem Spiel denn bitte? Und wozu?

Die AMD CPUs sind mega von der Leistung in allen Bereichen und der Stromaufnahme und somit Effizienz, da verzichte ich gerne auf 5-10 fps in spielen die man sowieso nicht merkt.
 
Auf dem Papier vielleicht in Ordnung, aber das ist kein gutes Produkt. Ich bin jahrelang Intel gefahren, aber aktuell bieten Sie keinen Reiz zum wechseln. Die Prozis sind zu teuer, zu spät und kurz vor Zen 3 ein Abfallprodukt. Interessant ist wirklich nur der i5...
 
PS828 schrieb:
@DavidG Problem ist aber dass in der Realität bei langen Lasten und gesetzten Limits der 10900K 20% zusätzlich an all core verliert wenn er nicht mehr saufen darf und dann ist der 3900X auf und davon. Dazu ist der auch noch billiger.
Das Ding ist leider nicht für sowas geeignet aus genannten Gründen.

Problem ist vor allem, dass DavidG das gleiche schon in Beitrag #12 behauptet hat und es schon da nicht gestimmt hat: Der 3900X ist in Anwendungen schneller, zieht weniger Strom und ist deutlich billiger als der 10900K. Und da sind die 20% Leistungseinbruch des 10900K bei Dauerlast noch nicht mal berücksichtigt.

Und in Spielen ist der 3600X zwar in FHD 20% langsamer als der 10900K, kostet dafür aber auch nur ein Drittel.

Es gibt für AMD keinen Grund, die Preise zu senken.
 
  • Gefällt mir
Reaktionen: eXe777 und PS828
Wenn ich jetzt aufrüsten würde, wäre wahrscheinlich der 3900x mein Favorit. In der CH ca. CHF 140 günstiger als der 10900k.

Preislich müsste der 10900k mit mind. einem Hunderter weniger starten. Meine Meinung.
 
zeedy schrieb:
Du willst mir also versichern, dass ich mit einem Reisen 9 und einer 3080TI in 1440p nicht CPU limitiert wäre? Dass ich freiwillig auf die letzten paar fps verzichten soll?
Du kannst ja selber Rechnen.. Die IPC von Zen 2 ist bekannt, die von Skylake auch.. Du brauchst keine Hochfrequenzkerne, wenn die IPC stimmt. Und wenn AMD die Latenz in den Griff kriegt, dann wird die Lücke noch Enger .. Oder meinst du Intel bringt dann mal eben 5,5Ghz Turbo Core? Auch Silizium ist irgendwann am Ende und die Technische Entwicklung zeigt eher, dass die maximalen Taktraten sinken.
Ach ja und die 3080Ti wird wohl mit PCIe 4.0 kommen, und könnte hier echt zum Flaschenhals werden für Intel.

@BosnaMaster
Intels Komplettes Portfolio ist 50-70USD zu teuer.. Aber es ist nicht mehr so Krass wie beim 8700K zu 9900K.. Da war es eben ein Rückschritt, den man nun endlich mal etwas bereinigt. Eigentlich müsste der 10900K der 10700K sein. Wenn man es ganz genau nimmt.
 
trane87 schrieb:
Auf dem Papier vielleicht in Ordnung, aber das ist kein gutes Produkt. [...]ie Prozis sind zu teuer, zu spät und kurz vor Zen 3 ein Abfallprodukt.
Gar nichts bringen wäre viel schlimmer gewesen. Intel kann nicht zaubern, muss aber allein schon für die Shareholder zeigen, dass es weiter nach vorn geht.

Das Ergebnis sehen wir hier. Ganz oben geprügelt bis nix mehr geht und in der Mitte konkurrenzfähig und - wichtig - vor den Produkten der Vorgänger-Iteration.

Die OEM dürft ihr auch nicht vergessen dabei. Da kommt jetzt immer mehr mit Chips von AMD. Da war Intel schlicht im Zugzwang und bis Zen3 warten wäre fatal gewesen. Das Zeitfenster für Comet Lake ist halt nicht allzu groß. Human Maleware ist da mit Sicherheit auch keine Hilfe. Also wird gepusht was irgendwie geht.
 
KlaraElfer schrieb:
Für Leistungsaufnahmemessungen besser woanders schauen, die hier sind irreführend. Cinebench ist schon ein sehr starkes Lastszenario, Prime 95 ist irrelevant.
https://www.pcgameshardware.de/Core...-Lake-10600K-Benchmarks-Review-Specs-1349507/

Kaum mehr Verbrauch als die AMD Riege in der Praxis. Das ist völlig in Ordnung so.

Anhang anzeigen 921393

"In der Praxis ist die Luft aber dünn. Kein Wunder, liegt der All-Core-Turbo doch bereits bei 4,9 GHz und in den meisten Anwendungen über 200 Watt Verbrauch. "
@Volker
Habt ihr denn den Verbrauch auch in Anwendungen gemessen?
Wenn die games die Kerne mal brauchen siehts anders aus😂
 
  • Gefällt mir
Reaktionen: Öcher Tivoli
Im Endeffekt schneidet die CPU imo noch relativ gut ab. Das Problem ist halt der Fertigungsprozess.
Der größte Nachteil neben dem Verbrauch, ist imo die spezifikationstechnisch alte Plattform.
 
Der i9-10900K ist meinen Augen nicht der spannenste Prozessor von Intel sondern der Core i7-10700KF - preislich viel interessanter. Auf Tests von diesem Prozessor bin ich gepannt, wie er sich im Vergleich zum AMD 3700X / 3800X schlägt.
 
  • Gefällt mir
Reaktionen: howdid und Rockstar85
HerrRossi schrieb:
Welche Grafikkarte limitiert denn nicht in UHD? Die würde ich gerne kaufen! Meine 2080ti limitiert mich zB. in RDR2 @UHD ganz massiv und das, obwohl ich die Settings nicht auf Ultra stelle. Wenn ich solche Spiele zocke, dann will ich persönlich auch was für's Auge geboten bekommen, sonst kann ich mir das teure Geraffel auch sparen. Auch in GTA5 limitiert mich der 3900X in UHD nicht, auch da ist die Grafikkarte der limitierende Faktor. Bei Spielen wie Anno oder Civ mag das anders sein, das kann ich aber nicht testen, da ich diese Spiele nicht spiele.

Es ist doch völlig absurd, das Spiel so einzustellen, dass mich die CPU limitiert und das Spiel dann mega-hässlich aussieht, ich will doch die teure GPU voll ausnutzen.

nochmal. du bist selbst dafür verantwortlich ob es limitiert oder nicht. NICHT die CPU


und wer hat was von mega hässlich gesagt?

wenn din 3900x in gta nicht limitiert liegt das daran das deine GPU limitiert.


aber das ist ja auch deine sache. keiner zwingt dich dazu
Ergänzung ()

papa_legba schrieb:
@Scrush Der Punkt ist die meisten hängen im GPU Limit. Und wenn kein Geld für eine GPU da ist, dann erst recht nicht für einen neue Plattform mit Mobo/CPU und schon gar nicht wenn sie so überteuert ist. Nicht nur in der CB Blase denken. Hier ist der PC das Hobby Nr.1, aber da draußen nicht. Da wird nicht als erstes Geld für den PC ausgegeben. Und ob 80 oder 92 FPS interessiert da auch nicht so toll weil die meisten sowieso auf FHD 60Hz sind.

du kannst aber eine cpu nicht beurteilen wenn du sie von deinem budget abhängig machst.

und wenn die mehrheit nur 60hz panel hat, ist das deren problem.

Ergänzung ()

Wadenbeisser schrieb:
@Paddy0293

Bei mir ist das noch schlimmer da ich Qualität der Quantität deutlich vorziehe. ;)
Was bringen mir ach so viele FPS wenn dadurch die Grafik Qualität leidet?
Also baller ich rauf was an für mich akzeptablen Frameraten geht und hänge damit immer im massiven GPU Limit. :D
Bei meinem Gaming Anspruch ist die CPU das mit Abstand unwichtigste am System.
richtig, was für DICH akzeptable frameraten sind. und da hörts dann schon auf.


es ist deine entschiedung ob duwas von dem cpu limit merkst oder nicht.

wenn du auf ultra knallen willst, dann tue es aber bilde dir dann bitte kein urteil bzgl einer cpu.
 
Zuletzt bearbeitet von einem Moderator:
dragnod0 schrieb:
Doch, verstanden habe ich dich schon. Allerdings zahlst du bei Nvidia dafür auch kräftig drauf.
Du tuhst so als müsste man bei AMD Produkten erst mal Tagelang optimiren bevor alles optimal läuft.
Da das nicht so ist, ist dein Argument eher fadenscheinig.
Bevor du mir das vorwirfst ... nein ich bin kein AMD Fanboy. Ich hatte lange Zeit eine Intel/Nvidia Kombi im Rechner weil dort die Leistung stimmte im gegensatz zu AMD.
Bei Nvidia bekommst du aber auch den NVenc, der jeden Ryzen und Intel in HEVC hinter sich lässt. Das ganze auch noch zweimal in einer parallel Session bei nicht einmal 100W. Man sticht also in der Intel/Nvidia Kombi in üblichen Aufgaben wie Videoenkodierung, Streaming und dann noch Gaming ein reines AMD System in erhobenen Maße aus. Wenn man bereit ist die Möglichkeiten auszuschöpfen und sich nicht resistent dagegen wehrt.
Also eine moderne Nvidia Karte würde ich AMD aktuell immer vorziehen, denn der Mehrwert und das overall Package sind mir 100-200€ Aufpreis wert.
 
  • Gefällt mir
Reaktionen: adAstra, squadric, .Sentinel. und 2 andere
Zurück
Oben