Bericht Intel Comet Lake-S: Core i9-10900 kommt mit zehn Kernen ab $422 im Mai

Also die erste Seite in diesen Thread ist echt geil, ich muss oft lachen, danke Jungs :daumen:


Einen Vorteil hat der i9 10900k, den irgendwie keiner erwähnt, man spart sich die Heizkosten im Winter, dass ist doch was wert :evillol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hayda Ministral
aivazi schrieb:
Bulldozer ?
Eher wie das Pentium 4 Dillema.
Sogar mit Derselben Marktmanipulation, zumindest gibt es keine Anzeichen gescheite Grakas in die Laptop zu implementieren geschweige den Top-Modelle in die Desktops zu verbauen in Kombination mit Grakas.

Alles ziemlich bescheiden obwohl hier alle Wissen, dass der Zehn-Kerner mindestens das doppelte vom 3900X verbrauchen wird. MINDESTENS. damit dieser gleichziehen kann.

Aber trotzdem wird dann die Lage die sein, dass der 10 Kerner von Intel in den Consumer Produkten verbaut wird um im Konkurrenz Desktop von AMD wird nur der 8 Kerner verbaut, damit der Intel PC besser dasteht.

Und auch hier wissen alle, dass der 10 Kerner mehr verbraucht als der 12 oder 16 Kerner von AMD und würde problemlos ins selbe Case bei einer schwächeren Kühllösung und einer kleineren Netzteil Dimensionierung hineinpassen.

Ich würde sogar so weit gehen und behaupten, dass der 10 Kerner in seinem Boost dem 3990X das Wasser reichen wird was den Verbrauch betrifft.

Diese Situation ist richtig absurd und die Korruption sitzt richtig tief, dass ist echt nicht schön anzusehen.
Absolut alles exakt wie vor ~15 Jahren :freak:

Und die ganze welt schaut zu, und die Organe die handeln könnten (Kartellamt) Schaut einfach zu und frisst Chips...Gut wer weis, vllt sind die auch geschmiert...eig muss man heute fragen wer nicht geschmiert ist außer ich :D
 
KarlsruheArgus schrieb:
😂 Selten so gut gelacht. Der gute 3900X spielt in den oberen 10% mit.
Denn dort ist ein 9900K 1% vor dem 3900X. Bei CB 7% 🙃

Ja wenn man nur im GPU Limit misst, dann ist es klar, dass man dem Leser sagt, dass man nette average FPS hat...und der wundert sich dann über FPS drops beim AMD.

Naja so viel bleibt ja auch nicht übrig wenn man 30 halbwegs aktuelle CPUs der letzten 5 Jahre in die Liste packt...9900K, 9700K, 9600K, 8700K, Ryzen 3xxx, 7700K..Intel HEDT X299/X99, .Ryzen 2000, Ryzen 1000 und dann noch die ganzen alten modelle...natürlch liegt er da weit oben, gibt ja nur 4 CPUs die schneller sind in Spielen, wenn man die Special Editions wie KS/8086 usw mal außen vor lässt. Ändert aber trotzdem nichts daran, dass ein Alltagssetup von jemandem der sich schlau macht auch mit billigem 3200er CL16 RAM 20-30% schneller ist ;-)

Wer viel im CPU Limit spielt, vor allen Dingen MP Shooter, wo noch Anti Cheats etc. im Hintergrund laufen, der braucht halt diese 20-30%, weil die AMD CPUs dann einfach zu lahm sind und nicht die 100 FPS liefern können wenns droppt. Wenn man halt normalerweise mit ~150-200 fps spielt und man drops hat, dann droppt der Intel halt noch auf 100 und der AMD gurkt bei 70-80 rum. Und zwischen 80 FPS und 100 FPs liegt ein Riesenunterschied in Shootern. Ich merke das schon wenn mein TFT wieder rumzickt und auf 85 hz umstellt, das geruckel fällt nach ner sekunde schon auf, dann bin ich froh über mehr jedes bisschen mehr Leistung im Limit und da hängt Intel AMD einfach deutlich ab, auch wenn die natürlich in den AVG FPS schon sehr gut geworden sind...aber AVG FPS interessieren einfach 0 wenn man keine Ruckler, unsauberes Mausgefühl oder Input Lag durch zu niedrige FPS haben will.
 
Zuletzt bearbeitet:
KarlsruheArgus schrieb:
Was interessantes ist das CB zwar durch die Cl14 Timings augenscheinlich ZEN2 bevorzugt aber im Vergleich zu PCGH zu einem größeren Leistungsunterschied zwischen Intel und AMD kommt obwohl PCGH alle CPUs mit cl16 testet. Denn dort ist ein 9900K 1% vor dem 3900X. Bei CB 7%

Bedenke bitte, dass PCGH mit Stock Werten testet, also wird dort höchstwahrscheinlich dem 9900K auch der Kragen beim Power Budget festgezurrt.
1588609401839.png


Dann liegen die Benchmarks doch nicht mehr so weit auseinander.
EDIT:
Wichtiger Hinweis: Wir haben beim Spitzenmodell Core i9-9900K die TDP auf die offizielle Angabe von 95 Watt im BIOS festgesetzt. Die beiden Modelle Core i7-9700K und Core i5-9600K halten sich an ihre TDP-Vorgaben, nur der große Achtkerner verbraucht - ohne händische Begrenzung - knapp das Doppelte. Damit steigt zwar ebenfalls die Leistung, jedoch wären die Ergebnisse für einen genormten und möglichst objektiven Test unbrauchbar. https://www.pcgameshardware.de/Coff...i7-9700K-i5-9600K-Review-Benchmark-1267040/2/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grimey
Macht euch über den eventuellen Mehrverbrauch beim 10900K mal keine Sorgen, die Differenz macht der Ryzen-Normaluser mit einem 3900X/3950X (Gesamtsystem je nach Grafikkarte um 80W im idle, beim 9900K etwa 30-40W) schon im Schnitt mit (viel längerem) Idle-Betrieb über das Jahr gerechnet wieder wett.
 
@gunmarine
Es wäre schön, wenn man neutral diese Behauptungen auch mit offiziellen Zahlen renommierter Seiten beweisen könnte, sonst liest sich dein Beitrag wie ein Haufen Fanboy-Blabla inklusive erfundener Zahlen und wild formulierten Schlussfolgerungen. Die mir bekannten 720p-Benchmarks vertrauenswürdiger Seiten widersprechen deinen Zahlen.
 
gunmarine schrieb:
Ja wenn man nur im GPU Limit misst, dann ist es klar, dass man dem Leser sagt, dass man nette average FPS hat...und der wundert sich dann über FPS drops beim AMD.
? Was hat das mit meinem unvollständig zitierten Zitat zutun ? PCGH bencht in 720p !
 
Ja aber der verbraucht doch 10W mehr beim Zocken? :D ich bekomm noch Geld zurück, das Teil zieht weniger als mein 5960X mit 500+ Zocken und 180W idle :D
Ergänzung ()

BookerDeWitt schrieb:
@gunmarine
Es wäre schön, wenn man neutral diese Behauptungen auch mit offiziellen Zahlen renommierter Seiten beweisen könnte, sonst liest sich dein Beitrag wie ein Haufen Fanboy-Blabla inklusive erfundener Zahlen und wild formulierten Schlussfolgerungen. Die mir bekannten 720p-Benchmarks vertrauenswürdiger Seiten widersprechen deinen Zahlen.

RAM OC bei Intel Artikel + Kommentare mit verlinkten ytb videos wo der Stutter aufgezeigt wird wo zb. der Intel noch 80 FPS drückt und der 3900X bei 60 gurkt. Ganz ohne Wasserkühlung und auch ohne teueren RAM. Dementsprechend muss ich mich dafür nicht mehr rechtfertigen wenn der nächste wieder an kommt und mein das wäre quark. Geht halt aufn Zeiger wenn es jedes mal wer anders schafft schlecht informiert zu sein. Bei 60 HZ Office TFTs kanns ja egal sein ob Intel oder AMD, bei 120/144 hz TFTs die es seit 12 Jahren gibt oder VR ist es das halt nicht.
 
Zuletzt bearbeitet:
xexex schrieb:
Dann liegen die Benchmarks doch nicht mehr so weit auseinander.
Es passt trotzdem nicht da der Intel bei PCGH trotzdem besser abschneiden würde.
CB bencht in 1080p bei CL14 und PCGH in 720p bei CL16 und trotz dessen das der ZEN2 bei PCGH deutlich weniger bevorzugt wird ist der Unterschied nur bei einem Prozent. Selbst mit deinem Argument ist der Intel bei CB mehr als 2% vor dem 3900X obwohl in 1080p gebencht wurde.
 
Du kapierst nicht, dass der Benchmarkparkours extrem im GPU Limit abgelaufen ist. Da kannst du noch so viel tweaken und benchen, wenn du fast keine Szenen dabei hast wo die CPU im Limit läuft. Dementsprechend sagt der Bench nur was über die AVG FPS aus, mehr nicht und 0,0 was die CPUs leisten wenn es eng wird.

Das siehst du spätestens dann, wenn du Spiele dabei hast wo 30 CPUs 5% max. auseinander liegen, hab ich schon öfters erlebt, auch auf deutschen Seiten. Dann kann mich mir das auch sparen und Blobby Volley und Moorhuhn benchen. Wer dann meint anhand solcher schlechter Parkours sein Fazit ziehen zu können, sollte seine Arbeitsweise mal gehörig überdenken weil es einfach nur unprofessioniell ist, dann hätte auch der Azubi bei der Bild die CPUs testen können.

Je weiter die CPUs auseinander liegen, gerade wenn du extrem starke CPUs wie den 9900KS dabei hast siehst du halt einfach momentan daran, wie deutlich der Abstand der CPUs ist. Je größer der Abstand zwischen Intel und AMD um so mehr wurde in den Spielen im CPU LImit gebencht und desto weniger im GPU Limit. Und dann weisst du auch wie du die Qualität und Aussagekraft dieses Tests einordnen kannst.
 
Zuletzt bearbeitet:
KarlsruheArgus schrieb:
Selbst mit deinem Argument ist der Intel bei CB mehr als 2% vor dem 3900X obwohl in 1080p gebencht wurde.

Man sollte sich da schlichtweg nicht auf einen Prozent festbeißen, auch wenn es manche immer wieder tun.
1588610358484.png


Die Auswahl der Spiele ist anders, das Testsystem ist anders usw. Wenn du auf 10 verschiedenen Seite dir die Berichte anschaust, wirst du in gewissen Grenzen auch 10 verschiedene Ergebnisse finden.

Dort ist zum Beispiel der 3700x dafür komplett abgeschmiert, hier nicht. Alternativ stimmt dort mit dem Ergebnis vom 3900X irgendwas nicht.
 
Fireplayer schrieb:
Was mich neben den neuen CPUs von Intel eig noch nervt , ist das ich immer einen neuen Sockel brauch. Das ist doch Geldmache, wieso bekommt es AMD hin mit einem Sockel mehrere CPU Generationen zu versorgen?

Wie oft hast Du (Du als Person) denn bereits bei gleichem Mainboard die CPU-Generation gewechselt?
 
  • Gefällt mir
Reaktionen: sLgFiRE
gunmarine schrieb:
Du kapierst nicht, dass der Benchmarkparkours extrem im GPU Limit abgelaufen ist.
Bei PCGH ? Also bei dem Leuten die tatsächliche versuchen ein CPU Limit mit 720p und LOW Settings zu provozieren.
Das einzige was in den Benchmarks aufgedreht wird sind die Texturen und diese haben keinen nennenswerten Einfluss auf ein mögliches GPU Limit.

xexex schrieb:
Wenn du auf 10 verschiedenen Seite dir die Berichte anschaust, wirst du in gewissen Grenzen auch 10 verschiedene Ergebnisse finden
Ich hätte bloß gerne einen deutlichen Unterschied zwischen 1080p und 720p gesehen. Vor allem deshalb weil CB deutlich näher am GPU Limit bencht als PCGH.
 
gunmarine schrieb:
Ja wenn man nur im GPU Limit misst, dann ist es klar, dass man dem Leser sagt, dass man nette average FPS hat...und der wundert sich dann über FPS drops beim AMD.

Naja so viel bleibt ja auch nicht übrig wenn man 30 halbwegs aktuelle CPUs der letzten 5 Jahre in die Liste packt...9900K, 9700K, 9600K, 8700K, Ryzen 3xxx, 7700K..Intel HEDT X299/X99, .Ryzen 2000, Ryzen 1000 und dann noch die ganzen alten modelle...natürlch liegt er da weit oben, gibt ja nur 4 CPUs die schneller sind in Spielen, wenn man die Special Editions wie KS/8086 usw mal außen vor lässt. Ändert aber trotzdem nichts daran, dass ein Alltagssetup von jemandem der sich schlau macht auch mit billigem 3200er CL16 RAM 20-30% schneller ist ;-)

Wer viel im CPU Limit spielt, vor allen Dingen MP Shooter, wo noch Anti Cheats etc. im Hintergrund laufen, der braucht halt diese 20-30%, weil die AMD CPUs dann einfach zu lahm sind und nicht die 100 FPS liefern können wenns droppt. Wenn man halt normalerweise mit ~150-200 fps spielt und man drops hat, dann droppt der Intel halt noch auf 100 und der AMD gurkt bei 70-80 rum. Und zwischen 80 FPS und 100 FPs liegt ein Riesenunterschied in Shootern. Ich merke das schon wenn mein TFT wieder rumzickt und auf 85 hz umstellt, das geruckel fällt nach ner sekunde schon auf, dann bin ich froh über mehr jedes bisschen mehr Leistung im Limit und da hängt Intel AMD einfach deutlich ab, auch wenn die natürlich in den AVG FPS schon sehr gut geworden sind...aber AVG FPS interessieren einfach 0 wenn man keine Ruckler, unsauberes Mausgefühl oder Input Lag durch zu niedrige FPS haben will.

Ich spiele MP Shooter, wie Rainbow six, CS GO, Pubg, Warzone, Rising Storm1/2, Arma 3 und Co, ich kann deine Behauptung nicht bestätigen, ich hab ein ryzen 3700x und einen 240 hz Monitor und versuche immer 240FPS zu halten, meist schafft es aber dir RTX 2070s nicht!
Du musst es ja am besten wissen, mit dein Intel 5960x wie spiele mit ein Ryzen laufen.

Mit dir diskutieren macht ja eh kein sinn, da eh sowas wie hier am ende kommt

https://www.computerbase.de/forum/t...core-performance.1941901/page-4#post-24066969

komplett Realität fern!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aldaric und KarlsruheArgus
Stimmt, wenn selbst der 9900K im Bootcamp oder Paradise @ PUBG FPS drops hat bis das halbe Bootcamp tot ist, kann ich es mir ganz bestimmt nicht vorstellen. Selber schon am PC vom Kumpel beobachtet und da gibt es auch diverse Ytb. Videos davon...auch wenn die Drops manchmal nur in den ersten 20-30 Sekunden sind, will ich da einfach mehr CPU leistung haben weil das schon entscheiden kann ob ich sauber aimen kann oder nicht. Ergo schau ich vllt eher drauf wie die CPUs wirklich im CPU Limit reagieren ;-) Und es ist ja nicht nur 1 Spiel wo diese Unterschiede aufgezeigt worden sind nicht? ;-)

Und der eine muss halt noch irgenwie kapieren wie er grad spielen muss und der andere weiss wie er spielen muss und bekommt die drops dann halt mit ;-)

Aber ja, wenn der Beitrag realitätsfern ist, dann ist dir auch nicht mehr zu helfen. Anscheinend ist es ja für dich Gang und Gäbe deine CPU alle 2 Jahre zu wechseln, weil der alte zu langsam ist und dass Nvidia prozentual mehr Leistung pro Gen bringt als Intel ist wahrscheinlich auch an den Haaren herbei gezogen und widerspricht den letzten 3 Generationen dann deiner Meinung nach auch komplett. Wenn von der CPU Seite aus pro gen immer nur 10% Gaming Leistung dazu kommen, von der GPU Seite aus aber 30% dann landet man halt irgendwann an dem Punkt wo die CPUs hinterher hinken. Die Grundleistung die Sandy Bridge an den Tag gelegt hat gilt halt jetzt nicht mehr weil die GPUs viel stärker geworden sind pro Gen als Intel pro Gen dazu geholt hat. Mein 5960X bekokmmt halt ne 980 ti perfekt ausgelastet, auch ne 1080 ti macht er noch gut, aber die 2080 ti wäre schon overkill für mein System und das ist die Top CPU von vor 5 Jahren, die erst vom 8700K im Mainstream abgehängt wurde und selbst Ryzen 2000 langsamer in Spielen ist als mein OC System.
 
Zuletzt bearbeitet:
Ich hab sogar extra mal meine CPU His in die Sig reingepackt, bis jetzt stehen da 5 Intel und 5 AMD CPUs, es wird halt das gekauft was momentan vorne liegt und bei den jetzigen Abständen gibts es keinen Grund für mich zu AMD zu greifen ;-) Also wirds die 6. Intel CPU....Darf sich gerne ändern mir ist das latte ;-) Nur muss AMD erstmal was abliefern im Mainstream wie den Athlon X2 oder ne Radeon 9800 Pro und nicht so ne halbgare Kost wie jetzt ;-) Sollte AMD wider erwarten 20-30% mehr Gaming Leistung raus bringen (auch schon im CPU Limit, avg interessiert mich ja bekannterweise nicht) als der 10900K verkauf ich halt die Sachen im Winter wieder, aber das wird eh nicht passieren ;-)
 
gunmarine schrieb:
Ich hab sogar extra mal meine CPU His in die Sig reingepackt, bis jetzt stehen da 5 Intel und 5 AMD CPUs, es wird halt das gekauft was momentan vorne liegt und bei den jetzigen Abständen gibts es keinen Grund für mich zu AMD zu greifen ;-) Also wirds die 6. Intel CPU....Darf sich gerne ändern mir ist das latte ;-) Nur muss AMD erstmal was abliefern im Mainstream wie den Athlon X2 oder ne Radeon 9800 Pro und nicht so ne halbgare Kost wie jetzt ;-) Sollte AMD wider erwarten 20-30% mehr Gaming Leistung raus bringen (auch schon im CPU Limit, avg interessiert mich ja bekannterweise nicht) als der 10900K verkauf ich halt die Sachen im Winter wieder, aber das wird eh nicht passieren ;-)

Mal ne frage, wieso kauft man sich ein i9 10900k? Der i9 9900k bzw der i7 9700k wären für Gaming die bessere Wahl gewesen und für Anwendung sollte man doch lieber zu ryzen greifen, ein auf Anschlag übertaktet 10c, der bestimmt mehr als 250w frisst, ist einfach nur ein ding, für Richtige Intel Fanboys ^^
 
Zuletzt bearbeitet:
happylol schrieb:
Mal ne frage, wieso kauft man sich ein i9 10900k?

Die Frage ist doch eher woher er die hat. Die 10900k steht noch gar nicht zum Verkauf. 🥴
 
  • Gefällt mir
Reaktionen: xexex
Tronado schrieb:
Macht euch über den eventuellen Mehrverbrauch beim 10900K mal keine Sorgen, die Differenz macht der Ryzen-Normaluser mit einem 3900X/3950X (Gesamtsystem je nach Grafikkarte um 80W im idle, beim 9900K etwa 30-40W) schon im Schnitt mit (viel längerem) Idle-Betrieb über das Jahr gerechnet wieder wett.

Du erwähnst aber nicht, dass dieser Wert nur für X570 Mainboards gilt und zumeist an PCIExpress4 liegt.
Da Intel das nicht bietet, ist die Leistungsaufnahme der Boards auch geringer und ein genauer Vergleich nicht möglich. Mit einem B450/X470 Board ist die Leistungsaufnahme im idle dann auch deutlich geringer. Zwischen Top X570 Boards und eeinem X470 können im idle bis zu 15W Differenz liegen und dann nur noch ein paar Watt über einem I9900K.

https://www.extremetech.com/computi...aws-so-much-power-its-warping-cpu-comparisons

Achja, "Normaluser" haben i.d.R. keinen 3900X oder gar 3950X.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wintermute
Zurück
Oben