Bericht Intel Comet Lake-S: Core i9-10900 kommt mit zehn Kernen ab $422 im Mai

maxpayne80 schrieb:
Wer es sich in den Rechner baut hat sich entweder nicht informiert, ist fanboy oder ist bereit, für 5% mehr Leistung in bestimmten Anwendungszenarien den - für die CPU - teilweise doppelten Stromverbrauch hinzunehmen

Gibt doch jetzt schon Szenarien, wo ein aktueller Intel 30% schneller ist, als ein aktueller AMDs. Wird sich bei mehr Cache, mehr Kernen und mehr Takt wohl nicht unbedingt ändern. Wie das gegen Ryzen 4000 aussieht, muss sich dann zeigen.

Auch wie der Verbrauch bei den eigenen Anwendungen wirklich aussieht, aber das interessiert ja immer keinen hier. Hier wird ja nur geschaut, was die CPU bei Cinebench oder in Prime braucht, was kein realistisches Bild für die meisten ist. Aber ja, es soll Leute geben, die einen höheren Stromverbrauch in Kauf nehmen, für mehr Leistung.

Zertruemmerdog schrieb:
wie geil hier die intel fanbois sich auf die 10% im gaming bei 720p einen keulen.
Das Intel wenig neues fabriziert hat die letzten Jahre ist einfach mal Fakt. Und wer hier einen 10 Kerner Intel einen 12 Kerner von Amd bevorzugt...Tja dem kann niemand helfen.

Tja, du zeigst leider das du anscheinend ein AMD Fanboy bist. Gibt genug sehr gute sehr genaue Betrachtungen zu der Gamingleistung. Z.B. von Digital Foundry. Gebencht in normalen Auflösungen (bis hin zu 4K) mit der genauen Betrachtung des Verhaltens im absoluten CPU Limit und nicht nur mit Durchschnittswerten.

Hier nur mal ein Beispiel. Crysis 3 läuft auf Ryzen ziemlich gut, dass Spiel kann nahezu beliebig viele Threads nutzen und im Durchschnitt nehmen sich die FPS auch fast nichts. Kommt man dann aber ins CPU Limit, dann kommen die doch teils deutlichen Unterschiede zu Tage. Hier beträgt der Leistungsunterschied 30% zwischen 3700x und 9700K in 1440p.

dfcrysis14.PNG


Ob das für dich relevant ist, muss jeder selbst wissen. Wenn ich 1000+ Euro für eine High End Grafikkarte ausgebe, einen Monitor mit hoher Refreshrate habe und Spiele das aufwändigste ist, was ich am rechner mache, dann ist ein Intel noch immer eine interessante Wahl. Die 10 Kerner bieten zudem noch mal ein gutes plus mehr Cache, was ja auch Zen 2 schon enorm geholfen hat in manchen Anwendungen.

Der 3900X ist eine nette CPU, bringt dir in einem Gamingrechner aber nicht viel. Nicht jeder Kern kann auf den vollen Cache zurückgreifen, die Latenzen steigen an, wenn Code über die zwei Dies hinweg ausgeführt wird und wirkliche Taktvorteile hat man auch nicht. Der Allcoretakt ist auch nicht viel höher, als bei den anderen kleineren Modellen, nur bringt das Plus an Kernen heute in fast keinem Spiel wirklich viel.

Beim 10990K kann jeder Kern auf den vollen L3 Cache zugreifen, es sind hohe Allcore Taktraten möglich, dass Plus in Gaming ist also nicht schlecht, wenn man es nutzen kann und in Anwendungen ist die CPU auch schnell. Beim 3900X bekommst du etwas mehr Anwendungsleistung beim 10900K mehr Gamingleistung. Wobei der 10900K auch in manchen Anwendungen gut abschneiden wird. Immer dann, wenn nur wenig Threads genutzt werden oder auch extrem, wenn eine Anwendung Quicksync Support anbietet.

Und ja Intel nutzt noch immer eine alte Fertigung und alte Architektur. Schlägt sich dafür aber nicht schlecht, muss ich sagen. Pro Kern Kern sind AMD und Intel halbwegs gleich auf, je nach Anwendung ist mal der eine, mal der andere schneller. Der einzige wirklich signifikante Unterschied liegt im Stromverbrauch. Da muss jeder selbst entscheiden, ob ihn das so sehr stört. Aber sagen wir so. Bei der RX480 und RX580 war das für viele AMD Fanboys ja egal, dass die karte viel mehr als eine 1060 verbraucht. Nun ist es aber das absolute Totschlagargument gegen Intel. Halt immer so wie es gerade passt :freaky:
 
  • Gefällt mir
Reaktionen: adAstra, moreno111, autoexe und 3 andere
Kasjopaja schrieb:
Naja, genaugenommen war der 9900K die Antwort auf den 2700X.
Das stimmt im Hinblick auf die technischen Daten und den Veröffentlichungszeitpunkt von 2700X und 9900K, aber nicht beim Preis. Eigentlich hatte Intel gar keine brauchbare Antwort für den 2700X.

Der 2700X kam im April 2018 für 329$ und unterbot damit den Startpreis seines Vorgängers 1800X von 499$ sehr deutlich. Der 9900K folgte als "Antwort" im Oktober zu einem Listenpreis von 488$, lag also fast 50% höher als der 2700X. Dazu kamen dann wegen der Engpässe Handelspreise von 600-700€, die zwischen die zwei Prozessoren eine derart große Preislücke risssen, dass sich jede Diskussion über eine "Antwort" erübrigte. Selbst der 9700K ohne HT kostete mit 400-500€ im Handel bei Listenpreis 374$ noch mindestens 25% mehr als der 2700X. Der Konkurrent im gleichen Preissegment nach Listenpreis blieb weiterhin der i7-8700.

Insofern wird erst Comet Lake das tun, was eigentlich schon Coffee Lake Refresh hätte tun sollen: Preislich in echte Konkurrenz treten. Der i7-10700 in seinen verschiedenen Ausprägungen konkurriert preislich mit R7-3700X/3800X in der 8C/16T-Kategorie, der i5-10400 steigt gegen den R5-3600/3600X bei 6C/12T in den Ring. Und zumindest das 8C/16T-Duell wird Intel wahrscheinlich sogar gewinnen. AMD muss dann bis zum Start von Ryzen 4000 wahrscheinlich wieder etwas mit dem Preis beim 3700X runter.

Nun kann man gerne kontern, dass Intel ja auch so alle Prozessoren problemlos verkaufen konnte, ja sogar Lieferengpässe hatte. Aber aus meiner Sicht als Anwender zieht das Argument nicht. Die Käufer sind größtenteils Gamer, denen der Aufpreis egal war und die für ein paar FPS mehr fast jeden Preis zahlen. Preisbewusste Anwender hat Intel hingegen zu Hauf an AMD verloren.
 
  • Gefällt mir
Reaktionen: yummycandy, Starkstrom und Rockstar85
Ich bin heiß auf nen 10-Kerner. Stellt sich wieder nur die Frage, welches starke Mobo nehmen, damit die CPU nen hohen Turboboost durchhält. Und die werden sicher 200 und mehr kosten, Standard.
Aber ich bin bereit.
 
  • Gefällt mir
Reaktionen: joxe
@Nixdorf

gut, dass du kein Verkäufer bist.

Die Leistung spielt für die wenigstens Käufer im Hardware Markt eine Rolle, so wie die Frage nach dem Fettwertgehalt des Brötchens beim Bäcker.

Schmecken soll es und satt machen.

Ein zu geringer Preis kann bei einem neuen Wettbewerber auch das Gegenteil von Vertrauen auslösen und bei extrem vielen Menschen wird AMD wieder (immer noch) als "neu" wahrgenommen.

Nicht alles, was schief läuft und schief gelaufen ist, kann man Intel ankreiden. Ihre Preispolitik als Kaufanreiz für AMD Produkte zu bezeichnen ist zwar nett gemeint, lässt aber nur tief blicken, was du von den Käufern hällst.

Lass sie doch, unterstütze den underdog und vertraue auf den Markt.

mfg

p.s.

Ich könnte auch sagen, niemand will, Chips die 1024 mal besser als 2010 sind im Jahr 2030 zu Preisen des Jahres von 2010. So funktioniert die Welt nicht und langsam sollte man auch darüber nachdenken, wo man wirklich 2030 oder gar 2040 bei aktueller Entwicklung landet.

Die Dinger sind krasser als Bomben. Nur halt auf intellektueller Ebene.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: The Azazil
Naja ich finde die ganze Turbo Geschichte eigentlich recht nervig. Also das zeitliche Limit dabei. Mir wärs lieber die hätten das fix. Aus auch nur Bauernfängerei wenn mans genau nimmt. Wenn ne cpu nur ne gewisse zeit einen turbo halten kann und dann unter einer minute, dann kann mans auch ganz sein lassen.

Hab das bei meinem gleich mal ausgemacht.
 
  • Gefällt mir
Reaktionen: cookie_dent
Hätte nie erwartet, dass sich die neuen Intel CPUs von Hause aus so viel Leistungsaufnahme genehmigen dürfen. Bin gespannt, wie viel die Enthusiasten noch oben drauf legen werden. Dauerbetrieb mit 300 Watt?
 
[wege]mini schrieb:
Ihre Preispolitik als Kaufanreiz für AMD Produkte zu bezeichnen
Ich habe überhaupt nichts als Anreiz bezeichnet. Kunden kaufen, was sie bezahlen können. Ich gehe schlichtweg davon aus, dass jeder Käufer mit einem bestimmten Budget an seine Systemplanung herangeht. Wenn man Anwender ist und im Herbst 2018 mit 1000€ Budget ein System geplant hat, dann fielen Intels Achtkerner schlichtweg hinten runter. Da musste man das Budget schon deutlich anheben, um ein ausgewogenes System bauen zu können. Mit einem 2700X war das hingegen damals gut möglich.
 
  • Gefällt mir
Reaktionen: Starkstrom
i7-5775C (4/8 C/T) übertaktet von 3.6 GHz (alle Kerne) auf max 4.2 GHz mit nur DDR3 1600 MHz, braucht auch keine 5.0-5.2 GHz um mehr als genug FPS zu liefern.
128 Cache ist die Lösung )))

Nix 720p low )

Hitman - i7-5775C 128 MB eDRAM (L4 Cache) (4.2_3.3_1.8 GHz Core_Cache_eDRAM).jpg

Deus Ex Mankind Divided - i7-5775C 128 MB eDRAM (L4 Cache) (4.2_3.3_1.8 GHz Core_Cache_eDRAM).jpg


Frametimes sind niedrig und sehr stabil.
RTX 2080 Ti Last ist über 95% in BF5 1440p max Details + Raytracing und DLSS.
Und das obwohl die CPU im absolutem Limit leuft, da "nur" 8 Threads.
 
Zuletzt bearbeitet:
cool and silent schrieb:
Hätte nie erwartet, dass sich die neuen Intel CPUs von Hause aus so viel Leistungsaufnahme genehmigen dürfen.
Na ja, so lange es 14nm-Technik ist, geht der Maximalverbrauch halt mit jeder neuen Prozessor-Generation mit mehr Kernen und höherem Takt weiter nach oben. Man kann auch nicht alles durch Prozessoptimierung lösen. Was Intel rettet, ist der Umstand, dass Normalnutzer die CPU eben nicht in einer Tour durch mit Volllast malträtieren.
 
Kasjopaja schrieb:
Naja ich finde die ganze Turbo Geschichte eigentlich recht nervig. Also das zeitliche Limit dabei. Mir wärs lieber die hätten das fix. Aus auch nur Bauernfängerei wenn mans genau nimmt. Wenn ne cpu nur ne gewisse zeit einen turbo halten kann und dann unter einer minute, dann kann mans auch ganz sein lassen.

Zumal Intel den Turbo Boost nun auch mit "bis zu" angibt, das hat man sich offensichtlich bei AMD abgeschaut.
Ich bin mal gespannt ob und wie lange die Dinger den beworbenen Turbo Takt halten werden.
 
Nixdorf schrieb:

Da hätte ich als Gamer ein 6Kern non HT System von Intel gekauft mit Graka.

Als user von vielen Freds hätte ich weder das eine, noch das andere gekauft und schon eine Weile den 1900x gestreichelt, der dann jetzt irgend wann ersetzt werden "müsste".

Man hätte aber auch beides kaufen können oder keines von beiden oder alles und ein Notebook. Jeder, wie er mag.

Leistung gibt es aktuell - auch vor allem Dank AMD - wieder im PC Markt für kleineres Geld und der nächste step, wird nicht kleiner werden.

Ob du dann A, B, C oder D kaufst (Samsung, Apple und Konsorten aka ARM wollen auch wieder mitspielen) ist egal.

mfg
 
[wege]mini schrieb:
Von meinem Standpunkt aus betrachtet sind beide unvernünftig.

6 Kerne Intel, 6 Kerne AMD, beide 65 Watt, beide 12 Freds. Hier wird Geld verdient.

Merkst du was...kosten beide gleich viel und wer das bessere Paket anbietet, ist streitbar.

mfg


Schön einfach aber dann eben falsch:

AMD:

3600: 65W TDP : 6/12T
3600X :95W TDP: 6C/12T

Intel:

Core i5-10600K: 125W TDP: 6/12T
Core i5-10600KF: 125W TDP: 6/12T
Core i5-10600: 65W TDP: 6/12T
Core i5-10600T: 35W TDP: 6/12T
Core i5-10500: 65W TDP: 6/12T
Core i5-10500T: 35W TDP:6/12T
Core i5-10400: 65W TDP: 6/12T
Core i5-10400F: 65W TDP: 6/12T
Core i5-10400T: 35W TDP: 6/12T

Und dass man Intel TDP und AMD TDP nicht gleichsetzen kann sollte sich mittlerweile auch rumgesprochen haben.

Also wenn du es selbst nicht merkst:

Du kannst nicht von dem 6 Kerner bei AMD sprechen und dem 6 Kerner bei Intel. Sag auf welche Produkte du dich konkret beziehst. Intel wird 9! 6 Kerner im Angebot haben. Wenn du von gleichem Preis und gleicher TDP (wobei man die bei Intel und AMD ja gar nicht vergleichen kann) sprichst dann kannst eigentlich nur den Core i5-10400F vs R5 3600 meinen und ich bezweifle, dass der Intel das bessere Paket bietet.



 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ahuev0, Hardwarious und DonL_
Wann gibts Boosttests? Wenn keine der CPUs nen hohen Takt lange halten kann, dann muss man doch selbst wieder ran und dann benötigt es die K Variante. Aber alles über 4Ghz bei 10 Kernen ist geil.
 
Esenel schrieb:
Oc 3200cl16 verglichen zu stock 4133cl17, dann in spielen lediglich 2%, in anwendungen widerrum größtenteils rückfällig.
Die rede war aber davon, dass stock 4266cl19 dann oc 3600cl14 deutlich schlägt.
Schließlich macht ja ram oc 80% der performance aus.
Beziehungsweise deine eigentliche aussage, dass ich falsch damit liege oc 3600cl14 vor stock 4266cl19 zu sehen.

Aber gut, mal davon komplett abgesehen, 2666cl15 auf 4133cl17 bringt 17% in spielen, oc bringt 8% - also selbst in nem best case szenario, anwendungen komplett aussen vorgelassen, sind wir bei 68%.

Sehe auch kein benchmarks, dass amd eben nicht mehr von ram oc profitiert als intel.
 
Supermax2004 schrieb:
@Kasjopaja: Es gibt doch sicher Mobos, die den Turbo eine lange Zeit lang erlauben quasi?!

Das weiß ich nicht. Ich hab bei meinem alle limits aufgehoben. Is ja abhängig von mehrere Faktoren. Aber es is halt die Tatsache das man das erst selbst umstellen muss. Aber mir wäre es prinzipiell lieber wenn cpus rauskommen wo festgelegt ist so und so viele kerne schaffen den takt, einer den und 4 den. Aber halt dann auch dauerhaft. Dann weiß auch der laie woran er is und muss sich nicht im nachhinein wundern warum die cpu im grunde macht was sie will und der takt der angegeben wird gar nicht erreicht wird.

Fängt ja schon an wie du sagst das man sich dann erst mal ein passendes mobo holen muss. Ich mein hallo?? Wenn die CPU auf den Sockel passt und kompatibel is, sollte sie auch so laufen wie gewünscht. Da gehört meiner Ansicht nach mehr Kontrolle rein oder meinetwegen strengere vorgaben damit die cpu auf jedem kompatiblen board auch 100% der Leistung abrufen kann und nicht künstlich beschnitten werden.

Aber es is ja die Tatsache das die versprochenen ghz nur für ein paar Sekunden anliegen. Bringt also im Endeffekt unter realen Anwendungen genau null. Wie einer geschrieben hat hier: Hält genau so lange wie ein bench run... was n witz.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hardwarious
[wege]mini schrieb:
Natürlich kauft jeder das Image. Daher existiert Werbung.

Danke. Ich komme ursprünglich aus dieser Industrie und habe sie deswegen unter Anderem verlassen. Wollte damit sagen: Wer technisch versiert ist ignoriert das Image und stützt sich auf aktuelle Daten.
 
  • Gefällt mir
Reaktionen: miro98, Starkstrom und Rockstar85
Shoryuken94 schrieb:

Wieder viele bla bla zu besseren Intel FPS und genau DA wird ein Screenshot cherrypicked, bei dem Intel kurz besser ist.

Ich kenn den Benchmark, finde das Video aber aktuell nicht. Gib doch bitte mal die Quelle an!

Ich erinnere mich, das es da auch Sequenzen gab, bei Intel garnicht so gut aussah.

GEFUNDEN. Digital Foundry.

Toll wie du ein Standbild als Screenshot hier genutzt hast bei dem 1s abgebildet wird.

Leider kackt die Intel CPU dafür und danach genauso ab wie der Ryzen hier und da.

In dem Benchmark hat Intel teilweise nur 80-86fps während der 3700X 100+ fps hat - aber das hat die nicht zur Argumentation gepasst oder?

Insgesamt gegebn sich die CPUs da die Klinke in die Hand und mal liegt Intel kurz vorn, mal AMD kurz an der Spitze. Im OVERALL ist der 9700k 3-4% schneller - sagt sogar der Reviewer.

Bei solchen biased Interpretationen bekomm ich echt das KOTZEN.

Aber warte - den Mumpitz kann ich auch abliefern!

cpu.jpg


Gleicher Benchmark, gleiches Video in 1080p getestet.

Man sieht ganz klar, dass der 9700k nicht die beste Gaming CPU ist - der 3700X liegt 14-15% vorn.

Merkste wie dumm dein Cherrypicking ist?

Und siehe da, unten im Graph liegt der 3700X sogar DAUERHAFT vor dem 9700k. Und nun?

Ein Game ( dazu ein sehr altes ) und eine winzige Momentaufnahme taugen nicht für eine gescheite Betrachtung.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Anker2310, miro98, Der Lord und 19 andere
Nixdorf schrieb:
Na ja, so lange es 14nm-Technik ist, geht der Maximalverbrauch halt mit jeder neuen Prozessor-Generation mit mehr Kernen und höherem Takt weiter nach oben. Man kann auch nicht alles durch Prozessoptimierung lösen. Was Intel rettet, ist der Umstand, dass Normalnutzer die CPU eben nicht in einer Tour durch mit Volllast malträtieren.

Kommt auf die Anwendung an, beim Spielen wird die CPU 100 Watt verbrauchen, beim Videoencoding oder Rendern kann es auch deutlich mehr werden, insbesondere wenn die Power Limits gegenüber den Intel-Standardsettings noch angehoben werden. Dann ist das Video 10% schneller fertiggerechnet aber mit dem doppelten Stromverbrauch.
 
Zurück
Oben