Bericht Intel Comet Lake-S: Core i9-10900 kommt mit zehn Kernen ab $422 im Mai

KlaraElfer schrieb:
Gerade du müsstest es besser wissen, weil du laut deinen Angaben an der Quelle sitzt und Listenpreise kennst.
Tatsächlich machst du aber desöfteren Angaben die ich nicht nachvollziehen kann, so auch hier.
10 Kerne gibt es ab 422 Dollar, das bedeutet bei guter Lieferbarkeit wird die CPU nicht mehr als ein 3900x kosten, eher weniger, weil der Euro stärker ist und die UVP fällt, Händler bekommen die CPUs günstiger...

Die Händler verlangen das was sie verlangen können, egal was sie selber im Einkauf zahlen. Die Preise werden die ersten Monate sicher nicht fallen, eher lange über der UVP bleiben. Genau wie bei CoffeeLake Refresh. Denn die Verfügbarkeit dieser wird mit Sicherheit bald eingeschränkt. Ein Überangebot somit ausgeschlossen und bei Intel derzeit eh nicht denkbar.
 
  • Gefällt mir
Reaktionen: Smartbomb, USB-Kabeljau, Col.Maybourne und 2 andere
Postman schrieb:
Sind denn die Sicherheitslecks endlich weg?
nicht nötig, die werden bei >250W ohnehin zugeschweisst
 
  • Gefällt mir
Reaktionen: Smartbomb, Kuba, Apfelsch0rle und 24 andere
Ich würde gerne Temperaturen Benchmarks zu dieser 10th Gen Intel CPU's vs AMD Zen 2 & Zen 3 sehen wollen, den ich bezweifle das die Intel CPU's einfach zu kühlen sind und geschweige den das Ergebnis mit einem Stock cooler vergleich zwischen blau und rot...:evillol:

Meiner Meinung nach werden die Preise zusätzlich nach unten gedrückt, da man einen sehr sehr guten CPU-Kühler/Lüfter benötigt auf Intels Seite, aber mal schauen ob die Preise wirklich niedriger ausfallen werden.
 
Vor allen Details zu Performance usw.:
Welche Aussage trifft Intel zu Meltdown, Spectre, Foreshadow/L1TF. Welche HW-Fixes sind dafür dabei?

Die Betrachtung fehlt. Insbesondere wo alle CPU's HT haben und die Rechenzentren mit aktuellen Intel Xeons dieses aus Sicherheitsgründen ausschalten?!
 
  • Gefällt mir
Reaktionen: Smartbomb, Tuklem, Cruentatus und 4 andere
Bin ich blind oder steht nirgendwo im Artikel etwas zur ANzahl der PCIe-Lanes? Ist das etwa wider so ein Krüppel-System, mit dem man neben einer Grafikkarte keine weiteren PCIe-Devices sinnvoll anbinden kann??
 
  • Gefällt mir
Reaktionen: Matthias80
Pana schrieb:
Bin ich blind oder steht nirgendwo im Artikel etwas zur ANzahl der PCIe-Lanes? Ist das etwa wider so ein Krüppel-System, mit dem man neben einer Grafikkarte keine weiteren PCIe-Devices sinnvoll anbinden kann??
Gerüchteweise sind 40+ neue Pins für entsrpechende Bandbreiten dazugekommen die aber wohl nicht mit Gen 10 sondern erst mit der Folgegeneration für den Sockel genutzt werden sollen. Daher gehe ich entsrpechend der Gerüchte davoin aus, dass die reine Anzahl der Lanes bei Gen 10 dieselbe wie vorher bleibt.

Kurze Korrektur bzw Ergänzung
1588257102495.png
 
  • Gefällt mir
Reaktionen: Smartbomb, derSafran, USB-Kabeljau und eine weitere Person
Esenel schrieb:
Selbst nen 9900K auf 5.2GHz All Core und komplett offen bewege ich nicht über 115W Peak in Spielen.
Du bist der Profi für Intel :daumen:

Ich kenne das nur vom Laptop mit 8750H , und da wird auch bei eher mäßiger CPU Auslastung beim Spielen das PL nach 28s gesenkt........und die CPU verbraucht trotzdem ziemlich viel(ohne die undervolting anpassungen), da der höhere Boost(verglichen mit allcore) ja auch mit überproportional höherer Spannung einhergeht.

Vermutlich habe ich das für den Desktop Bereich falsch eingeschätzt.
 
Pana schrieb:
Bin ich blind oder steht nirgendwo im Artikel etwas zur ANzahl der PCIe-Lanes? Ist das etwa wider so ein Krüppel-System, mit dem man neben einer Grafikkarte keine weiteren PCIe-Devices sinnvoll anbinden kann??
Ja, der8auer hat es angesprochen
 
KlaraElfer schrieb:
Erst einmal muss der Strombedarf unter verschiedenen Lastszenarien vermessen werden und nein, der orientiert meist nicht an den Maximalwerten.
...........
Kommt darauf an, was du testest. In Spielen, Idle, Teillastszenarien oder Cinebench wirds nichts werden.
Ich empfehle 24/7 Prime 95.;)

Im Bezug auf Netzeil Dimensionierung ist die Teillast jedoch Absolut irrelevant und das Betrifft explizit OEMs.
Dort sollte man schon den Maximalen Peak betrachten und das Netzeil entsprechend dimensionieren.
Wenn die CPU 300 Watt ohne Einschränkungen ziehen kann sollte es das Netzteil auch liefern können.
Und mmn. sind 250 Watt Spitzenlast Absolut nichts was man vernachlässigen darf.
dh. OEMs werden mit Garantie daran schrauben, dass die CPU höchstens 200 oder 150 Watt verbrauchen darf und dadurch werden massive Abweichungen im Vergleich zu offiziellen Tests hervorkommen und teilweise geringere Geschwindigkeiten, sobald der PC mehrere Tasks im Hintergrund bearbeitet und der Boost nicht gescheit greifen kann, wegen dem Powerlimit.

Damals war der Athlon in Spielen schneller und hatte viel mehr IPC.
Man darf das auch nicht komplett auf die Goldwaage legen,

Zudem hat auch AMD aktuell die höhere IPC (Wie könnte sonst ein 4,5 GHz Kern mit einem +5 GHz Kern mithalten)und Intel ist im Schnitt höchstens 10% schneller, aber nur gesondert in Singleplayern. Ansonsten haben sie nur noch einen Vorsprung von einem Messfehler.
Jedoch hatte Intel selbst damals unter Vollast keinen so hohen Verbrauch wie die heutigen Intels.
 
  • Gefällt mir
Reaktionen: Smartbomb, DannyA4 und Rockstar85
Das klingt interessant, bin schon auf die ersten Tests gespannt.
Vorallem was die an Strom durchlassen werden.
 
just_fre@kin schrieb:
Möchte mal wissen, was daran "sweet" sein soll und wo da aus "allen Rohren gefeuert" wird.

Wie hoch ist denn der Stromverbrauch unter Gaming-Last?
Wenn der da 40 Watt mehr als ein 3900x zieht, aber 20% mehr leistet, dann kann man es doch lassen.
Du kannst doch ein Produkt nicht nur nach dem theoretischen Maximalverbrauch bewerten.:confused_alt:
 
Ich bin mal gespannt, ob man damit wieder eine sinnvolle Alternative zum Ryzen 3600 hat, der aktuell zurecht weggeht wie warme Semmel.

Mit dem i5-10600 hätte man bspw. eine 6C/12T, die wohl die Leistung eines 8700 hat und somit auf Augenhöhe des 3600. Kommt wohl alles auf den Preis an - mit 213 $ ist man zwar deutlich erschwinglicher geworden, aber zum Relese wohl auch noch ein gutes Stück teurer.
 
  • Gefällt mir
Reaktionen: Rangerkiller1
IIxRaZoRxII schrieb:
Intel für Spieler erste Wahl? In was 480p alles was vernünftige Auflösungen sind zieht amd jetzt schon mehr als deutlich davon

wenn du nicht mit jeder neuen GPU gen die CPU mittauschen willst, dann nimmst du Intel
 
  • Gefällt mir
Reaktionen: tidus1979
KlaraElfer schrieb:
Wie hoch ist denn der Stromverbrauch unter Gaming-Last?
Wenn der da 40 Watt mehr als ein 3900x zieht, aber 20% mehr leistet, dann kann man es doch lassen.
Du kannst doch ein Produkt nicht nur nach dem theoretischen Maximalverbrauch bewerten.:confused_alt:
Naja kommt auf deine Grafikkarte und Auflösung an. Spielst du mit ner 2080TI LoL in FullHD wird der 10900K wohl deutlich schneller sein.

Spielst du Triple-AAA Titel mit einer 2060 wird es s* egal sein.

Und wenn du wie ich ne 1080TI drin hast und auf WQHD spielst dann ist es egal ob 9900k oder 3900x oder 10900k (vermutlich) da die Grafikkarte in Triple-AAA Titeln limitiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, eXe777 und Rockstar85
gunmarine schrieb:
wenn du nicht mit jeder neuen GPU gen die CPU mittauschen willst, dann nimmst du Intel

Unfug. Die CPU Leistung lässt sich nicht auf andere Spiele in der Zukunft übertragen. Das ist eine reine Momentaufnahme was CPU X in Spiel Z leisten kann. In einem künftigen Spiel Z2 kann das schon anders aussehen, denn Engines entwickeln sich weiter. Die reine Intel-Optimierung bröckelt immer weiter und es wird mehr für Zen mitoptimiert.
 
  • Gefällt mir
Reaktionen: Smartbomb, Hatch, KarlsruheArgus und 9 andere
KlaraElfer schrieb:
Tatsächlich machst du aber desöfteren Angaben die ich nicht nachvollziehen kann, so auch hier.

Wenn ich mir die Listenpreise und Marktpreise zum Start neuer CPUs anschaue hat er doch recht, oder nicht?

1588257340279.png


Das erste mal unter 500 Euro ging der im April 2019 also grob ein halbes Jahr nach Release.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Apfelsch0rle, CableGuy82 und 8 andere
KlaraElfer schrieb:
Wie hoch ist denn der Stromverbrauch unter Gaming-Last? Wenn der da 40 Watt mehr als ein 3900x zieht, aber 20% mehr leistet, dann kann man es doch lassen. Du kannst doch ein Produkt nicht nur nach dem theoretischen Maximalverbrauch bewerten.:confused_alt:

Das tue ich ja auch nicht. Es ist ein Faktor von Mehreren, wenn du nochmal zurück auf meinen Post gehst, siehst du ja die Aufzählung.
 
aivazi schrieb:
Im Bezug auf Netzeil Dimensionierung ist die Teillast jedoch Absolut irrelevant und das Betrifft explizit OEMs.

So kann man der eigentlichen Diskussion auch aus dem Weg gehen.^^

aivazi schrieb:
Wenn die CPU 300 Watt ohne Einschränkungen ziehen kann sollte es das Netzteil auch liefern können.

Sicherlich, man sollte da definitiv das Netzeil entsprechend dimensionieren.
 
muzafferamg58 schrieb:
Bis die Prozessoren verfügbar sind mit normalen Preisen, ist schon fast Zen 3 draussen und der 12 Kern 3900X kostet dann wohl 380-400€

und der kommt immer noch nicht an nen 9900K dran. + 5.3 allcore oc sind bei mir von der kühlung kein Problem und die 4000er gebinnten B Dies liegen schon hier.
 
duskstalker schrieb:
zen 3 wird ipc, takt, ramtakt, IF takt und topologieverbesserungen mitbringen. man muss sich nur mal vorstellen, was zen2 mit 30ns weniger latenz reißen würde. takt und latenz sind die zwei größeren schwächen von zen2, und amd wird schon wissen, wo man da ansetzen kann.
Ich denke auch, dass sie wissen, was sie verbessern müssten....aber Spiele sind halt nicht ihr Entwicklungsziel, auch wenn sie das immer gerne behauptet haben(Lisa Su:"We love PC-Gaming!") und gerade die Spieler ihnen die ganzen CPUs abkaufen....im Server Markt sind sie, trotz noch größerer Dominanz ihrer Produkte, immer noch eher zögerlich auf dem Vormarsch.

Wäre schön, wenn sie die Ramlatenz trotz IF Bauweise massiv senken könnten......das würde Intel vom Gaming Thron sprengen....

Aber ob die das so einfach schaffen, ohne ihren Preisvorteil aufzugeben, den sie dadurch erreicht haben, dass sie vom Desktop bis zum Server, alle Chips aus der gleichen Fertigung bekommen, sehe ich kritisch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, TechFA und DannyA4
Zurück
Oben