News Intel Comet Lake-S: Mainstream-Modelle treten gegen AMD Ryzen 5 und 7 an

Chillaholic schrieb:
Was genau willst du mir mit dieser nichtssagenden Antwort mitteilen?

Was er damit wohl meinte ist das Spieletitel wie BFV AVX nutzen, hat aber nix mit dem Treiber speziell am Hut.
 
  • Gefällt mir
Reaktionen: Chillaholic
Chillaholic schrieb:
Was genau willst du mir mit dieser nichtssagenden Antwort mitteilen?
Das ist die Antwort auf deine Frage.

Pocketderp schrieb:
Was er damit wohl meinte ist das Spieletitel wie BFV AVX nutzen, hat aber nix mit dem Treiber speziell am Hut.

Der NV-Treiber triggert den AVX Offset. Ob das nun ein Bug ist oder der Treiber von AVX Gebrauch macht, kann ich nicht beurteilen.
Ich meine aber auch, dass einige neuere Titel mittlerweile AVX nutzen.
 
owned139 schrieb:
Der NV-Treiber triggert den AVX Offset. Ob das nun ein Bug ist oder der Treiber von AVX Gebrauch macht, kann ich nicht beurteilen.

Das ist ein kleiner Unterschied darin ob ein Treiber bzw dessen zugehörige Software AVX nutzt oder seriösen Load damit fährt.
 
Einige neue Spiele nutzen AVX (z.B. BFV, Assassins Creed, Hunt) . Und es ist bei einem aktivierten AVX Offset (den es bei Consumer CPUs bei Intel offiziell eigentlich gar nicht gibt, was diverse Boardhersteller nicht davon abhält einen einzubauen) egal ob damit Last erzeugt wird oder nicht. Sobald AVX erkannt wird wird der offset getriggert und damit der Takt beeinflusst.
 
Esenel schrieb:
Und wo sind hier die Ryzen 3000?

Hier Gamestar 07/2019: 50W gönnt sich ein 9900K mehr ggü. 3700X, das sind 17% mehr :
1585837615602.png

1585837744991.png

1585837706252.png

1585837909426.png


Sogar bei FPS/W hat ein 3700X immer noch 10% mehr drauf als ein 9900k.

1585837991813.png

1585838016085.png
 

Anhänge

  • 1585837669957.png
    1585837669957.png
    8,6 KB · Aufrufe: 337
  • 1585837827038.png
    1585837827038.png
    12,8 KB · Aufrufe: 340
  • Gefällt mir
Reaktionen: Smartbomb und Rockstar85
Dai6oro schrieb:
Sobald AVX erkannt wird wird der offset getriggert und damit der Takt beeinflusst.

Weder noch, selbst Intel beschreibt in den Papieren das die Verwendung von AVX nicht zwangsläufig den Offset triggert, das was hier die Rolle spielt ist die thermische Belastung die ggf zu erwarten ist oder gar anliegt.
 
LOLinger78 schrieb:
Hier Gamestar 07/2019: 50W gönnt sich ein 9900K mehr ggü. 3700X, das sind 17% mehr :
...
Sogar bei FPS/W hat ein 3700X immer noch 10% mehr drauf als ein 9900k.

Tja da werden wir im Internet noch tausend verschiedene Ergebnisse finden.
Das Ergebnis von Computerbase, welches von dergraf1 gepostet wurde, sieht den 9900K hier sparsamer.
Screenshot 2020-04-02 at 16.49.58.png

Gamestar und PCGH sehen das anders, ja.
Screenshot 2020-04-02 at 16.47.45.png

Kommt halt immer auf die Spiele/Anwendungsauswahl drauf an.
Dann kommt es drauf an, ob die Systeme hier auch wirklich nach Spec gelaufen sind, oder nicht?
Auch ist der Stromverbrauch des Gesamtsystems wenig aussagekräfitg.
In wie weit spiele hier andere Komponenten noch mit rein?

Bei PCGH zieht z.B. der Assassin's Creed Odyssey Benchmark den Score für den 9900K nach unten, weil dieser fehlerhaft ist und wurde deshalb sogar in einem extra Thread dort behandelt.


50W Differenz - nur für die CPU - wie bei Gamestar ist mMn zu viel.
Das würde bedeuten, dass der 9900K hier mit z.B. 95W im Limit laufen würde und der 3700X mit 45W.
Ich glaube nicht, dass in einem so heftigen Game für CPUs, der 3700X unterhalb seines TDP Limits läuft.

Das mage ich stark zu bezweifeln 🙃
@Duvar kann so etwas gut abschätzen.
Ist ein maximaler Verbrauch von 45W in ACO für einen 3700X möglich?

VG
 
Die meisten die hier auf dem Stromverbrauch drauf rum reiten vergessen aber auch, dass AMD es nichtmal schafft ohne PBO die Turbotaktraten auf allen Kernen zu realisieren.

Nimmt die PBO Handbremse mal raus, was zieht die CPU dann wenn man zb 4.6 ghz Allcore versucht?

Ist es dann noch kühlbar mit dem schlechten CPU Layout den AMD mit dem Hotspot an der falschen Stelle vergeigt hat? Da bringt auch 7nm nichts, so schlecht steht Intel dann doch nicht da wenn man 5 ghz Allcore auf nem KS noch unter Luft kühlbar hin bekommt.

Das Bashing ist einfach Sinnfrei, selbst ein „Stock“ 9900K ist in Spielen schneller, Intel kann einfach mehr drauf pfeiffen was die Boardhersteller machen, wenn die CPU zu heiss wird muss man halt an der Kühlung was machen. Aber es ist noch ausreichend unter Luft kühlbar, auch mit moderatem OC. Die OEMs passen ihre Systeme entsprechend an und supporten nur das Setup was sie verkaufen, die Selbstbauer informieren sich idr eh. Wo ist das Problem? Meine alte AIO hat zb meinen 5960X mit meinen Zock OC Settings in Prime nicht gekühlt bekommen, aber was interessiert mich das wenn ich mit meinem Workload nie dahin komme und die CPU nicht über 70 Grad beim Zocken kommt? Da hab ich dann trotzdem die OC Power weil ich sie genau da brauche.

Und wenn interessieren beim Zocken 20W mehr Verbrauch wenn man „gratis“ mehr Leistung raus holen kann? Das ist einfach kompletter Unfug.

Und ein Bulldozer war einfach nur scheisse langsam und dann auch noch teuer. Ein Intel 9900K ist zum Zocken die schnelkste CPU und kostet 10% mehr aufs Gesamtsystem bezogen für bis zu 20% mehr Leistung mit handelsüblichem RAM (3200-3600) ohne Tuning Firlefanz.

Und immerhin bietet er den Highend Nerds oder auch esportlern noch die Möglichkeit deutlich mehr raus zu holen, da ist bei AMD schnell Schicht im Schacht.

Zukunftssicherer ist er unter dem GPU Load Aspekt auch noch, AMD bietet die Möglichkeit günstiger zu upgraden weil der Boardwechsel weg fällt, der Intel hängt dafür später im CPU Limit. Das muss halt jeder selber wissen, ob er günstig anschaffen muss/will und ggf früher die CPUs wechselt oder man gibt was mehr aus und hat 5 Jahre was davon und kann durchs OC noch gut was raus holen.

Ist doch ganz einfach:

Arbeiten? -> AMD
Hybrid? -> Display / Workload
-> 60 hz = reicht AMD
-> 144 hz -> Geld fürn Intel da? Dann Intel sonst AMD, außer der Workload braucht 16 Kerne. ggf fragen ob die Rtx Karten den CPU Workload ersetzen.
-> reine Zockkiste mit 144 hz= Intel, ggf bei GPU nen Fuffi sparen undn Fuffi drauf legen, in 2 Jahren hat man dann mehr davon, wenn die GPU gewechselt wird. Und in 4 Jahren sowieso.

Die GPU Regler kann man halt immer noch anpassen, für die CPU geht das schlecht. Und wer 700-1300€ GPUs verbaut kann sich auch den Intel leisten, ist ja irgendwie dann auch dämlich wenn man plötzlich die Karte nur zu 80% ausgelastet bekommt und es ruckelt.
 
Zuletzt bearbeitet:
gunmarine schrieb:
Die meisten die hier auf dem Stromverbrauch drauf rum reiten vergessen aber auch, dass AMD es nichtmal schafft ohne PBO die Turbotaktraten auf allen Kernen zu realisieren.

Da hab ich schon aufgehört zu lesen, weil du direkt mal wieder eine Behauptung aufstellst, die einfach glatt gelogen ist.

Dir wurde ja schon oft genug ein Test verlinkt in anderen Themen von Usern, die dir aufzeigten das auch ein 9900k seine Turbo's nicht hält.
 
  • Gefällt mir
Reaktionen: TechFA und bad_sign
Esenel schrieb:
Das Ergebnis von Computerbase, welches von dergraf1 gepostet wurde, sieht den 9900K hier sparsamer.

Das sind aber keine Spiele Szenarien.

Esenel schrieb:
PCGH sehen das anders, ja.

Hast du mal gesehen wie das ermittelt wurde? (--> "Neben der Leistung messen wir mittels dem Tool HWiNFOx64 auch die Leistungsaufnahme jeder einzelnen CPU").
Mehr sage ich da nicht dazu.

Einen Vergleich über das Gesamtsystem halte ich da jedenfalls für deutlich glaubwürdiger.

Sorry, aber die Intel K-CPUs sind nunmal einfach schlecht/wenig effizient - auch im Gaming. Vielleicht einfach einmal einsehen?
 
  • Gefällt mir
Reaktionen: Smartbomb, Rockstar85 und stolperstein
@LOLinger78: Gamestar würde ich bei seriösen Hardwaretests mal ausklammern - die Tests sind inhaltlich leider meist sehr dünn und geben als einzigen Pluspunkt höchstens den technischen Standpunkt des 0815-Users wieder (was auch eine Daseinsberechtigung ist), die Tests von Nils Rättig erreichen leider meist nicht annähernd das Niveau, das wir hier auf CB z.B. von Volker gewohnt sind.


Esenel schrieb:
Für die Umsetzung der von Intel vorgegebenen Grenzen sind die Mainboardhersteller verantwortlich.
Dies geschieht durch das Bios.
[...]
Wenn der 9900K mehr als die Spec verbraucht liegt es am Bios und in dem Fall ist es die Aufgabe des Mainboardherstellers dies richtig umzusetzen.
[...]
Natürlich tricksen die Mainboardhersteller hier gerne, um in den Reviews besser dazustehen, damit der Absatz gesteigert wird.
Dies ist aber nicht die Schuld von Intel.
[...]
Gibt es denn Mainboard-Reviews mit echten Leistungstests, wo dann ein Vergleich zu andern Herstellern gezogen wird, wie man das bei Grafikkarten tut? Ich dachte das erfolgt immer nur auf Basis der Chipsätze.
Bin ich blind?

Aber anzunehmen, dass das reines Selbst-Marketing der Mainboard-Hersteller ist, wäre auch naiv, das dürfte von beiden Seiten gekommen sein. Seitens Intel mit MDF-Geldern und Incentives und seitens der Boardhersteller als Sicherstellung, dass die teuren OC-Boards gekauft werden.
Die Benchmarks im Falle der 9900er-Serie waren ja
a) für Intel sehr wichtig um weiter Krone im Performance-Segment hochhalten zu können und
b) ist es blanker Eigennutz dieser Boardpartner, da nur mit ausreichend (Leistungs-)Abstand zum Mainstreamsegment ein "Sinn" für die teuren OC-Boards a'la Z390 Godlike und Co geschaffen wird, die sonst Ladenhüter wären. Die Mainboardpreise in dem Segment sind ja mit "absurd" noch milde beschrieben.

Da haben sich die Interessen beider Parteien überschnitten, würde ich sagen. Intel da jetzt eine weiße Weste zu geben sehe ich nicht, ich betrachte das ähnlich wie die "Ungenauigkeiten" bei Angaben zu Spritverbrauch/Abgasausstoß von Autos.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA und Rockstar85
LOLinger78 schrieb:
Das sind aber keine Spiele Szenarien.

Hast du mal gesehen wie das ermittelt wurde? (--> "Neben der Leistung messen wir mittels dem Tool HWiNFOx64 auch die Leistungsaufnahme jeder einzelnen CPU").
Mehr sage ich da nicht dazu.

Einen Vergleich über das Gesamtsystem halte ich da jedenfalls für deutlich glaubwürdiger.

Sorry, aber die Intel K-CPUs sind nunmal einfach schlecht/wenig effizient - auch im Gaming. Vielleicht einfach einmal einsehen?

Hab ich jetzt nicht genau geschaut ob er Verbrauch in Spielen verlinkt hat.

Wie jedes HW Magazin hier seine Werte ermittelt will ich jetzt eigentlich nicht diskutieren.

Wenig Effizient?
Dir ist schon klar, dass es hier um Differenzen von 0-~40W geht solange beide in ihrem TDP Korsett betrieben werden?

Wir reden hier von einer Glühbirne.

Dieses Verbrauchs Spiel kann man halt in alle Richtungen spielen.
In Discord haben wir erst BF V getestet.
Dort verbrauche ich avg 105W komplett unlimitiert.
Ein 3800X war dort 40W sparsamer.

Aber der stemmbare FPS Unterschied war auch sehr groß.

Reduziere ich hier meinen CPU Takt soweit, dass der Verbrauch gleich ist, wird der Prozessor immer noch schneller sein, da der Ryzen 3000 hier in ein RAM Bottleneck läuft.
Dort konnte nicht mal der 3950X eines weiteren Teilnehmers recht virl mehr liefern.

Aber das driftet schon wieder ein wenig ab 🙃



@MajesticXII
Das Spiel welcher Boardhersteller wie viel rauskitzeln kann wurde bei Z-370 übetrieben.
Als manche Boardhersteller sogar BCLK OC eingestellt hatten.
 
aldaric schrieb:
Da hab ich schon aufgehört zu lesen, weil du direkt mal wieder eine Behauptung aufstellst, die einfach glatt gelogen ist.

Dir wurde ja schon oft genug ein Test verlinkt in anderen Themen von Usern, die dir aufzeigten das auch ein 9900k seine Turbo's nicht hält.

Man, das ist ja mal ein Argument. Du bezichtigst @gunmarine der Lüge mit dem Argument, das Intel den Turbo auch nicht halten kann?

Was ist das, blinder Fanboy gegen blinden Fanboy?
 
  • Gefällt mir
Reaktionen: KlaraElfer und .Sentinel.
Nun ja, Intel kann den Turbo halten, man braucht nur Saft und Kühlung. Er bricht aber nicht ein wegen des Siliziums. Der Turbo ist also schon auch Garantie das die Chips den liefern können. Es wird sich kein 9900k im Markt befinden, dessen Die nicht 4,7 GHz Allcore stabil ist.
 
Ravenstein schrieb:
dr geht es also um fertig kisten?
schonmal was vom
HP ProDesk 405 G4 DM
gehört?
mit Ryzen 3 PRO 2200GE
oder
HP EliteDesk 705 G5 SFF,
mit Ryzen 7 PRO 3700 mit AMD Radeon RX 550
Mir nicht gehts nicht um die Stange, sondern unserer IT.
(Zudem sind das wohl eher Lenovo "Fanboys"), was anderes steht in den Büros nicht.
Die zu einem Selbstbau zu übereden wäre auch schon ein Krampf wo das GPU Problem ziemlich zuschlägt.

Der Prodesk hat nur 4 Kerne, es sollen schon 8 sein ;)
Der Elitedesk hat langsamen Singlechannel RAM, die wollen das Ding nicht verkaufen ...
Aber wenn die ne RX550 verbauen habe ich schonmal nen Argument, danke dafür!

(Es ist echt nicht einfach 8 AMD Kerne von der Stange zu bekommen)
 
Ach ge.
Gibt auch bei Intel Gurken.

Hatte einen da war mit der Brechstange bei 4.9GHz dicht.
Ein anderer wollte der RAM nicht höher als 3800.
Also gibt dort gute und schlechte CPUs ;-)
 
Fritzler schrieb:
Der Elitedesk hat langsamen Singlechannel RAM, die wollen das Ding nicht verkaufen ...
du kannst aber problemfrei weiteren hinzufügen.
https://www.alternate.de/HP/EliteDe...r-PC-(8RM31EA)-Gaming-PC/html/product/1626634
außerdem macht das auch nicht soviel aus, da die grafikleistung davon ja nicht abhängt in dem fall.
Ergänzung ()

Fritzler schrieb:
(Es ist echt nicht einfach 8 AMD Kerne von der Stange zu bekommen)
es gibt genügend auswahl, nur nicht im pro bereich.
 
Ravenstein schrieb:
du kannst aber problemfrei weiteren hinzufügen.
https://www.alternate.de/HP/EliteDe...r-PC-(8RM31EA)-Gaming-PC/html/product/1626634
außerdem macht das auch nicht soviel aus, da die grafikleistung davon ja nicht abhängt in dem fall.
Immernoch Single: 4 Speicherbänke davon belegt 1 Speicherbank
Ein Editbutton gibts da nicht, kaufen und selber einbauen ist nicht wegen Garantie ;)
Zuause basteln is echt einfacher.
Und es macht was aus beim compilen, das wird langsamer.

Ravenstein schrieb:
es gibt genügend auswahl, nur nicht im pro bereich.
Japp, mit den 4 Kern APUs ist die Auswahl recht groß, daher die Hoffnung auf Renoir und schwupps gibts das mit 8 Kernen.
 
Zurück
Oben