News Intel Rocket Lake-S: Core i9-11900K schlägt Ryzen 9 5900X in Spielen

Hoffen wir auf 5800XT und 5900XT, wäre doch nett wenn man mit geändertem Boostmanagement und leicht geschärftem maximal Boost die 5% aufholt =)
 
Hätte mehr erwartet, so wie hier mancher getönt hat. Wenn Intel es in den eigenen Benches schon nur auf 5% Mehrleistung kommt und dann erst Ende März. Masssig Zeit für AMD zu reagieren und sei es über den Preis.

Too Little Too Late


Und ein halbes Jahr Später schon Alder Lake? Na ich bin gespannt.
 
  • Gefällt mir
Reaktionen: BlackBandit85
ZeroStrat schrieb:
Das verstehe ich nicht. Kannst du das näher erläutern?
Leicht unterschiedliche Auslastung bewirkt überproportional schwankende Verbräuche. Dadurch hast du bei jeder Veränderung der Leistung, also unterschiedlichen fps-Zahlen, eine viel zu große Veränderung der Effizienz. Deswegen meine Idee, bei gleicher Anforderung (konstante fps) zu testen.
 
Intel soll liefern und nicht reden. Und 8 Kerne sind ein Rückschritt. Ich dachte die hauen endlich mal die Performance bis 16 Kerne raus. Spiele + DC/TS + Musik + anderen Kram wie Webbrowser usw. offen reizen heute schon einen 8 Kerner schnell aus.

@CB
Ihr seid mutig bezüglich der Intel Benchmarks so einen Titel hinzulegen, bzw. es als gegeben hinzunehmen. Ich hoffe für euch Intel hat nicht wieder geschummelt. :lol:
 
  • Gefällt mir
Reaktionen: naicorion und BlackBandit85
ThePlayer schrieb:
Es wird fast niemand einen 10900 oder 5900 kaufen um beim Spielen im CPU Limit zu hängen. Fast immer limitiert die GPU.
Deswegen haben wir ja auch 1440p und 4K getestet.
 
  • Gefällt mir
Reaktionen: MoinWoll und Colindo
immortuos schrieb:
Dann wären die gezeigten Benchmarks falsch.
CB sieht den 5900X 4% vor dem 10900K, Intel den 11900K ~5% vor dem 5900X.
Wo kommst du da auf 20%?

Das frage ich ihn auch schon die ganze Zeit. Aber auf meine Nachfrage, dass ich es genauer haben möchte kam nur ein "noch genauer??", darauf hin meinte ich ja, seit dem nix mehr.
 
  • Gefällt mir
Reaktionen: BlackBandit85
@Atent123
Nicht so holprig wie die AMD Baustellenfahrzeuge, die dem Kunden als FX Limousinen verkauft wurden. :D

AMD wird noch brauchen die Schublade mit dem FX Potenzmittel wieder raus zu holen, ohne das die AMD reddit Fangemeinde zum blauen Lager über läuft. Ich habe den Bulldozer aus guten Grund links liegen gelassen und war auch nicht angetan darüber, als AMD es als Excavator APU auf den AM4 Sockel brachte, weil das ZEN APU Design nicht fertig war. Bei intel hatte man den Dreh schon vor Haswell raus, wie man CPU und iGPU zusammen führt und tatsächlich richtig bewirbt. Der noch ältere 2600K war schon beliebt und wäre auch als eine sehr potente Office CPU einsetzbar.

lokon schrieb:
Intel hatte auch immer mal wieder Probleme/Optimierungen mit USB3.
Die USB-IF hatte aber schon ein Spezifizierungsproblem seiner Schnittstelle und ich blicke da besonders bei eigener Schläfrigkeit auch nicht immer durch. Da ist es kein Wunder, wenn selbst intel mit der zuverlässigsten USB Hardware am Markt in das Straucheln kommt. VIA, Renesas und Co. mischen bei USB schon lange nicht mehr mit.
 
Colindo schrieb:
Leicht unterschiedliche Auslastung bewirkt überproportional schwankende Verbräuche. Dadurch hast du bei jeder Veränderung der Leistung, also unterschiedlichen fps-Zahlen, eine viel zu große Veränderung der Effizienz. Deswegen meine Idee, bei gleicher Anforderung (konstante fps) zu testen.
Überproprotional nur dann, wenn die Leistung fällt und der Verbrauch gleichzeitig steigt. Wir haben ja 1440p und 4K getestet. Hier ist die Leistung ziemlich vergleichbar, in 4K sowieso. Wenn die dir Effzienz zu sensitiv ist, kannst du dir die Verbrauchswerte alleine anschauen. Haben wir alles aufgeführt.

immortuos schrieb:
Dann wären die gezeigten Benchmarks falsch.
CB sieht den 5900X 4% vor dem 10900K, Intel den 11900K ~5% vor dem 5900X.
Wo kommst du da auf 20%?
Die CB Tests sind immer noch leicht GPU-limitert. Wenn man das strikt ausschließt, sind es 12%. PCGH hat das auch genau so ermittelt.
 
Chilisidian schrieb:
Inwiefern korreliert die GPU Leistung mit der CPU Leistung?
Wenn man eine 3090 oder eine 6900xt voll ausfahren will in WQHD mit z.B. 144 Frames, braucht man eine schnellere CPU als für eine 2080S, die vielleicht nur 90FPS erreicht. Das gilt erst recht mit RT, das erhebliche CPU-Leistung benötigt, siehe entsprechende Tests hier auf CB. Einem 9900k fehlen 22% min. FPS in Cyberpunk auf einen 10900k! Und das im relevanten Bereich, denn knapp 40FPS fühlen sich merklich schlechter an als knapp 50. Solche Trends kann man nicht einfach wegdiskutieren.

Die meisten Spiele benötigen aktuell natürlich in erster Linie schnellere und nicht mehr Kerne, da stimme ich natürlich zu, insbesondere bei den Spielen, die man wirklich mit hohen FPS spielt. Für gute Frametimes, gerade wenn noch ein Dutzend Hintergrundprogramme laufen, werden sich mehr als acht aber zunehmend besser anfühlen im Vergleich.

Das Argument, dass man z.B. auch mit einem 8700k immer noch alles in UHD wunderbar spielen kann mit einer 3080 auf 60FPS sehe ich natürlich auch. Aber in dem Thread geht es um die Eroberung der Gamingkrone durch Intel und darum was "optimal" ist. Und optimal ist es eben nicht, die schnellsten GPUs dadurch zu begrenzen, dass man ihnen nicht die dazu passende CPU schnellste zur Verfügung stellt und das ist auf Sicht kein Achtkerner.

Ist ein 11900k auch in 2 Jahren noch super geeignet zum Spielen und kann er auf einer "RTX 4080" noch ein (sehr) gutes Spielerlebnis bieten? Klar glaube ich das auch. Aber ein 11900K Zwölfkerner böte bessere Frametimes, mehr Reserven und bei kommenden Spielen ein höheres CPU-Limit.
 
  • Gefällt mir
Reaktionen: iron_monkey
ZeroStrat schrieb:
Das wird sich zeigen. ^^ Meine Prognose sind 20%.
Du glaubst also ernsthaft Intel würde eine Folie mit diesen mickrigen Vorsprüngen raushauen, obwohl auch 20% drin wären? Aber klar doch, vielleicht sind es auch direkt 25%? 😂
 
  • Gefällt mir
Reaktionen: Cassiopea, Kalsarikännit, .Snoopy. und 4 andere
lugge schrieb:
Ansonsten muss ich sagen, dass ich langsam bei Intel nichtmehr durchblicke mit den ganzen Lakes, was da nun welche Architektur und ich welcher Fertigungsgröße ist, [...]

ist bei Intel doch einfach: 14nm! So wie schon seit vielen Generationen... :-)

Aber was Intel aus 14 nm quetscht ist schon erstaunlich, würden die spontan auf 7nm wechseln, gäbe es einen klaren Sieger.
 
Das einzig interessante ist RAM-OC auf B-Chipsatz, ansonsten ändert sich nicht viel.
125W TDP, Stromverbrauch wird sich zeigen, Schlagabtausch mit AMD bis Vermeer-Refresh.

FarCry: New Dawn im Test ist wie bei AMD Ashes of the Singularity, nicht mehr relevant.
 
flappes schrieb:
Dann klär mich doch auf.

Die CPUs haben bei gleichen Takt bis zu 19% mehr Leistung. Das ist schon trotz 14nm eine Wahnsinns Leistung. Kein Ahnung wo du da 10% mehr Takt liest. Ryzen ist Tankbereinigt 7% vor den aktuellen Skylake Derivaten. Die neuen Ryzen Takten doch auch deutlich höher als angegeben.


Wenn Intel zeitnah die Willow Cove Kerne in 10nm bringt wird es richtig interessant.
 
Capthowdy schrieb:
Du glaubst also ernsthaft Intel würde eine Folie mit diesen mickrigen Vorsprüngen raushauen, obwohl auch 20% drin wären? Aber klar doch, vielleicht sind es auch direkt 25%? 😂
Bist'n Scherzkeks. Nur leider geht das ein bisschen ins Leere... :D

1. Intel müsste dafür gegen den 10900K testen.
2. Intel müsste in 720p testen, was wieder Gejammer und Gezeter bei den meisten auslösen würde, weil sie es nicht verstehen.
 
  • Gefällt mir
Reaktionen: MoinWoll
HighDefinist schrieb:
Ausserdem fehlen die ganzen Esport-Titel, wo AMD ggw. ja sehr deutlich vor Intel liegt (z.B. in Valorant oder CS)

Was erhofft man sich von den E-Sport Titeln in so einem Vergleich eigentlich?

Valorant, CS Go und Co laufen doch größtenteils auf jedem Toaster.

In diesen Spielen die Unterschiede zu ermitteln, bietet zwar rein technisch betrachtet immer noch ein gültiges Kriterium um die Geschwindigkeit einer CPU zu beurteilen, aber wenn selbst ein 'betagter' 7700k über 200fps im 99,8th Percentile hält, ist es irgendwann einfach nur noch absurd, dies als Argument für eine neue CPU anzuführen.
 
ZeroStrat schrieb:
Meine Prognose sind 20%.
Echt jetzt? Also ernsthaft, Du sagst Intel legt in Spielen (im Schnitt / bei ausgewählten Spielen?) um 20% zu? In der Regel bist Du ja gut (vor-)informiert. Schon etwas Konkretes gehört oder gesehen?
 
ZeroStrat schrieb:
Deswegen haben wir auch stock getestet, weil eh jeder eine andere Auffassung von Sweetspot hat. ^^
ich finde euren Test richtig gut, was mir nur aufgefallen ist, dass ihr einen 10 Kerner einem 12 Kerner gegenüber stellt und dazu zeigt ihr nicht die Einzelergebnisse, d.h. man kann nicht sehen ob ein Spiel für den Verbrauchsunterschied verantwortlich ist oder es in allen Spielen reproduzierbar ist.
 
ThePlayer schrieb:
Das ist ja schön und gut für einen Benchmark. Aber die Aussagekraft ist wie beim 3D Mark. Der Score sagt nicht viel darüber aus wie gut die Grafikkarte in welchem Spiel und Auflösung performt.
Es wird fast niemand einen 10900 oder 5900 kaufen um beim Spielen im CPU Limit zu hängen. Fast immer limitiert die GPU. Und wenn man sich hier die Hardware Umfrage ansieht setzen nur noch rund 25% der User auf 1080p der Rest hat WQHD oder mehr.
Hast du Das Bild auch verstanden? Es geht doch gerade darum dass außerhalb von 720p CPU Benchmarks, also außerhalb eines CPU Limits, Intel effizienter ist.

Und viel aussagekräftiger als mehrere Spiele und 3 Auflösungen gehts nicht
 
  • Gefällt mir
Reaktionen: MoinWoll
ZeroStrat schrieb:
1. Intel müsste dafür gegen den 10900K testen.
Wieso müssten sie das? Du hast doch hier behauptet 20% gegenüber AMD hälst du für realistisch? Wenn das möglich wäre, wieso sollte Intel das dann nicht auch auf Folie für alle verewigen?
 
  • Gefällt mir
Reaktionen: soSerious
Zurück
Oben