Test Core i9-11900K und i5-11600K im Test: Die 14-nm-Brechstange

aldaric schrieb:
Fakt ist, dass scheinbar die RTX 3090 massive Probleme mit der Auslastung in niedrigen Auflösungen hat, dafür in hohen Auflösungen besser performt.
Gestern wurde auf dem Twitter Account ja ein Beispiel von Metro gepostet wo die 3090 einmal mit 1950MHz und einmal mit 1500MHz lief. Kein Unterschied, nicht mal bei den Perzentilen.

Dazu sind in den Einzeltests überall Unterschiede zwischen den oberen CPUs zu sehen, selbst wenn die 3090 also irgendwie bremsen sollte, dann bremst sie AMD und Intel CPUs gleichermaßen, sonst wären die Abstände ja eher kleiner als größer, weil dann nur die stärkste CPU weniger FPS erreicht hätte
 
  • Gefällt mir
Reaktionen: Zwiebelsoße
Also ich finde auch, dass Intel leider komplett ins Klo gegriffen hat mit RKL. Warum?

Weil hier (mal wieder) kaum Fortschritt ist.
Man könnte meinen es steckt noch Skylake drin....man wirbt mit "up to 19% IPC", aber am Ende ist die CPU ein paar wenige % schneller als CML. Das hatten wir schon Jahre vorher mit ein paar Prozent mehr Leistung...

Hier hat AMD auch mit 19%IPC geworben, und das kommt auch bei Games an....mit leichter Takterhöhung sogar entsprechend bis ~25-30%. Da hat auch jeder Augen gemacht.

Beim i5 6 Kerner trifft das ja noch zu...aber den i9 als i9 zu vermarkten und so viel Geld zu nehmen ist lächerlich.

Also eigentlich hätte sich Intel diesen Backport komplett sparen können. Lieber hätte CML noch 6 Monate durchhalten müssen aufgrund der 10 Kerne und hätte das auch noch gut hinbekommen. Und dann kann Intel gerne mit ADL 16C/24T kommen wenn das was taugen sollte...

Aber so ist die "bahnbrechende neue Architektur" nichts wert wenn davon null auf die Straße kommt. Bei Anwendungen aufgrund der nur 8 Kerne eh schon nicht, und beim Gaming ist es halt auch eine Klatsche nicht an AMD vorbei zukommen.
Davon ging sicher jeder aus, dass man wenigstens gute 5% vor AMD kommt...sogar ich :D
 
  • Gefällt mir
Reaktionen: DonL_
Teralios schrieb:
das eine CPU daher in Zukunft "weniger Leistet" als eine andere CPU die zum Zeitpunkt X in Spiel Y schneller in 720p ist, ist Kaffesatzlesen, kann funktionieren, kann schief gehen.
Dann hat es ja von Zen an recht gut funktioniert, denn hier hat sich zwischen z.B. Zen1 und KabyLake nicht wirklich was verändert in den letzten 4 Jahren. Ein 1800X kommt immer noch nicht an einem 7700K vorbei. Und da geht es nicht um Spiel Y sondern um das Mittel aus Review 1-20 mit Spielen 1-50.

Kaffeesatzlesen war da eher die Aussage, dass er, obwohl er zu Release in 720p(und auch 1080p) hinten lag, später besser sein wird weil er mehr Kerne hat und die Spiele das mehr nutzen werden.
 
  • Gefällt mir
Reaktionen: ZeroStrat und Zwiebelsoße
Teralios schrieb:
Dein ganzer Beitrag zeigt, dass du nicht mal im Ansatz verstehst, was ich schreibe,

Bisher hast du ausser Theorie die sich bisher in keinem Benchmark je bestätigt hat, kein Argument genannt.
Jch kann dir nur raten selbst mal zu benchen und nicht irgendwelche Theorien warum 720p nicht geeignet sein sollen aufzustellen, das sind Geschichten die tausend mal ausdiskutiert wurden und immer lagen die Kritiker falsch...

Teralios schrieb:
da dir scheinbar alle Grundlagen der Informatik, Mathematik, da speziell Statistik und Stochantik fehlt und ebenso jegliche Erfahrung.

Das saugst du dir jetzt aber aus den Fingern und lenkst schon den dritten Beitrag vom Thema ab.

Teralios schrieb:
Ich habe in einem anderen Thema die Problematik mit 720p bereits einmal erläutert und warum gerade die Zukunftsfähigkeit eben keine zuverlässige Aussage ist.

Es existiert keine Problematik mit 720p da CPUs nicht für die Auflösung zuständig sind... und so ergeben alle höheren Auflösungen ungenauere, falsche Ergebnisse. Zukunftfähigkeit einer CPU, sowie das Gegenteil, etwa wenn in 3 Jahren den 6 Kernern die Multicoreleistung fehlt und sie daher nicht so zukunftfähig sind, sehe ich das auch in 720p, da dort der GPU Faktor minimiert wird.

Nenne die Alternative zu 720p Tests. Es existiert keine. Betriebssystem, Spieleengine, Treiber und Co kann man sowieso nicht beeinflussen.
 
  • Gefällt mir
Reaktionen: ZeroStrat
0ssi schrieb:
Für alle Stromsparfüchse:

Selbst wenn eine CPU 50 Watt mehr verbraucht dann sind das bei täglich 2 Stunden Maximallast:

Genau 10 Euro pro Jahr.

Der Aufpreis von Z490 zu Z590 Mainboard beträgt ca. 100 Euro aber daran stört sich Niemand !?
50 Watt sind je nach Lüftung im Raum auch was im Hochsommer. Strom ist wirklich nicht die einzige Komponente. Die Wärme muss auch irgendwo hin.
 
  • Gefällt mir
Reaktionen: Rockstar85
Ich ermahne die zunehmend eskalierenden Streitparteien zur Ordnung und weise darauf hin, dass ich den Thread im Auge habe.
Wenn wir hier nicht schnell wieder zur Sachlichkeit zurückkehren, muss ich leider moderativ aktiv werden, was für einige der Beteiligten unschöne Konsequenzen hätte.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße
@Teralios Ich schätze deine Kompetenz normalerweise sehr, aber was du da gerade auftischst, ist übertriebenes und sogar aufgeblasenes "intellektuelles" Gehampel. 720p zeigt halt erstmal die reine CPU-Leistung. Man muss da ja noch nichts reininterpretieren. Für mich persönlich sind z.b. die architektonsicehn Verbesserungen interessant, die man dadurch deutlich sehen kann.

boarder-winterman schrieb:
Wenn wir hier nicht schnell wieder zur Sachlichkeit zurückkehren,
Findest du das unsachlich? Man spricht halt Klartext?! Ich kann das schwer einschätzen, was manche Mods noch im Grenzbereich sehen und was nicht. Ich passe meinen Text gerne an... ^^
 
  • Gefällt mir
Reaktionen: Zwiebelsoße
Floppes schrieb:
50 Watt sind je nach Lüftung im Raum auch was im Hochsommer. Strom ist wirklich nicht die einzige Komponente. Die Wärme muss auch irgendwo hin.
Eine RTX3080 zieht 370W und wir dürfen nicht vergessen, dass es hier um FHD bzw. um ein CPU Limit geht !
Statt 150W in FHD zieht der 11900K in WQHD bzw. UHD dann nur noch 100 bzw. 50W also wozu die Panik ?
 
0ssi schrieb:
Eine RTX3080 zieht 370W und wir dürfen nicht vergessen, dass es hier um FHD bzw. um ein CPU Limit geht !
Statt 150W in FHD zieht der 11900K in WQHD bzw. UHD dann nur noch 100 bzw. 50W also wozu die Panik ?
Das ist mal wieder Whataboutism. Erstens spielen sehr viele noch in FHD und zweitens weiß ich warum ich die RTX 3000 Serie nicht mag. Die verbaucht mir zuviel und das nur weil NV Geld gespart hat und den billigeren?/schlechteren Prozess verwendet.
 
  • Gefällt mir
Reaktionen: DonL_
Floppes schrieb:
Das ist mal wieder Whataboutism. Erstens spielen sehr viele noch in FHD ...
20210312015336_1.jpg


Auch in FHD läuft eine CPU nicht immer auf Prime95 Niveau also nicht die Augen vor der Realität verschließen. :D
 
Die Kombo AMD CPU&AMD Gpu ist in Games schon wirklich deutlich sparsamer als z.B. 10700/10900 Intel&NV Kombo wenn man den Daten von HWI glauben kann.Selbst ein 5900x+6800xt (ok beide UV) verbrauchen kaum mehr als eine UV optimierte 3080 alleine.Hab ich auch nicht schlecht gestaunt.Eine 3090 ist deutlich drüber.
 
  • Gefällt mir
Reaktionen: Hardwarious, Celinna, DonL_ und eine weitere Person
0ssi schrieb:
Anhang anzeigen 1062276

Auch in FHD läuft eine CPU nicht immer auf Prime95 Niveau also nicht die Augen vor der Realität verschließen. :D
Nicht immer, aber immer öfter und zudem ist es schön wenn man nur spielt und nichts produktiv macht ;-)
 
boarder-winterman schrieb:
Wenn wir hier nicht schnell wieder zur Sachlichkeit zurückkehren, muss ich leider moderativ aktiv werden, was für einige der Beteiligten unschöne Konsequenzen hätte.
Ich finde das hier aktuell vergleichsweise sachlich und auch on-topic. Dafür ist doch ein Forum da!?
 
  • Gefällt mir
Reaktionen: Zwiebelsoße und ZeroStrat
Taxxor schrieb:
Kaffeesatzlesen war da eher die Aussage, dass er, obwohl er zu Release in 720p(und auch 1080p) hinten lag, später besser sein wird weil er mehr Kerne hat und die Spiele das mehr nutzen werden.
Und beim 1600x sowie 2600x zeigt sich nun, dass diese den "reinen" 4-Kernern von Intel nun überlegen sind, während diese damals in 720p überlegen waren.

Während also die Aussagen für den 7700K (4c/8t) zu trifft, trifft sie für den 7600k nicht mehr zu und dieser hat in modernen Engines einen schweren Stand gegen den 1800X. genau so der 8600K der nun mit dem 2600X seine Liebe Müh und not hat, während er ihn damals gut im Griff hatte.

Es ist aber schon interessant, wie Leute wie du jedes Mal nur kleine Mosaiksteinchen betrachten, an bringen, nur damit das eigene Weltbild intakt bleibt. Lesekompetenz, mal das Ganze differenziert betrachten, das vermisst man gerade bei dir sehr oft.

Ich sagte schon von Anfang an: Diese Aussage über die Zukunftsfähigkeit kann gut gehen, sie kann schief gehen. Es gibt hier nur sehr viele Variablen, die man beachten muss und die wichtigste Variable: Zukunft.

Aber ich weiß: Vielen Leuten fällt es schwer wirklich Differenziert an eine Sache zu gehen und noch schwerer ist es die Größezu haben mal zu sagen: Okay, ich bin hier zu ungenau.

Und damit die zweite Person die jetzt auf der Ignore landet, da ich diese undifferenzierten Platten Diskussionen nicht mehr möchte.
 
  • Gefällt mir
Reaktionen: Die_antwoord und DonL_
Floppes schrieb:
Nicht immer, aber immer öfter und zudem ist es schön wenn man nur spielt und nichts produktiv macht ;)
Ich sehe bei meinem 10900K@5Ghz wirklich selten mehr als 100W und wenn ich eine CPU
zum "Arbeiten" brauche dann kaufe ich keinen 11900K sondern einen 65W 10900 auf B460.
 
  • Gefällt mir
Reaktionen: Klever
Teralios schrieb:
Und damit die zweite Person die jetzt auf der Ignore landet, da ich diese undifferenzierten Platten Diskussionen nicht mehr möchte.
Cool, ich hatte dich bisher eigentlich als jemanden gesehen, mit dem man gut über Fachthemen reden kann und du hast mir auch schon öfter Sachen näher erklärt zu denen ich fragen hatte.

Jetzt wegen sowas die Ignore Liste rauszuholen, lässt dich leider sehr eingebildet wirken, offenbar willst du hier im Forum einfach nur deine eigenen Posts lesen, denn alle anderen sind ja nicht gebildet genug um einer Unterhaltung würdig zu sein.
Zumal du genau das machst was du mir vorwirfst, denn wie der 7700K vs 1800X meines, ist der der 1600X vx "reinen" Intel 4 Kerner dein Mosaiksteinchen, wie du es so schön sagtest, welches du nun dazu benutzt um zu argumentieren dass man mit 720p keine Zukunftsaussagen machen kann.


Es ist auch kein Zufallsprinzip, wie du es hier darstellen willst, wo jedes Spiel von heute auf morgen komplett anders funktionieren und die Rangliste umwerfen könnte.

Dass 4 Kerne ohne HT immer langsamer wurden, war bereits zum Release des 7700K der Fall, diese Entwicklung war also abzusehen und man konnte trotz des Rückstandes zu Release davon ausgehen, dass das nicht lange so bleiben wird.

Genauso war aber auch abzusehen, dass das ganze mit 8 Kernen samt SMT noch einiges länger dauern wird, wodurch der 7700K eben auch heute noch stärker ist, genau wie er es zu Release war.

Und wenn man heute einen 11900K mit einem 5800X vergleicht, die beide 8C/16T besitzen, fällt der Part sogar komplett weg.


Und ganz grundsätzlich war die Frage nach der Zukunft auch nie der treibende Faktor für low Res Tests.
Es geht schlicht darum zu zeigen was die CPU aktuell in Spielen kann.
Über die Zukunft kann man sich dann gesondert gedanken machen, und selbst wenn man hier absolut keine Aussagen treffen könnte, ist alleine die Tatsache, dass man eine Aussage über die Gegenwart hat, Grund genug so zu testen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: W4RO_DE und Zwiebelsoße
Hat jemand schon den 11400F bekommen und getestet? Vielleicht erste Benchmarks? Ohne PL hält der die 4.2GHz in Games bei mir. Hat jemand ein B-Board dazu gekauft? Würde gerne die Erfahrungen wissen... Bei mir läuft der auf dem Z590.

Der Uncore Takt lässt sich nicht fixieren im BIOS. Da kann ich einstellen was ich will. Hab mal 38 eingestellt im BIOS, aber die Werte, die CPU-Z anzeigt wirken ziemlich chaotisch.
 
Klever schrieb:
Für fordernde Anwendungen wie Rendering, Compiling etc, auf jeden Fall, die Stromaufnahme da bei derzeitigen Core 11 Gen ist im Vergleich zu Zen 3 viel mehr. Da hat Zen 3 mittlerweile die bessere Architektur für, keine Frage.

Für Spieleszenarien allerdings sieht es da anders aus, und die 11 Gen richtet sich primär an Spieler. Die Stromaufnahme da ist nicht viel mehr als bei Zen 3, ein 11600K zieht etwas weniger in Spielen wie ein im Multicore viel stärkerer 5900X, erreicht aber oft deren FPS oder ist etwas schneller bzw etwas langsamer, je nach Spiel, was aber nicht sonderlich im GPU Limit ins Gewicht fällt.
[...]

Bei Spielen allerdings ist Intel auch mit der neuen Gen eine valide Alternative, und die Stromaufnahme des Systems bei Spielen ist zwar etwas ineffizienter, aber wegen 20 Watt je nach Spielszenario fällt es nicht so stark ins Gewicht, wie bei produktiven Anwendungen, imo.
Und dann kommt irgendwo her eine Auslastung, die die CPU kurz überredet seine 250-300W zu ziehen und dann ist der PC aus, weil halt normal xW gereicht hätten. (Total War Troy war doch das Spiel, welches mit Gras alle Threads auslasten konnte?)

Wenn ich mir das selbst antue, dann weil ich von dem Problem weiß, weiß was mein PC macht und wenns dann, wie es bei mir war, zu übereifrigen Neustarts kommt, dann kann ich handeln.

Einem jeden 11xxx Käufer (und auch die großen 10xxx) kann man eigentlich nur 650W+ NT empfehlen, weil ja sogar die 500€ (oder eher 1000€) Mittelklasse GPU schon bei 250W sitzt.

Finde ich erschreckend und es pisst mich auch an, weil mein altes 550W NT gerade erst 1 1/2 Jahre alt ist.
 
Zur Leistungsaufnahme:

Zum Zeitpunkt der Benchmarks wird kaum ein Spiel die neuen CPUs auch nur ansatzweise völlig auslasten. Die paar Watt mehr, die z.B. ein 11900k im Vergleich zu anderen CPUs mit ähnlicher Leistung im Durchschnitt bei Spielen verbraucht, finde ich persönlich aktuell nicht weiter wild. Ich bin aber wegen dem potentiellen Durst der CPUs besorgt.

Aus dem Artikel zitiert:
Die Kerne werden in Spielen zwar ebenfalls gefordert und auch immer häufiger alle genutzt, aber oft nur mit Auslastung von 40, 50 oder auch mal 60 Prozent, nie jedoch vollständig.
Wird sich die Leistungsaufnahme mit der Zeit nicht aber zwangsweise stetig erhöhen, je länger die CPU genutzt wird, weil auch die Anforderungen der Spiele steigen?

Wenn sie sowieso nur 1-2 Jahre im Einsatz ist, wird das wohl nicht weiter relevant sein, aber wenn ich mir anschaue, wie viel Watt sich gerade der 11900k theoretisch maximal genehmigen kann (Übertakten jetzt auch mal völlig außen vor gelassen), bin ich doch skeptisch, ob es da auf längere Sicht bei ein paar Watt mehr bleibt.

Natürlich kann man Powerlimits setzen etc., ich gehe jetzt einfach nur mal vom 0815-User aus, der nur die CPU nutzt und sich nicht weiter mit BIOS-Einstellungen beschäftigt. Bitte korrigiert mich, wenn ich hier einen Denkfehler habe. :)
 
  • Gefällt mir
Reaktionen: Zwiebelsoße
Teralios schrieb:
Während also die Aussagen für den 7700K (4c/8t) zu trifft, trifft sie für den 7600k nicht mehr zu und dieser hat in modernen Engines einen schweren Stand gegen den 1800X.
Exakt diese Differenzierung stand in meinem Beitrag, hättest du rauskopieren können.🙂

Nur war das damals schon absehbar und auch den Schluckauf den zu wenig Threads auslösen sah man an den schwachen Frametimes. Aktuell sind die 6c6t CPUs dran und morgen ist es der 7700K, irgendwann wird der 1800x also vorbeiziehen, aber die Dauer steht nicht in Relation zum damaligen Mehrpreis, geschweige denn heutige 100 Euro CPUs den 1800x und auch 7700K in die Tasche stecken.
 
  • Gefällt mir
Reaktionen: Taxxor
Zurück
Oben