Test Core i9-11900K und i5-11600K im Test: Die 14-nm-Brechstange

Freiheraus schrieb:
. Die 8 Kern Rocket Lakes stehen auch nicht viel besser da, Zen 3 ist entfesselt (mit Radeon-GPU) in 720p zornig schnell.

Könntest du bitte den Beleg anführen wo Radeon GPUs Zen 3 „entfesseln“ und Nvidia GPUs verglicheb mit Intel bremsen? Das wurde hier nun schon desöfteren behauptet, aber wo sind die Messergebnisse dazu?

Man müsste Zen 3 und Rocket Lake jeweils mit 6900XT und 3090 in 720p benchen um behaupten zu können, dass die Radeons besser mit Zen 3 umgehen können.

Wir benchen im übrigen jedes neue System welches ausgeliefert wird, wenn Mainboards oder andere Komponenten getauscht werden, bzw BIOS Updates anstehen, um fürden Kunden sicherzustellen, dass die Systeme einwandfrei laufen und da ist bei hunderten Systemen noch nie derartiges aufgefallen.

Das wäre ja der Kracher wenn die AMD CPUs mit AMD GPU sich von den Intel CPUs mit AMD GPU absetzen, doch mir fehlt hier alleine der Glaube daran.

Also wo sind die konkreten Messungen die das zeigen??
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Zwiebelsoße schrieb:
Ein 5900x kostet aktuell 800 Euro.
Da sind selbst 550 für den 11900K nicht extrem teuer.
Und welchen 12 oder 16 Kernel von Intel stellst du nun dagegen?
 
  • Gefällt mir
Reaktionen: peterX, IT-Wally, NeuerJunge und 3 andere
bad_sign schrieb:
Mein 5950X hat mich 900€ gekostet, kurz vor Weihnachten und 2 Tage später gab es ihn für 890€ und ich dachte jetzt fällt der Preis. Aber dann war er weg :)
Bei Newegg für 550$, wenn mal lagernd

Da wird einem mal wieder bewusst, wie unterschiedlich der Hardwaremarkt in verschiedenen Ländern ist. Die Preise in den USA sind ja um einiges niedriger, als in Deutschland, und es gibt ja auch noch andere Länder wo die Preise die deutschen übersteigen.

Ist auch nichts neues und hat nicht unbedingt mit der Korona Krise was zu tun, war ja lange schon davor der Fall sowohl mit CPUs wie auch GPUs. Man könnte meinen, die Preise würden sich mit besserer Lieferbarkeit angleichen, aber ist bei Release schon seit Jahrzehnten immer dasselbe Spiel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign und Mcr-King
Salamimander schrieb:
Und welchen 12 oder 16 Kernel von Intel stellst du nun dagegen?

Keinen, wobei in 5 Tagen wird Ice Lake SP vorgestellt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zwiebelsoße schrieb:
Man müsste Zen 3 und Rocket Lake jeweils mit 6900XT und 3090 in 720p benchen um behaupten zu können, dass die Radeons besser mit Zen 3 umgehen können.
Werde ich machen mit 11900K und 5900X (6800XT vs. 3090) und ich bin schon brennend auf die Ergebnisse gespannt.

Wahrscheinlich wird dann gemeckert, dass es nicht die 6900XT ist. ^^
 
  • Gefällt mir
Reaktionen: Fuchiii, oeMMes, Tzk und 2 andere
Rockstar85 schrieb:
Ich war erstaunt, dass Igor Tatsache nur 109W beim 10900K hatte.. dann dürfte der 10850K auch nur ne handbreit überm 5800X sein und damit knapp unterm 5900X..
Da frage ich mich echt, was da bei Intel schief lief.

Imo, finde es vertretbar, der 10850K hat mehr Multicore Leistung, als der 5800X (der 5800X hat natürlich mehr IPC), in Spielen geben die sich nicht viel und die mehr an Watt selbst bei voller Auslastung (was nicht immer anliegt) sind dann vielleicht 10-15 Euro pro Jahr, wie 0ssi sagte.

Die CPU halte ich sowieso für die sinnvollste im Intel Lineup der letzten zwei Gens was Produktivität für den privaten Bereich angeht (für die allermeisten Spiele reicht auch ein Sechskerner noch gut), die würde ich auch für Anwendungen nehmen, falls das Geld für einen 5900X nicht reicht, sind ja 389 Euro für den 10850K gegen 799 Euro für den 5900X. Der 5900X ist ganz klar besser, ist aber imo noch zu teuer, es sind ca 32-35% mehr Multicore Leistung im Vergleich zum doppelten Preis.
 
Zuletzt bearbeitet:
Zwiebelsoße schrieb:
Keinen, wobei in 5 Tagen wird Ice Lake SP vorgestellt.
Dann vergleiche einen 5900x auch nicht mit einem 8Kerner im Preis... Erinnerst du dich nicht an 2500€ für 6 Kerne von Intel? Ich schon, garnicht lange her
 
  • Gefällt mir
Reaktionen: Mcr-King
Kann es sein, das die 11 Gen. für all jene die nur eine Einsteiger bis Mittelklasse GPU besitzen und ab und an auch mal mit den Grafikeinstellungen spielen müssen, nichts taugt?

Das folgende ist nur ein Beispiel von vielen, denn gefühlt betrifft diese Phänomen ja so gut wie jedes zweite Spiel. Bei Ultra Einstellungen kommt es ja in der Regel nicht so zur Geltung und die Ergebnisse rücken wieder zusammen.

rdr2 new.png
rdrs ultra.png

Quelle
 
  • Gefällt mir
Reaktionen: Mcr-King
Freiheraus schrieb:
Die 8 Kern Rocket Lakes stehen auch nicht viel besser da, Zen 3 ist entfesselt (mit Radeon-GPU) in 720p zornig schnell.
Joar, entfesselt mit 3% Unterschied oder so. Wow.
grafik(1).png

Aber das wurde mit einem 10900K gemessen von uns, mit nem Ryzen sieht das natürlich gaaanz anders aus.
 
  • Gefällt mir
Reaktionen: Klever, foo_1337, USB-Kabeljau und 2 andere
ArrakisSand schrieb:

Da stinkt Intel ja richtig ab, bei den 6-Kernern selbst der AMD 3600 mit seiner schlechteren IPC besser. Muss ich mal glatt gucken, ob die Seite auch GTA5 hat.
 
Salamimander schrieb:
Dann vergleiche einen 5900x auch nicht mit einem 8Kerner im Preis...

Wieso sollte man das nicht vergleichen können? Man kann auch 5800x und 5900x vergleichen und zu demEntschluss kommen, dass es den 100% Aufpreis nicht wert ist.
Ergänzung ()

ZeroStrat schrieb:
Aber das wurde mit einem 10900K gemessen von uns, mit nem Ryzen sieht das natürlich gaaanz anders aus.

AMD darf man halt nur mit AMD kombinieren, das wusste man auf dem Hardware Stammtisch schon immer, dafür braucht es keine klaren Messergebnisse, das ist vielmehr so eine Gefühlssache.^^

Ich hatte früher mal AMD CPU, GPU und SSD, sowie AMD RAM, gefühlt ging das ab wie Hulle.

Scherz bei Seite, im 99th percentil ist es sogar ein Gleichstand zwischen Radeon und Geforce im CPU Limit🤨
Ergänzung ()

ArrakisSand schrieb:
Das folgende ist nur ein Beispiel von vielen, denn gefühlt betrifft diese Phänomen ja so gut wie jedes zweite Spiel.

Wenn das System nicht rund läuft, kommt halt sowas bei raus. ☹️
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau
Klever schrieb:
Imo, finde es vertretbar, der 10850K hat mehr Multicore Leistung, als der 5800X
Das war auf den 11900K bezogen, der man eben bummelig 30W mehr zieht. Und da ich immer noch die Temperatur abführen muss, ist das eben nicht unerheblich.

Weniger Verlustwärme führt zu leiseren Systemen. So einfach ist das. Und deswegen finde ich spannend wie gut in Teillasten der Intel 10th gen ist.

Unter Last, sieht das ganze anders aus. Und nein ich werde nicht für Intel plötzlich Andre Maßstäbe ansetzen, denn bei AMD gab es mehrfach die gleiche Diskussion und da war dann die niedrigere TDP das Killerargument für Intel.
Oder Analog bei Nvidia.
Und genau dieses Messen mit zweierlei Maß, ist halt alles andere als objektiv
 
  • Gefällt mir
Reaktionen: USB-Kabeljau und DonL_
@Rockstar85 Jeder setzt sich da eigene Maßstäbe, ist ja auch richtig so. Jemand mag ein flüsterleises System, jemand anders stört etwas mehr Geräusche nicht, fängt ja selbst bei der Entscheidung für das eine oder andere Custom Design ein und derselben Grafikkarte an. Das eine Design mag von der Leistung besser sein, zieht aber mehr Strom als ein anderes Design, das leiser ist aber etwas drunterliegt etc.

Bis hin zu den Gehäusen, ein Gehäuse kann gut geräuschisoliert sein, aber nicht sonderlich gut geeignet für den Airflow und umgekehrt.

Und an die Diskussionen kann ich mich noch erinnern bzw die Lastaufnahme, hatte selber lange Zeit einen Bulldozer, hat der mehr als ein Intel gezogen? Sicherlich, war aber vom Preis her attraktiv, weswegen ich mich damals für einen Bulldozer ausgehend von meinem Budget auch entschieden habe, statt für einen Intel. :)
 
  • Gefällt mir
Reaktionen: Verak Drezzt
@Klever

Korrekt, aber damit du Mal verstehst wie verquer die Sache ist. Schau dir den Text des 1800X zB an. Da wurde über 10W mehr regelrecht hergezogen, Gleiches galt für den x570. Und das von den Leuten, die nun sagen: alles halb so wild.

Und genau dieses zweierlei Maß geht mir gehörig auf den.. und am Ende sollen diese Menschen objektiv sein? Man muss dabei auch berücksichtigen, dass Intel immer noch Marktführer ist und AMD eine unbedeutende klitsche mit knapp 30% Marketshare ist. AMD verdient das, was Intel im Quartal an Gewinn hat.

Ich messe Menschen an den was sie sagen. Und wie ich schon sagte, Fehler eingestehen ist mitnichten eine Charakterschwäche

Ich finde aber den Verbrauch eines 8 Kern 11900K mit 130W in Spielen zu heftig, wenn selbst der 10C 10900K nur ~ 105W braucht. (Ich Wette mit dir, der 11900K wird ein Vapor Produkt und jeder mit etwas Grips, würde einen 11700K oder eben einen 10850K nehmen)
Von einem 5800X sehen wir Mal ab. Effizienz technisch spielt AMD in einer eigenen Liga, unter Teillast nun auch. Und es war klar, dass die größeren Caches mehr Energieverbrauch bedeuten. Unter der Prämisse, dass so was auch Fortschritt mit sich bringen sollte, was man tatsächlich im mobile Bereich sieht, sollte man einen großen Bogen um RKL machen.

Und Bulli war, eine bessere Heizung. Selbst ein Thuban 1055T war besser. Mit den FXx300 wurde es etwas besser, aber die 8100er und 6100er waren einer Frechheit. Mein 955BE war schneller und sparsamer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Celinna, USB-Kabeljau, Mcr-King und 2 andere
Rockstar85 schrieb:
@Klever
Und das von den Leuten, die nun sagen: alles halb so wild.

Und genau dieses zweierlei Maß geht mir gehörig auf den.. und am Ende sollen diese Menschen objektiv sein?

Könntest du denn ein konkretes Zitat anführen um das zweierlei Maß zu belegen?

Was sagst du zu den Werten von Zero Strat im CPU Limit mit Radeon und Geforce? Sind doch bei den wichtigen percentilen im CPU Bottleneck gleich flott., wo ist der Treiberoverhead denn nun?Wieso sollte ich unbedingt mit ner Radeon benchen, bzw es besser sein?

Da sind auch DX12 Spiele dabei...
Ergänzung ()

Rockstar85 schrieb:
Ich reagiere einfach allergisch auf Polemik.

Schließt das deine eigene mit ein?
Kommt mir nicht so vor.
Ergänzung ()

Rockstar85 schrieb:
Ich finde aber den Verbrauch eines 8 Kern 11900K mit 130W in Spielen zu heftig, wenn selbst der 10C 10900K nur ~ 105W braucht.

Wenn der 11900K 11% woanders schneller ist, hält sich das FPS/Watt Verhältnis noch in Grenzen. Hier im Test gibts ja offensichtlich Ladehemmungen mit Rocket Lake.

Also ich würde tippen, dass Rocket Lake im hoffentlich korrigierten Test, dann 5% vor dem schnellsten AMD liegt. ;)
 
Zuletzt bearbeitet:
ZeroStrat schrieb:
Joar, entfesselt mit 3% Unterschied oder so. Wow.

ZeroStrat schrieb:
Aber das wurde mit einem 10900K gemessen von uns, mit nem Ryzen sieht das natürlich gaaanz anders aus.

Ich kann hier nicht mal erkennen ob DX11 oder DX12 verwendet wurde, denn mehrere Titel bieten beide Möglichkeiten. Und die API ist hier recht entscheidend.
Teste außerdem mal Assassin's Creed Valhalla@720p (oder Watch Dogs Legion oder Immortal Rising Fenyx) mit vernünftigen Einstellungen, da treibt es dir und PCGH_Raff die Tränen ins Gesicht. Aber die Titel sind ja kaputt.

Und ja, definitiv würde Zen3-Ryzen stärker ausgebremst als der 10900K. Igor hat sich auch damit beschäftigt: https://www.igorslab.de/radeon-rx-6900xt-oder-rtx-3090-fuer-cpu-tests-eine-analyse-und-vorschau/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Starkstrom, Mcr-King und DonL_
Rockstar85 schrieb:
Und Bulli war, eine bessere Heizung. Selbst ein Thuban 1055T war besser. Mit den FXx300 wurde es etwas besser, aber die 8100er und 6100er waren einer Frechheit. Mein 955BE war schneller und sparsamer.
Deshalb habe ich auch von Januar 2011 bis Mai 2017 mit einem X61090T "überwintert", der läuft bei Papa im Büro immer noch, nach 10 Jahren, jetzt mit einer RX 560. :D
Gott sei Dank wurden meine Gebete erhört, nie einen Intel, in meinen privaten Desktop bauen zu müssen!:D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daknoll, Rockstar85 und Zwiebelsoße
Freiheraus schrieb:
Und ja, definitiv würde Zen3-Ryzen stärker ausgebremst als der 10900K. Igor hat sich auch damit beschäftigt: https://www.igorslab.de/radeon-rx-6900xt-oder-rtx-3090-fuer-cpu-tests-eine-analyse-und-vorschau/

Wo siehst du das diesem Test?
Das sind ja nur 4 Spiele und 3 skalieren mit Geforce und Radeon auf AMD und Intel CPU prozentual ziemlich identisch ins CPU Limit, zu bedenken ist ander Stelle auch, dass die Nvidia GPU in der Regel leicht schneller als eine 6900XT ist, insofern muss bedacht werden, dass in 1440p, da nur Prozentwerte und keine FPS Werte angegeben werden, ein CPU Limit eher auftritt. Den Unterschied macht 1 Spiel und das ist Watchdogs. Hier skaliert die AMD GPU besser mit Ryzen als mit Intel.

Das kann auch völliger Zufall sein.
Die Unterschiede sind prozentual nicht signifikant, zudem mangelt es an genügend Spielen, das sollten mindestens 8 oder besser 10 sein.

Am Ende skaliert die AMD Inhouse Kombination sagenhafte 4% Punkte besser als die AMD Intel Kombination, wenn es ins CPU Limit geht.

Bei nur 4 Spielen ist das Testergebnis absolut nichts wert. Und nein, es bedeutet nicht, dass die Radeon besser zum CPU testen ist... sondern das Testergebnis bedeutet hinsichtlich dessen letztendlich gar nichts.

Bei den 4 Spielen kann man mit ner AMD GPU halt ~6% besser mit 5800x und 2% besser mit 11700K im CPU Limit spielen.

Teste ich mehr Spiele dann gleichen sich die Werte auf +- 0 an und pendeln sich ein, oder es bleibt ein kleiner Radeon Vorteil. Aber was man da vor allem benötigt sind mehr Spiele.

Ein 10900K ist nicht im Test, sondern nur der 11700K mit kaputtem Bios/RAM.
Alleine deshalb muss man den Test neu machen.
 
Zuletzt bearbeitet:
Viel schlimmer muss der neue SoundChip auf den Z590 sein na da wird Creative ein echten Verkausbomm erleben. 😉

Denn der ALC4080 ist über USB 2.0 angebunden nicht wie sein Vorgänger direkt.

Da bin ich auch noch gespannt was da raus kommt grade die Lantzen könnten miese werden.
Ergänzung ()

So zum Schluss es ist doch ziemlich aufgeheizt die Stimmung gab es ja schon ewig nicht mehr nach ein Intel test.

Also insgesamt können wir feststellen dass die i5 10er besser sind als die 11er i5 da weniger Strom und Hitze abgegeben wird.

Es ist einfach gesagt nur ein Lückenfuller der nicht wirklich überzeugt finde ich, wie gesagt iGPU wird nirgends getestet warum auch immer.

Da bin ich mal auf die 5000er APUs von AMD gespannt dort soll die Video Einheit auch AV1 können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tom081580 und 'Xander
Zurück
Oben