Test Core i9-11900K und i5-11600K im Test: Die 14-nm-Brechstange

Taxxor schrieb:
GPU Tests mit 5900X, CPU Tests mit 6900XT, was ne Zeit^^
Beim Zen3 wars ja halbwegs abzusehen, aber bei RDNA2 glaubten ja viele vor ein paar Monaten noch, dass man höchstens eine 2080ti einholen wird.
Hätte AMD wohl prä Zen niemand zugetraut, zu den damals beiden übermächtigen Gegnern aufzuschließen/überholen. Bulldozer vs Kaby Lake, Fury X vs 1080ti, das war Härte :p
 
  • Gefällt mir
Reaktionen: danyundsahne, Celinna, Mcr-King und eine weitere Person
guggi4 schrieb:
Beim Zen3 wars ja halbwegs abzusehen, aber bei RDNA2 glaubten ja viele vor ein paar Monaten noch, dass man höchstens eine 2080ti einholen wird.
Hätte AMD wohl prä Zen niemand zugetraut, zu den damals beiden übermächtigen Gegnern aufzuschließen/überholen. Bulldozer vs Kaby Lake, Fury X vs 1080ti, das war Härte :p
Dazu mit wesentlich weniger Manpower und wahrscheinlich nicht mal 1/10 wohl eher 1/50 des Budget und 4 Jahre später hat man an einer Front den absoluten Top Dog und an der anderen Front steht es fast Pari je nach Auflösung. Das nennt man "Kampfgeist", diese Herausforderungen unter den denkbar schlechtesten Umständen anzunehmen und auch noch erfolgreich zu sein.
Man kann die Leistung von AMD und seinen Mitarbeitern in diesen 4-6 Jahren gar nicht genug würdigen!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hardwarious, danyundsahne, fraqman und 4 andere
Rockstar85 schrieb:
Um es genau zu sagen. Er ist die Grabenkämpfe leid. Vieles hier in euren Test ist nicht koscher und Nachdem man sachlich drauf hingewiesen hat, das die Werte nichts taugen, wurde eigentlich nur der gleiche ad Homiden geliefert.
Um hier eine Sache dazuzuschreiben: ZeroStrat hat von mir eine mehr oder weniger freundliche PN bekommen zu diesem Thema und zwar auch mit dem Hinweis meinen Beitrag genau zu lesen, weil er zum Beispiel genau das Anspricht, was ich ja in dem Beitrag davor auch zu den 720p-Tests geschrieben habe: Sie liefern eine wunderbare Aussage über die Engine und auch über die CPU-Architektur.

Testet man Spiele in 720p, gibt es halt - ich habe es bereits mehrfach - einige Aussagen, grob: Qualität der Engine, Leistungsfähigkeit der CPU, Infrastruktur der CPU, Softwareinfrastruktur des Systems, Optimierung der Engine.

Die »primäre« Aussage ist also immer: Läuft die Engine auf einer CPU gut oder schlecht. Nimmt man nun mehrere Engines, kann man durchaus auch eine Aussage darüber treffen, ob eine CPU zum Zeitpunkt X sich zum Spielen eignet oder nicht.

Nur, wie auch damals bereits zu der anderen Person: Solche Tests sind immer eine Momentaufnahme und ein schlechtes Abschneiden einer Architektur kann zu einem Zeitpunkt X sehr viele Gründe haben und all diese Gründe sind auch die möglichen Aussagen zum Zeitpunkt X: Fehler in der Engine, Engine schlecht/nicht optimiert, Infrastruktur-Problem (Hardware)- wenn z.B. die theoretische Rohleistung vorhanden ist, aber nicht auf die Straße kommt, Infrastruktur-Problem (Software) - zum Beispiel ein nicht optimierter Sheduler im OS.

Zuverlässige Aussagen kann man also nur über die aktuellen auf dem Markt befindlichen Spiele treffen. Aussagen über die Zukunftsfähigkeit einer CPU werden jedoch mit jedem Monat, den man hinzu nimmt, ungenauer und genau das hat sich eben nun bei SkyLake als auch Zen und Zen+ gezeigt: 2017 und 2018, als die CPUs auf den Markt kamen. 2017 und 2018 war quasi "jede" SkyLake-CPU jeder Zen und Zen+ CPU voraus in den 720p und die "kleinen" 4-Kerner und die kleinen 6-Kerner ohne HT haben mit den 6-Kerner und den 8-Kerner den Boden gewischt.

Jetzt kam aber eine neue Generation an Spielen raus und während die "4-Kerner" und "6-Kerner" ohne HT von SkyLake durchaus ihre Probleme haben, während AMDs 4-Kerner mit SMT, 6-Kerner mit SMT und die 8-Kerner sich zum Spielen noch eignen. Erst die 4-Kerner und 6-Kerner mit HT der SkyLake-Architektur liefern entsprechend die Leistung ab, wie man erwartet.

Dazu kommt nun, wie du so schön ansprichst: Gerade Zen+ hat in letzter Zeit durchaus auch "aufholen" können, was die "IPC" angeht bei 720p bei neueren Spielen zu SkyLake und oft rettet SkyLake hier dann primär der höhere Takt den "Arsch".

Damals haben sehr viele die 720p-Tests stumpf genommen und ohne "Kontext" der möglichen zukünftigen Entwicklung quasi jedem erklärt, warum der 1600X und 1800X nicht "Zukunftssicher" ist, während der 7600k und auch der 7500 ja viel besser altern werden. Gleichen Spiel dann damals mit dem 8600K und dem 8500 und 8400.

Das heute 4-Kerner ohne HT und 6-Kerner ohne HT durchaus Probleme bei neueren Spielen haben und ihre so tolle 720p-Performance von vor 3 und 4 Jahren nicht mehr wirklich auf die Straße bringen, war damals zwar für viele nicht zu erkennen - Spiele werden nicht mehr als 4 Kerne brauchen, wie oft habe ich das damals hier gelesen, und manche von diesen Personen machen sich dann über "Bill Gates und das ihm fälschlicherweise zugeschrieben Zitat mit 768 KiB RAM lustig - aber eigentlich schon absehbar.

Und genau hier ist jetzt auch das Problem, dass ich mit den 720p-Tests habe, zumindest wenn man sie für die "Zukunft" nutzen möchte: Verlässt man sich alleine auf diese - was viele machen - dann vernachlässigt man zu viele mögliche Variablen und speziell in diesem Fall sind es folgende Variablen gewesen: (1.) Die Anzahl der Threads steigt doch und damit der Bedarf nach logischen Kernen. Man kann Kerne "bedingt" mit IPC ausgleichen, aber nicht vollständig: Hier liegt es daran, wie die Threads arbeiten und wie das OS die CPU verwaltet und wie die Zeitschlitze zugeteilt werden, ich kann hier jedem nur empfehlen mal den Taskmanager aufzurufen und wie viele Threads sich um "Rechenzeit" prügeln. Und der nächste Punkt: Zen war damals wirklich eine neue Architektur, gerade durch das Interconnect. Da AMD 2017 quasi keine Rolle für Spiele spielte, haben die Entwickler ihre Spiele primär auf Intel-Hardware gestest und entsprechend angepasst. Erst ab 2017 haben Spieleentwickler überhaupt in Betracht ziehen können wieder für AMD "zu" optimieren auf dem PC. Tests und Optimierungen kosten Zeit, die konnte man sich 2011 - 2017 für AMD quasi sparen, wie wichtig aber Tests und Optimierungen manchmal sind, sieht man halt erst, wenn man selbst mal Entwickelt und zwar auf Leistung getrimmt.

Und genau hier ist der nächste Punkt: 720p-Tests zum Zeitpunkt X lassen alle möglichen "Optimierungen" und "Entwicklungen" zu einem späteren Zeitpunkt außer Acht. Wir sind also wieder bei dem Punkt: Was zeigen uns die 720p-Tests zu einem Zeitpunkt X?

Zuverlässige Aussagen lassen 720p-Tests primär für die getestet Spiele zu und wie gut dafür die CPU geeignet ist. Alles andere sind Interpolationen und Interpretationen die sich sowohl als zutreffend als auch eben nicht zutreffend erweisen können. Und für solche Aussagen ist es dann wichtig, dass man eben nicht nur "720p"-Tests nimmt, sondern weitere Variablen beachtet und darauf dann eine Prognose aufbaut, nur lassen viele - und gerade die, die die 720p-Tests verteidigen - genau diese Variablen außer acht und sützen sich nur auf den Testbalken und DAS ist es, was ich falsch finde und auch angreife und es hat sich nun auch gezeigt, dass ich mit meiner Einschätzung weitgehend richtig liege.

Und was mir hier oft sehr negativ aufstößt: Es wird hier oft von vielen eine "differenzierte" Sichtweise gefordert, doch kaum einer ist wirklich bereit diese Differenziertheit an den Tag zu legen und erst recht nicht, wenn die andere Aussage im groben einem Widerspricht, dann wird hier oft gerne von oben herab jemand belehrt - man siehe den Beitrag von Zwiebelsoße, in dem er ja meint, dass er von mir mehr erwartet hätte - oder auch von ZeroStrat, der mich angreift, im Endeffekt aber genau DAS schreibt, was ich vorher schon angesprochen habe.

So, da jetzt aber Ostern ansteht: Euch allen ein frohes Fest.

Taxxor, ZeroStrat, ihr werdet nach Ostern entignoriert. Alle anderen: Mal schauen!
 
  • Gefällt mir
Reaktionen: Kalsarikännit, bad_sign, Heschel und 3 andere
Taxxor schrieb:
Du hast die Szenen, du hast die Settings, du hast die Hardware, du hast die Bench-Software, jeder hier im Forum mit entsprechend starken GPUs kann sich einen 11700K holen und die Tests genau so nachstellen, mehr Transparenz geht nicht, was soll an den Werten nun nichts taugen?
Eure Ergebnisse weichen so stark vom Median an, dass man sie schon fast als Ausreißer sehn muss..
Dass ihr beide das nicht versteht, finde ich schade, denn der Aufwand war sicher nicht unerheblich.. Leider ist das Fazit eurer Tests nur, dass ihr nachtesten müsst.. Und eure Werte nicht Valide sind.

Nenn es Wissenschaftlicher Konsenz. Aber wenn einer so krass abweicht, dann hat er falsch gemessen, oder geraten..

Und die Tests, die ich gelesen habe sind eindeutig.. zwischen 7-9% mehr in Spielen.. Und bis zu 20% mehr IPC in Cinebench, aber nicht Ausreichend für AMD.

https://www.guru3d.com/articles_pages/intel_core_i5_11600k_processor_review,22.html

Um es einfach zu sagen:
Änders du die Engine, änderst du auch die Rahmenparameter.. Da zu sagen: Igor misst Mist, halte ich für extrem vermessen. Das galt aber schon bei Skylake oder Core. Nur hat es keinen interessiert, weil Intel ja vorne is. Und GN hat die Spezifikation des Ram schon vereinheitlicht und kommt dennoch auf Ergebnisse analog zu Anandtech, TPU und eben HWluxx und CB..

Lasst eure Ergebnisse von meinetwegen CB validieren.. Ich wette sie sind nicht Valide.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
flappes schrieb:
Nein wird es nicht, da Rocket Lake schnelleren Speicher hat und der auch damit getestet wurde.

Benches des 10400f mit schnellerem RAM gibt es ja genug. Im Mittel 5%, in manchen Spielen mehr in manchen überhaupt kein Unterschied. Die 5% sind also beim 11xxx Test schon mit drin.
Deine Aussage ist zwar so nicht falsch, aber irgendwie ist dieses Forum extrem pro AMD, da hier nicht mit dem gleichen Maßstab gerechnet wird.
Mein Vergleich war doch das der Intel selbst bei 2666 schneller war als der damalige Ryzen 3600 mit 3200 MHz. Merkst was?

In der genau selben Diskussion wird raus gehauen beim Ryzen geht mit dem RAM mal locker 20-30%.
Die Wahrheit ist doch das ist beim Intel genauso, nur sieht man davon nichts im GPU Bottleneck. Das ist auch schön im Test zu sehen, spätestens bei 4k schmilzt der Vorsprung mit schnellem RAM gegen Null.
Daher wird hier in der Ryzen RAM OC Community sich auch schön das Märchen von so vielen % weiter erzählt und das Ganze dann in 720p gemessen mit Low Settings.
Interessanter sind hier die Frame Times, die sind bei meinem Rocket Lake gegenüber meinem Comet Lake deutlich stabiler und den Turbo kann man auch gut regulieren wie man möchte, vorausgesetzt der Mainboard-Hersteller hat das implementiert.

Hab abgesehen von leicht erhöhten Temps und mehr Stromverbrauch im Turbo keinerlei Nachteile. Im 3D Mark jetzt endlich die 10k Punkte gesprengt, war mit meinem Comet Lake 10400F nicht möglich.
Hab aber derzeit auch nur lahmen 3000er Speicher drin, werde mir da noch Crucial oder so holen die 3600 packen, da geht noch einiges.

aldaric schrieb:
Unfug. 3000er CL16 Crucial Balistix machen ohne großen Aufwand 3800 CL16 mit.

Ähm wie bitte? Was du schreibst hatte gar nichts mit meiner Aussage zu tun, mal abgesehen davon das man an deiner Diskussionskultur mit dem anderen User hier merkt das dir vieles an Wissen fehlt. Im anderen GPU Thread wusstest du ja auch nichts über Spannugswandler und versuchst noch rum zu diskutieren.
Die Crucial Speicher sind taktfreudig, das gilt für die meisten billigen Speicher eben nicht. Keine Ahnung wem oder damit jetzt geholfen hast xD
 
@Erzherzog
Micht ganz, wie Eselnel und Cm87 gezeigt haben..
Würde man aber wissen, wenn man mal die Datenbank von CB nutzen würde.

https://www.computerbase.de/artikel...k-vs-amd-ryzen-9-3900x-mit-ram-oc-test.72132/
https://www.computerbase.de/artikel/arbeitsspeicher/ram-oc-amd-ryzen-3000-test.68585/
https://www.computerbase.de/artikel...ee-lake-s-vs-skylake-x-mit-ram-oc-test.71805/
https://www.computerbase.de/artikel/arbeitsspeicher/kaufberatung.68045/

Das Forum ist weder ProAMD noch ProIntel.. Sondern ProIT...
Also unterlasse bitte solche Unterstellungen und bevor du hier Unwahrheiten sagst, mach dich mal schlau!
 
  • Gefällt mir
Reaktionen: karl_laschnikow, Celinna, bad_sign und 2 andere
Rockstar85 schrieb:
Nenn es Wissenschaftlicher Konsenz. Aber wenn einer so krass abweicht, dann hat er falsch gemessen, oder geraten..

Und die Tests, die ich gelesen habe sind eindeutig.. zwischen 7-9% mehr in Spielen.. Und bis zu 20% mehr IPC in Cinebench, aber nicht Ausreichend für AMD.
7-9% und bei uns sind es 9,6%, wo sind wir da jetzt ein krasser Abweicher?
Bei CB sind es 0% und die sollen usnere Werte validieren?
 
Dann frag dich mal, wieso Euer Endergebnis so massiv vom Median abweicht..
Vllt hat euer Tool ja Mist gemessen.
Oder wie kommt ihr zum Fazit, dass Rocketlake soviel besser is? 7% hat man bei 8700K zu 9900K ebenso gesehen.. Selbst der 9700K lag im Rahmen des Erwartbaren
Das ist am Ende keinen Metalspin wert..
 
@Rockstar85
Aha, deswegen muss man auch den ganzen Test hier lesen um in einem Abschnitt zu erfahren das Intel wohl im Gaming aktuell die beste P/L CPU im Portfolio hat?
Hier wurde nur die Oberklasse getestet, die für 99% der User keine Relevanz hat. Das Forum hier ist nicht repräsentativ. Ich will aber hier auch nicht pro Intel argumentieren, ist einfach nur eine Feststellung. Und was sich da mit dem RAM OC einen abgehobelt wird verstehe wer will, Intel hat das mit dem Speicher korrigiert und gut ist. Man kann B560 oder B550 kaufen. Sehe da kein Problem!
 
Rockstar85 schrieb:
Dann frag dich mal, wieso Euer Endergebnis so massiv vom Median abweicht..
Vllt hat euer Tool ja Mist gemessen.
Klar, und bei CB hats dann plötzlich wieder funktioniert ne^^

Du sagtest die Tests die du gelesen hast wären eindeutig und sagen 7-9% mehr in Spielen, genau da sind wir doch auch, eben am oberen Ende. Wie können wir dann massiv vom Median entfernt sein, der ja dann irgendwo zwischen 7 und 9% liegen müsste?
 
  • Gefällt mir
Reaktionen: Zwiebelsoße
Erzherzog schrieb:
In der genau selben Diskussion wird raus gehauen beim Ryzen geht mit dem RAM mal locker 20-30%.
Die Wahrheit ist doch das ist beim Intel genauso, nur sieht man davon nichts im GPU Bottleneck.

Da hast du wohl eher subjektiv gelesen. Es wurde angemahnt das der 10400F zu seiner Zeit noch ein Z Board benötigte, was das ganze Budget denken dieser CPU ad absurdum geführt hat. Zu der Zeit war es halt beim R5 auf jedem Billig-B-Board möglich den Ram hochzusetzen. Womit der 10400F nur auf Z-Boards mithalten konnte.

Das Thema hat sich ja jetzt erst mit den B-Boards gelöst. Wobei man da jetzt wiederum aufpassen muss, dass man den 11400F nimmt, da man sonst einen toten M2 Slot hat. 🙈

Elegant gelöst hat das Intel dann leider auch nicht.
 
  • Gefällt mir
Reaktionen: DonL_ und Rockstar85
@Erzherzog
Das hier ist ein Enthusiasten Forum.. Du solltest, wenn du schon meinst mitzureden, auch vorher dir die Infos holen, damit Unterstellungen wie: ProAMD Forum gar nicht erst kommen.. Ich mach das Spiel seit nun mehr fast 17 Jahren mit.. Es sind am Ende immer die gleichen, die behaupten Volker wäre ProAMD/Intel/Nvidia

@Taxxor
Es ist nicht das erste Mal, dass euer Tool Mist misst (hatten wir auch schon in einem Test erlebt). Gerade die Power Comsumption finde ich sehr fragwürdig. Da halte ich mich aber auch an Igor, weil die Messungen einfach verdammt genau sind.

Rechner dir gerne mal hier die IPC Steigerungen durch..
https://www.guru3d.com/articles_pages/intel_core_i5_11600k_processor_review,22.html
Kann man ja mal spaßeshalber machen, damit man auch mal sieht, wie schlecht Skylake skalierte.
 
  • Gefällt mir
Reaktionen: DonL_
@aldaric
Du nennst genau den springenden Punkt. Wir sind nicht mehr in der Vergangenheit. Und ich wiederhole nochmal, selbst mit 2666 MHz war das Ding konkurrenzfähig, da günstiger und gegen den 3200er beim cb Test besser in Games. Über OC reden wir da erst mal nicht. Und ja es geht jetzt auch beim Intel und das kommt aberr alles bei vielen Leuten nicht an. Vergangenheit < Gegenwart

@Rockstar85
Unterstell mir mal nix, ich habe da von den Ryzen RAM OC Leuten gesprochen. Schon richtig zuweisen. Der Test ist noch mal ein anderes Thema :)
 
Rockstar85 schrieb:
Es ist nicht das erste Mal, dass euer Tool Mist misst.
Was gemessen wird bestimmt immer noch PresentMon, und die Power Consumption gibt das aus, was alle anderen Tools auch ausgeben, also kannst du dann 99% aller Reviews vergessen, da fast alle auf Tools setzen, die PresentMon für die Frametimes und HWInfo o.ä. für die Verbräuche nutzen.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße
Erzherzog schrieb:
@aldaric
Du nennst genau den springenden Punkt. Wir sind nicht mehr in der Vergangenheit. Und ich wiederhole nochmal, selbst mit 2666 MHz war das Ding konkurrenzfähig, da günstiger und gegen den 3200er beim cb Test besser in Games.

Wobei das damals je nach Test und Parcours doch stark unterschiedlich ausschlagen konnte. Generell waren die CPU's eher gleichwertig. Einen richtigen Stock-Sieger gab es da nicht. Das Pendel ist blos bei den Reviewern klar ausgeschlagen, weil die AM4 Plattform nicht limitiert war + den recht passablen Boxed Kühler.

Das Problem was jetzt der 11400F bekommt, ist die Sättigung des Marktes in diesem Segment. Du kannst dir gar nicht vorstellen, wie dieser Markt 2 Jahre lang vom R5 3600 geflutet wurde.

Ich bin gespannt wie sich das entwickelt, ob der 11400F dieses mal den 10400F in den Stückzahlen knacken kann.
 
@Erzherzog
Ich zitiere deine Aussage nicht, die kann jeder selber lesen in #825.
Du kannst natürlich nun auch deine Aussage bearbeiten, das macht das ganze nicht besser

Und hier mal bissl Fakten
https://www.igorslab.de/intel-core-...3-3300x-im-showdown-benchmarks-und-verbrauch/

@Taxxor
Wäre nichts neues.. Und dann frag dich mal, wieso zB Igors Werte soviel besser passen? Selbst mit den Vorgaben von zB AMD oder eben auch MSI?
https://www.igorslab.de/intel-core-...rde-schnell-heiss-und-ganz-schoen-durstig/10/
 
Erzherzog schrieb:
Du nennst genau den springenden Punkt. Wir sind nicht mehr in der Vergangenheit. Und ich wiederhole nochmal, selbst mit 2666 MHz war das Ding konkurrenzfähig, da günstiger und gegen den 3200er beim cb Test besser in Games. Über OC reden wir da erst mal nicht. Und ja es geht jetzt auch beim Intel und das kommt aberr alles bei vielen Leuten nicht an. Vergangenheit < Gegenwart
Ich kann deine Behauptungen nicht nachvollziehen!

Und günstiger war der 10400f nie bis November/Dezember 2020, davor kosteten die CPUs und Boards mit RAM in etwa gleich und wie gesagt man konnte RAM OC bei Intel nur mit Z-Boards machen.
Auch war der 3600 fast ein Jahr konkurrenzlos in der Preisklasse, weil sich keiner einen 9400f 6 Kerner ohne smt antuen wollte, insoweit war er die Standard Empfehlung lange bevor ein 10400f die Welt erblickte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Heschel
aldaric schrieb:
Das Problem was jetzt der 11400F bekommt, ist die Sättigung des Marktes in diesem Segment. Du kannst dir gar nicht vorstellen, wie dieser Markt 2 Jahre lang vom R5 3600 geflutet wurde.
Das ist doch für die Kunden gerade gut was du schreibst, denn daher wird der Intel im Preis für Gamer wohl die zu empfehlende CPU sein. Schreibt cb selbst hier in einem Absatz.

Rockstar85 schrieb:
ch zitiere deine Aussage nicht, die kann jeder selber lesen in #825.
Du kannst natürlich nun auch deine Aussage bearbeiten, das macht das ganze nicht besser

Und hier mal bissl Fakten
Ich lese selber ab und zu Igor :)
Deine Diskussionskultur ist ziemlich angesäuert, ob da Frust eine Rolle spielt?
Ich ändere gar keine Aussage, es stimmt alles so wie es da steht. :)


DonL_ schrieb:
Ich kann deine Behauptungen nicht nachvollziehen!

Und günstiger war der 10400f nie bis November/Dezember 2020, davor kosteten die CPUs und Boards mit RAM in etwa gleich und wie gesagt man konnte RAM OC bei Intel nur mit Z-Boards machen.
Auch war der 3600 fast ein Jahr Konkurrenzlos in der Preisklasse, weil sich keiner einen 9400f 6 Kerner ohne smt antuen wollte.
Hähhh? Welche Behauptung? Du warst doch selbst in der Lage den Preis nachzuschauen, dann mach es auch richtig und ganz.
Der 3600 war vor 1 Jahr schon bei 150 Euro. Wo er seitdem war kann jeder nachschauen. Das sind Fakten.
Wir sprechen von jetzt und von mir aus die letzten Monate. Der 10400F kostet aktuell um die 130 Euro und den 11400F kriegst mit Intel Spielebundle im Wert von 50€ für aktuell 160. Ich sehe da jetzt nirgends AMD im Vorteil in dem Preisbereich. Das steht hier übrigens sogar in dem Test das hier Intel wohl wieder die Nase vorne haben wird.
Willst du also cb unterstellen die Aussagen hier im Test sind falsch? Kannst ja gerne das Gegenteil beweisen.

Du lebst in einer Welt vor über 1 Jahr, wie du selber schildert. Faszinierend.
 
Zuletzt bearbeitet:
Rockstar85 schrieb:
Und dann frag dich mal, wieso zB Igors Werte soviel besser passen? Selbst mit den Vorgaben von zB AMD oder eben auch MSI?
https://www.igorslab.de/intel-core-...rde-schnell-heiss-und-ganz-schoen-durstig/10/
Okay ich mach mir mal die Mühe und mittele die Verbräuche für 5900X und 11900K aus den Spielen.

Das sind bei Igor leider nur 4 Games, da sind es 102W für den 5900X und 128W für den 11900K - > 25% mehr Verbrauch.

Alle 14 Spiele von uns kommen auf 99W für den 5900X und 109W für den 11900K -> 10% mehr Verbrauch.

Dabei macht die geringe Spieleauswahl einen Vergleich schwer, da wir z.b. mit Anno 1800, Counter Strike oder Crysis Remastered auch Titel drin haben, wo beide gleich viel(eher gleich wenig) verbrauchen, genauso aber auch mit Cyberpunk z.B. Fälle wo der 5900X 107 und der 11900K 132W verbraucht, was mit 23% schon sehr nahe an die 4 Spiele von Igor kommt.

Nimmt man nur die oben genannten drei Spiele raus, wären es bei uns dann auch schon genau die 102W für den 5900X die Igor mit seinen insgesamt 4 Spielen gemessen hat und 116W für den 11900K (nun bereits 15% mehr)

Du kannst dir aus unseren 14 Spielen genau so 4 Stück rauspicken, nehmen wir mal Cyberpunk, Tomb Raider, CoD und Horizon, dann bekommst du bei uns auch 129W für den 11900K raus.


Der 11900K von Igor lief übrigens mit 288W PL1 und PL2, während bei uns "Enforce all Limits" aktiv war und bei Igor heißt es, dass die CPU dadurch zwar einen Tick langsamer wird aber die Effizienz nicht besser.
Dennoch bedeutet das ja, dass die absoluten Verbräuche des 11900K damit auch einen Ticken niedriger sein müssen, ansonsten würde die Efifzienz ja sogar schlechter werden, was bei etwas niedrigerer Leistung aufgrund von vorgeschriebenen Limits idR nicht der Fall ist.
Zahlen dazu gibts leider nicht, aber mindestens die 142W durchschnittsverbrauch in Watchdogs sollten damit schon etwas fallen.

Es ist ja völlig legitim und nachvollziehbar, sich an die Verbrauchswerte von Igor zu halten, einfach weil er das entsprechende Equipment besitzt und damit viel bessere Ergebnisse erzielen kann, als Software, die Verbräuche nur ausliest, aber es ist jetzt mMn nicht so, dass wir da so stark abweichen, das bewegt sich meist allesw im Bereich +/- 5% für die Verbräuche, wo man sich als Reviewer dann auch die Frage stellen muss, ob es für einen den Aufwand wert ist.

PS: Ich schreibe die ganze Zeit "wir" und "bei uns", weil es einfacher zu tippen ist, ich hab mit dem Test nach wie vor nichts zu tun gehabt^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und Mcr-King
@Taxxor
Könnte es nicht auch viel am Mainboard liegen.de
 
Zurück
Oben