Test Core i9-11900K und i5-11600K im Test: Die 14-nm-Brechstange

@ZeroStrat
Ich habe mich auch eher am WirrWarr von Zwiebelsoße gerieben, was er bzgl. Leistungsaufnahme von sich gab war haarsträubend.
 
  • Gefällt mir
Reaktionen: Ned Flanders und Mcr-King
Taxxor schrieb:
Wie was wo? Ich weiß gerade nicht um was es geht, was sieht ähnlich aus?
Deine Aussage mit dem SoTR Werten und der GPU.. Okay es war Zero :D

Hast du dir mal Gedanken dazu gemacht wieso z.B. bei Shadow of the Tomb Raider die GPU mit dem Core i7-11700K nur 116,9 Watt Leistungsaufnahme hat und mit dem Ryzen 7 5800X ganze 182 Watt?
 
Rockstar85 schrieb:
Deine Aussage mit dem SoTR Werten und der GPU.. Okay es war Zero :D
Dachte schon, die GPU Werte machen so nämlich in der Tat Sinn, wenn die CPUs so gelaufen sind, wie sie dort eben gelaufen sind.
Ergänzung ()

Freiheraus schrieb:
*RX 6900 XT 300W TDP (ganze Karte) / 255W GPU Power only = Faktor ~1,18
Das kannst du so auch nicht rechnen, da der Unterschied zwischen GPU only und der gesamten Karte kein Faktor ist sondern überwiegend aus gleichbleibenden Verbrauchern besteht.
Und die GPU Only Power liegt soweit mir bekannt bei ca 235W für 6800XT und 6900XT, also gehen auf jeden GPU Only Wert ca 50-60W oben drauf.

Sagt die GPU Power 150W, verbraucht die Karte um die 200W, sagt sie 200W, verbraucht sie um die 250W ect..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwiebelsoße und foo_1337
ZeroStrat schrieb:
Und interessant auch, dass die Verbrauchswerte von CX in diesem Fall akzeptiert werden. :D
Naja. ich habe selbst eine RX 6900 XT hier und gute Energiemonitore zum gegenprüfen.
Wenn der Horizon Zero Dawn-Bench einmal mit 165FPS@max. 420 Watt und gedrosselt( 2100MHz) mit 149FPS @Max. 260 Watt an der Steckdose durchläuft, dann ist mir schon klar, dass die Werte hinhauen können.
 
  • Gefällt mir
Reaktionen: Mcr-King und ZeroStrat
Freiheraus schrieb:
Und dann werden (Leistungsaufnahme)Messergebnisse von Igor ins Blaue hinein angezweifelt, nur weil der eigene Horizont bisher nicht über Ampere hinausgeht.

Kein Mensch sprach vom Verbrauch.
Bitte zitiere mal den entsprechenden Beitrag, bin gespannt, du verwechselst hier Verbrauch mit der CPU Leistung.

Schon klar, das die Radeon weniger Strom braucht wenn die CPU derart lahmt.
Ergänzung ()

Freiheraus schrieb:
Ich habe mich auch eher am WirrWarr von Zwiebelsoße gerieben, was er bzgl. Leistungsaufnahme von sich gab war haarsträubend.

Was meinst du konkret?
Bitte dann auch mal die Aussage zitieren. Wenn das Unsinn ist, revidiere ich das sofort.
 
Zuletzt bearbeitet:
Also was ihr immer nicht vergessen dürft bei den ganzen Vergleichen verschiedener Benchmarks ist die Stelle und die Settings die dafür genutzt wurden.

@ZeroStrat hat seine Szene die er gebenched und die Settings dazu in einem Video online gestellt.

Habe dann mal mit meinem System verglichen (ist seine Red Devil 6800XT die bekommt er nächste Woche wieder) Online Link zum Bench

CPU @ Stock | RAM @ 3200 CL16 2T komme da aber auf ca 20-FPS mehr als, sowohl beim AVG als auch bei dem P1
1617392838316.png

Nun gibt es da zwei bzw drei Möglichkeiten wie das zustande kommen kann.

Entweder ist meine CPU einfach ein ticken schneller (AVG) @ Stock oder die GPU spielt hier eine Rolle.
Das wird aber @ZeroStrat dann selbst nochmal mit der selben Karten nachbenchen nur eben mit seiner CPU.
Die dritte Möglichkeit wäre das Mainboard, das einfach etwas mehr Power liefert (wo wir wieder bei den unterschiedlichen HW konstellationen wären, die man nie 100% vergleichen kann)

Wenn man dann der CPU und dem RAM auf die Sprünge hilft sind die Werte noch etwas höher
1617392854847.png

Und zu guter letzt kann man es dann eventuell noch auf die unterschiedliche Game-Version schieben. Mit irgendeiner Version gab es sowohl auf AMD- als auch auf der Intel-Plattform mit NV und AMD Karte einen Leistungsverlust, weil irgendwas an der Engine geändert wurde. (ich glaube es war der Raytracing Patch)
Intel CPUs verkrafteten das besser als AMD CPUs, das war auch schon mit Zen2 ein Problem, selbe HW anderer Game Patchstand und die FPS brachen bis zu 30 FPS ein bei AMD, bei Intel weniger.
 
  • Gefällt mir
Reaktionen: cm87, Zwiebelsoße, Mcr-King und 2 andere
Taxxor schrieb:
Das kannst du so auch nicht rechnen, da der Unterschied zwischen GPU only und der gesamten Karte kein Faktor ist sondern überwiegend aus gleichbleibenden Verbrauchern besteht.
Und die GPU Only Power liegt soweit mir bekannt bei ca 235W für 6800XT und 6900XT, also gehen auf jeden GPU Only Wert ca 50-60W oben drauf
Nee, es sind 255W, ich habe die Referenzkarte da. Ein fester Faktor ist sicher nicht ideal, aber 50-60 Watt pauschal draufrechnen, geht stärker an der Realität vorbei.

Was kann eine effiziente VRM im Schnitt leisten? Vielleicht 90% Effizienz. Bei 120W GPU only sind das nur 12W Verlust, bei 255W GPU only schon fast 26 Watt. Klar das Klimbim (PCB etc.) sind feste Verbraucher, aber selbst die Lüfter drehen bei 120W GPU only sehr viel langsamer und die Leistungsaufnahme von Lüfter ist stark exponenziell ansteigend.

Fazit: Von mir aus lass es 150 Watt statt 142 Watt sein, mehr ist es bei 120W GPU only aber kaum.
 
  • Gefällt mir
Reaktionen: bad_sign und Mcr-King
Freiheraus schrieb:
Klar das Klimbim (PCB etc.) sind feste Verbraucher, aber selbst die Lüfter drehen bei 120W GPU only sehr viel langsamer und die Leistungsaufnahme von Lüfter ist stark exponenziell ansteigend.
Die Speichermodule mit 2.5W x 8 sind unter Last auch ein fester Verbraucher, egal wie stark sie belegt sind.

Bei meiner 5700XT war der Unterschied 185 zu 230W
 
Sind die nicht im GPU only Wert drin? Da gibt es verschiedene Meinungen/Definitionen soweit ich weiß. Aber der VRAM hat genauso States wie Prozessoren (GPU/CPUs), was das ausmachen kann sieht man an der Videowiedergabe. Die sind je nach Browser@Youtube feingranularer (z.B. VRAM-Takt) als viele denken/testen. Schau mal ich beschäftige mich so viel und lange mit dem Thema, mir sind das zu pauschale Aussagen.
 
Freiheraus schrieb:
Sind die nicht im GPU only Wert drin?
Sofern sie nicht auf dem Chip sitzen, eigentlich nicht. Aber bei AMD ist das ganze mit TDP TGP und TBP auch verwirrend....
HWInfo zeigt ja seit einiger Zeit auch ein "PPT" an, wo ich bei einer 6800 schon Screenshots von 249W gesehen habe, was genau dem Kartenverbrauch entsprechen sollte, aber eigentlich hat AMD dafür gar keine Ausgabe.

Und auch die Radeon Software sollte hier dann nur die ~200W TGP anzeigen, HWInfo gibt aber einen GPU only von 170W und dann nochmal getrennt 30W für Speicher an, ebenfalls zwei Werte die man eigentlich aus der Radeon Software nicht rausbekommt.
 
Verangry schrieb:
Wenn man dann der CPU und dem RAM auf die Sprünge hilft sind die Werte noch etwas höher
Die Untertreibung des Tages, es sind mal eben 20% im CPU Limit!
 
Freiheraus schrieb:
Aber der VRAM hat genauso States wie Prozessoren (GPU/CPUs), was das ausmachen kann sieht man an der Videowiedergabe. Die sind je nach Browser@Youtube feingranularer (z.B. VRAM-Takt) als viele denken/testen.
Was bei meinem 2 Monitor Setup und der 5700XT leider nie funktioniert hat und die Karte daher konstante 35-30W im Idle geschluckt hat(mit der 2080Ti danach waren es immerhin nur noch 15-17W). Da bin ich aktuell mit der Vega mit 6W gut dabei, weil hier der HBM wenigstens runtertaktet.

Aber beim Gaming sollte es egal sein ob die Karte gerade unter vollast läuft oder im CPU Limit, der Takt ist immr voll da sobald eine 3D Anwendung läuft.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, Klever, trommelmaschine und 2 andere
Man sieht wo die Reise hin geht.

Intel hatte schon gegen Zen2 einen schweren Stand und hat nichts nachgeliefert das etwas ändern könnte.

5 vs 110 verkaufte Stück ein paar Stunden später....
Das sagt viel.
Selbst die weniger guten AMD CPUs vergangener Tage waren beliebter, da sie wenigstens billig waren.


1.PNG
2.PNG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
@IBISXI Der Kommentar in deinem Screenshot stimmt schon. Erst seit RKL sind die Ryzen seit langem wieder zu einigermaßen vernünftigen Preisen zu haben. Siehe z.B. auch der 3600 für 155€ vor kurzem oder jetzt eben die Zen3 teilweise.
Mir soll's recht sein, so kann ich hoffentlich bald den übergangs Zen2 durch nen Zen3 ablösen ;)
(Ich warte noch auf nen 5600 oder auf nen 5600X zum für mich passenden Preis)
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, Ned Flanders, Mcr-King und 3 andere
Es ist ja nichts neues, dass Intel ein Image-Problem im Retail Markt hat.

Dazu kommt, dass es eine breite Basis an AM4 Besitzer gibt, die so günstig z. B. von nem alten Zen 6-Kerner auf den schnellen 8-Kerner wechseln können.

Das angenehme durch RKL ist, dass die Preise am Markt für AMD Produkte leicht nach unten geschoben werden, da sie vorher halt ohne Konkurrenz waren.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, DonL_, Mcr-King und eine weitere Person
Taxxor schrieb:
Aber beim Gaming sollte es egal sein ob die Karte gerade unter vollast läuft oder im CPU Limit, der Takt ist immr voll da sobald eine 3D Anwendung läuft.

Die bloße Taktbetrachtung (durch Tools) ist relativ nichtssagend, das kennt man bereits seit vielen Jahren bei CPUs. Clockgating täuscht über die internen effektiven Taktraten komplett hinweg. Das sieht man auch daran wenn das Powergating einsetzt und den Chip quasi stromlos schaltet (0,2-0,5V), dennoch liegen laut Tools vordergründig 3-4 GHz an, was aber faktisch unmöglich ist.

Zur Praxis, hab es eben nochmal getestet, trotz gleichbeibendem VRAM-Takt im Spiel (Wreckfest) schwankt die GPU RAM Power schon erheblich. In stark CPU-Limitierten Szenen bewegt sie sich nur zwischen 12-12,5W mit Peaks auf 14,5 Watt, in eher GPU-limitierten Szenen bewegt sie sich zwischen 15 und 18 Watt. Also auch hier hat man klare Abstufungen. Der VRAM hat keine permamente Leistungsaufnahme von 20 Watt in Spielen, auch wenn der States bzw. Taktrate gleich bleibt.

Man hat also schon mindestens 3 Parameter die nicht fest sind und sich mintunter verdoppeln bzw. vervielfachen können: VRM-Verlust, Lüfter (3x) und VRAM.
 
Zuletzt bearbeitet:
Freiheraus schrieb:
In stark CPU-Limitierten Szenen bewegt sie sich nur zwischen 12-12,5W mit Peaks auf 14,5 Watt, in eher GPU-limitierten Szenen bewegt sie sich zwischen 15 und 18
Wie schon erwähnt, AMD hat gar keinen Sensor für den VRAM Stromverbrauch auf der Karte, den sie nach außen abgeben, nichts in der ADL gibt das her, da gibts die GPU Power und sonst nichts.
Alle Werte, die man aus HWInfo ziehen kann, die nicht der Wert sind, der in der Radeon Software steht, können also eigentlich nur "geraten" bzw auf irgendeine Art ungefähr berechnet sein.

Dass dieser Wert bei GPU limitierten Szenen höher ist, wird dann wohl daran liegen, dass die Memory Power über einen Faktor an der TGP hängt(jene die man von der Karte tatsächlich mitgeteilt bekommt).

Meine Vega hat auch plötzlich Werte für Core Power, Memory Power und Socket Power in HWInfo drin, die es die letzten 4 Jahre nicht gab, da werden kaum Sensoren auf die Karte nachgepatcht worden sein und die Socket Power bzw. PPT entspricht immer noch nicht dem Verbrauch der Karte sondern ist genau das, was die vorher als einziger Wert vorhandene ASIC Power vorher war.
Und da kann ich sagen, dass 150W einem Kartenverbrauch von ca 220W bei der Vega entsprechen
 
Zuletzt bearbeitet:
Systemspeicher taktet vordergründig auch mit gleichbleibenden Taktraten, dennoch nehmen die Module nicht permanent 2-3 Watt auf. Macht überhaupt keinen Sinn, dass der VRAM egal unter welcher Spielelast er ist permanent 20 Watt zieht.

Und noch etwas, was du vermutlich auch nicht glauben wirst. Die RX 6900 XT ist irrwitzigerweise genau so sparsam im Idle wie meine RX 5500 XT@ASPM@L1.
So sind Systeme deutlich unter 20 Watt mit Ryzen 3000/5000 im Idle möglich, mit Ryzen 4000G sogar unter 15 Watt im Idle. Und das beste daran, es gibt keine Leistungseinbußen und Instabilitäten, weder auf Seiten der CPU noch GPU noch Schnittestellen wie M.2 SSD oder USB.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign
Taxxor schrieb:
Meine Vega hat auch plötzlich Werte für Core Power, Memory Power und Socket Power in HWInfo drin, die es die letzten 4 Jahre nicht gab,

Gegeben hat es die vermutlich schon.
Wahrscheinlich hat das Interesse gefehlt bei dieser Karte.
Die Chance das jemand nachträglich in deinem Sys Sensoren eingebaut hat, ist relativ gering.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben