Test Core i9-11900K und i5-11600K im Test: Die 14-nm-Brechstange

IBISXI schrieb:
Gegeben hat es die vermutlich schon.
Die Chance das die jemand nachträglich eingebaut hat, ist relativ gering.
Wären diese Sensoren auf der Karte, dann wäre das nicht erst jetzt eingefügt worden sondern man hätte sie seit Release sehen können. Wahrscheinlicher ist also, dass man sich bei HWInfo nach ein paar Jahren was überlegt hat wie man diese Werte ungefähr errechnen kann und das dann eingebaut hat.
Denn das was dort als "PPT" steht ist nicht der Gesamtverbrauch, wie Ryzen CPUs ihn z.b. als PPT ausgeben, sondern nach wie vor der alte "GPU only" Wert, der vorher auch schon da war.
 
  • Gefällt mir
Reaktionen: Mcr-King
Taxxor schrieb:
Und da kann ich sagen, dass 150W einem Kartenverbrauch von ca 220W bei der Vega entsprechen
70 Watt? Jetzt wirds albern. Selbst wenn das bei Vega sein sollte, kann man das nicht einfach auf Navi übertragen, alleine schon wegen den deutlich unterschiedlichen Memorycontroller.
 
  • Gefällt mir
Reaktionen: bad_sign
Freiheraus schrieb:
70 Watt? Jetzt wird albern.
Screenshot 2021-04-03 001142.png

Gemessen im Test für die ganze Karte -> Vega56 = 233W, Vega64 = 300W
Und wie hier auch beschrieben, ist das der Wert für GPU und HBM2, also ist der Speicher schon mal nicht in den zusätzlichen 68 bzw 80W drin.
 
  • Gefällt mir
Reaktionen: ZeroStrat und Mcr-King
Taxxor schrieb:
Wären diese Sensoren auf der Karte, dann wäre das nicht erst jetzt eingefügt worden sondern man hätte sie seit Release sehen können

Sicher?

AMD hatte gerade damals nicht unendliche finanzielle Ressourcen, klar das man da auch nicht alles macht.
AMD fügt jetzt fake Sensor Werte auf deiner Vega ein?
Was könnte das potentiell für AMD bringen?


Die Vega war eine unbeliebte Karte und AMD hat sich selber damit nicht viel Arbeit angetan.
Jetzt ist ist die Vega wieder interessant und bringt auch Geld im Verkauf.
Das fette Speicherinterface ist jetzt Gold wert für Miner.
Schau mal auf Ebay was Du für das Teil bekommst.
(Wahrscheilich mehr als Du dafür gelöhnt hast)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
IBISXI schrieb:
Sicher?

AMD fügt jezt fake Sensor Werte auf deiner Vega ein?
Was könnte das potentiell für AMD bringen?
Was hat AMD damit zu tun, was HWInfo für Werte einfügt?
Bei AMD selbst gibt's nach wie vor nur einen einzigen Wert für den Verbrauch, den den es schon immer gab.
 
Vega 56 hatte ich selbst, die 165W ASIC Power entsprachen 210 Watt TDP (gesamte Karte), die meisten Magazine haben zwischen 210-220 Watt gemessen, da die Karte nicht hart abgeriegelt hat und einige Watt über 165W ASIC Power zulies. 210W minus 165W ist 45W.
 
  • Gefällt mir
Reaktionen: Mcr-King
@ Taxxor
HWInfo hat werte eingefügt, die immer schon da waren.
Was ist daran komisch?
 
IBISXI schrieb:
HWInfo hat werte eingefügt, die immer schon da waren.
Was ist daran komisch?
Warum 4 Jahre warten, wenn die Werte immer schon da gewesen sein sollen? Auch die RX 5000er hatten die Werte bis vor kurzem nicht. Und wo ist der Code in der ADL, um diese Werte auszulesen? Da wurden in den letzten Jahren keine neuen Sensoren eingefügt. Wo immer sie die Werte hernehmen, direkt von AMD kommen sie ziemlich sicher nicht.
 
  • Gefällt mir
Reaktionen: Mcr-King
Keine Kohle für Firlefanz?
Bei einer Karte die ohnehin niemand kaufen soll?
(übriggebliebene PRO GPUs)

Jetzt sind Moneten da und die Architektur ist immer noch aktuell, wie man bei Czeanne sieht.
 
Zuletzt bearbeitet:
IBISXI schrieb:
Keine Kohle für Firlefanz?
Aber Kohle um auf die Karten 3 zusätzliche Sensoren draufzupacken, die dann nicht verwendet werden, war da? Und warum ist HWInfo die einzige Software, die diese zusätzlichen Sensoren ausgibt? Wenn es von AMD kommt, müsste man sie auch über die Radeon Software sehen bzw eben in der ADL finden.

IBISXI schrieb:
Bei einer Karte die ohnehin niemand kaufen soll?
(übriggebliebene PRO GPUs)
Es betrifft alle AMD Karten nicht nur die Vegas, die 5000er Reihe hatte auch bis vor kurzem nur die ASIC Power in HWInfo, und überall anders inkl der Radeon Software ist es auch heute noch das einzige, nur HWInfo gibt diese anderen Dinge an.
 
Taxxor schrieb:
Aber Kohle um auf die Karten 3 zusätzliche Sensoren draufzupacken, die dann nicht verwendet werden, war da?

Ich kann das nicht beurteilen aber das wird kein Vermögen gekostet haben, da die auf dem Chip sind, der ohnehin produziert wurde.

HWinfo wird nichts auslesen, was nicht da ist.
 
Zuletzt bearbeitet:
Verangry schrieb:
Entweder ist meine CPU einfach ein ticken schneller
Denke ich auch. Das kann man ja im Vergleich zu anderen Benches auch ganz gut ablesen. Sein 11900k ist gegenüber dem mitgebenchten 10900k am oberen Ende von schneller mit ~+7%, was sich möglicherweise auf das händische optimieren gegenüber Stock+XMP der anderen Reviewer zurückführen lässt, aber auch der 10900k ist am oberen Ende von schnell gegenüber dem getesteten 5900x. Sprich der 5900x ist vermutlich etwas langsamer als normal. Da läppert sich das dann halt zusammen.

Den Rest hatte ich hier auch schonmal geschrieben. Kein Grund sich die Köpfe einzuschlagen. Die Benchmarkszenen sind halt nicht unbedingt vergleichbar. Aber hier will halt jeder Benchmarker, wie immer, undbedingt recht behalten.
 
  • Gefällt mir
Reaktionen: Heschel und Rockstar85
IBISXI schrieb:
HWinfo wird nichts auslesen, was nicht da ist.

Zur Chip Power heißt es bei HWInfo
partially estimated based on activity counters (additional logic) or fixed constants.
Also den Wert der GPU Power, den man von der Karte bekommen kann nehmen, und darauf aufbauend wird dann geschätzt.
 
  • Gefällt mir
Reaktionen: foo_1337
Messkreise hat niemand verbaut.
Temperatursensoren schon.

Auf was willst Du hinaus, auf deine Vega bezogen?

Viele Werte werden rechnerisch ermittelt.
Wie das genau geht, bleibt ein Geheimnis des Herstellers.
Ich sehe hier aber keinen Grund für Misstrauen.
 
Zuletzt bearbeitet:
IBISXI schrieb:
Auf was willst Du hinaus, auf deine Vega bezogen?
Nicht auf meine Vega bezogen, auf alle AMD Karten bezogen.
AMD gibt nur einen einzigen Verbrauchswert aus, das ist der, der auch offiziell als TGP angegeben wird und den man unter Vollast auch in der Radeon Software sieht und mit dem Slider fürs Power Limit verstellen kann.
Andere Werte gab es weder bei Polaris, Vega, RDNA noch bei RDNA2.

Erst kurz nach RDNA2 Release gab es bei HWInfo ein Update mit dem dort für alle diese Karten auch Memory Power und Core Power drinstehen.
Also entweder hat AMD seit 2016 in all seinen Karten Sensoren verbaut, die nie genutzt, aber jetzt exklusiv HWInfo zur Verfügung gestellt wurden(da man die Werte nicht mal von AMDs eigener Software bekommt), oder die Werte sind von HWInfo eben nicht ausgelesen sondern selbst errechnet und somit nicht wirklich brauchbar, wenn man z.B. etwas über die Memory Power sagen will in bestimmten Szenarien.
 
Taxxor schrieb:
sondern selbst errechnet und somit nicht wirklich brauchbar

Je nach dem wie gut die Rechnung ist, muss sich das nicht widersprechen.
Aber das werden wir nie erfahren.
Auf dem Chip selber kann niemand nachmessen.
 
Taxxor schrieb:
Wären diese Sensoren auf der Karte, dann wäre das nicht erst jetzt eingefügt worden sondern man hätte sie seit Release sehen können.
Wären, hätte, blah .... Meine Güte wofür gibt es denn Patch Notes?

1617409832651.png

https://www.hwinfo.com/version-history/

Die Software unterliegt nun mal einer ständigen Weiterentwicklung und Verbesserungen bei der Erkennung und Auswertung diverser Sensoren von AMD CPUs und GPUs gab es praktisch mit jeder der Versionen im letzten Jahr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: IT-Wally und Mcr-King
Wie wurde denn eigentlich der Verbrauch Gesamtsystem ermittelt? (sorry, hab jetzt net Alles durchgelesen)
(nur mit ner 3090 ?... oder auch mal mit ner 6900... Da solls ja Differenzen geben wg. Overhead/DX12 Limit etc)
https://www.igorslab.de/radeon-rx-6900xt-oder-rtx-3090-fuer-cpu-tests-eine-analyse-und-vorschau/
und
Gibts bei CB mal noch nen Test zu dem speziellen NV-Problem, das der Overhead in DX12 stört.
(gerade die alten 3600 sehen wesentlich schlechter aus als der 5600 bei HU + speziell für mich mal der 9400F mit z.Vgl.... Beides siehe Anhang)


Ist überhaupt ne Temperaturmessung ala CB sinnvoll?
TPU hat stattdessen Blender genutzt.

Und im Parcour sind auch mehr DX11-Games, falls Jemand mal mit seiner alten CPU vgl. möchte.
(alle CPU`s mit ordentlichem Ram=passt)
https://www.techpowerup.com/review/intel-core-i5-11600k/19.html
(ergo: In 4k brauchen die älteren Intel den FSB nur auf 100,5 anheben, um die IPC-Steigerung wettzumachen,
da kann man Geld sparen)
 

Anhänge

  • 9400F@4k.PNG
    9400F@4k.PNG
    334,5 KB · Aufrufe: 267
  • WDL-by-HU.jpg
    WDL-by-HU.jpg
    53,2 KB · Aufrufe: 250
  • HU-FHD-Medium-9400F.png
    HU-FHD-Medium-9400F.png
    11,9 KB · Aufrufe: 252
Zuletzt bearbeitet:
xexex schrieb:
Wären, hätte, blah .... Meine Güte wofür gibt es denn Patch Notes?
und in denen steht wo genau ob das wirkliche Sensoren auf der Karte sind? Da steht auch nur „added items“
 
Zurück
Oben