News 3DMark CPU Profile: Prozessor-Test im Grafik-Benchmark eingepflegt

Scheinen bei AMD ja ziemliche Amateure zu sein, wenn die CPU mit -300 Mhz doch so viel schneller läuft :confused_alt:
 
Powl_0 schrieb:
So ein Quatsch. Im CPU Limit gibt RAM OC dir einige Prozent. Und das hat man zB oft genug, wenn man mit 144Hz+ spielt.

Du knüppelst deiner CPU absichtlich in die Kniekehlen und meinst, das wär der Bringer...
Messung ? Vergleich ?
Ansonsten, heisse Luft

@Ferdinand!
nunja ich sag mal so, Leistung mit der Brechstange, unnötig mehr Hitze, unnötig mehr Stromverbrauch, für etwas das dir praktisch nichts bringt.

hier meine Messungen dazu
LLC 6, 3900 MHZ
NB/SOC 1.1000V
CPU VCore 1.2250V

IDLE ~70 Watt
LAST PRIME95 ~180 Watt
LAST PRIME95+Fire Strike ~ 307 Watt (alte Messung mit einer KFA2 GTX 1060)


nur C-State Control
---------------------------------------

LLC Auto, Auto MHZ, PBO und Core Boost, @Stock
(feste Spannung auf 1,3625V, 1,4V bringt bisschen mehr Leistung, 1,45V bringt noch ein bisschen mehr,
Verbrauch nicht gemessen)
NB/SOC 1.1000V
CPU VCore Auto

IDLE ~80 Watt
LAST PRIME95 ~214 Watt (3,9ghz/4Ghz, alle 6 Kerne) (Auto CPU-VCore)

C-State Control, Cool'n'Quiet (CnQ bei festen Spannungen, nicht gemessen, weil er zwar mit weniger Takt laufen könnte, aber die Spannung nicht mehr senkt :mussweg: , macht also keinen Sinn da etwas zu messen)
----------------------------
LLC Auto, Auto MHZ, PBO und Core Boost aus, Cool'n'Quiet
NB/SOC 1.1000V
CPU VCore Auto

IDLE ~80 Watt
LAST PRIME95 ~155 Watt (3,6ghz, alle 6 Kerne)

3,9 auf Undervolting brauchen gegenüber Standardbetrieb auf Volllast auf allen Kernen, rund 30 Watt mehr Verbrauch, ohne Undervolting mit PBO und CnQ = Verbrauch, die Benches hindurch aber nicht mehr Leistung.

Alte Games die tatsächlich nurnoch auf einem Kern stabil laufen sind irrelevant, Multithreading nutzt soweit alle Kerne, naja...
Irrelevant insofern als das selbst der Basistakt vollkommen ausreichen würde ohne Turbo, OC, CnQ, PBO...
Das nimmst du nur von Kern 0 b.z.w. 1 und dem tazugehörigen SMT-Thread runter damit es besser geht.
Beispielsweise mit "Process Lasso" oder "THG Task Assignment Manager", THG findet man z.B. noch hier in einem Posting im Forum von "Igorslab", "taskassign.zip"
https://www.igorslab.de/community/threads/bitsum-process-lasso-erfahrungen-infos-hilfe.1856/

Auch ganz lustig, wie einige auch aktuelle/re Games wie Shadow of the Tomb Raider, Assetto Corsa Competizione etc., könnte das noch unendlich weiterführen, besser laufen wenn die den allerersten Kern samt SMT-Thread nicht nutzen können. (nicht während es schon läuft über den Task-Manager, sondern direkt ab Start, dafür gibt es ja die Tools, CPU 2 b.z.w. 1 samt SMT ist dann für die jeweilige Anwendung nämlich CPU0 bzw. 1 und offenbar kommt sich dann einiges nicht mehr mit Treiber, Windows-kernel ins Gehege und läuft eben besser, min. FPS)

Man kann das auch mal mit CS:GO ausprobieren und im Ulletical FPS Benchmark (mod, Workshop), feststellen nachher in der Konsole das man auch dort mehr avg.-FPS schafft wenn eben jenes ebenso die CPU0 b.z.w. den ersten Kerne nicht nutzen kann :D

Ist übrigens ein guter Tipp wär eine nicht sooo potente CPU hat aber dennoch gerne mal mit Audacity rumfingert, das kann offenbar bislang kein Multithreading, falls das für Audio überhaupt mal in frage käme das es klappt, das funktioniert ebenso besser wenn man ihm mit einem solchen Tool CPU0 also den ersten Kern verbietet, CPU1 stellt dann den SMT-Thread zu CPU0 also dem ersten kern dar.

Ich brauch das für diesen Bench auch nichtmal ausprobieren, solange die Threadanzahl der CPU unterliegt, wird es sicherlich besser laufen als wenn es auf CPU0 zugreifen kann.

Das bei CS:GO funktionierte ügrigens auch schon mit nem QuadCore von Intel, auch ohne HTT (Hyperthreading Technology), dann läuft das Game halt nur auf 3 anstelle von 4 Kernen, funktioniert aber dennoch besser, selbes Ergebnis, mehr avg-FPS nachher in der Konsole.

Auch in CS:GO in diesem Mod-Benchmark, die paar hunderte mHz die der 2600X Boost auf 4,2, bei mir witzigerweise auch mal 4,3 könnte, bringen einfach garnichts.

Gruss HL
 
Zuletzt bearbeitet:
SeniorY schrieb:
Das einzige was dort nennenswert ist, ist offenbar "PhotoWorxx" was auch immer das für eine Software zu welchem Zweck sein soll.

In den Benches um die es hier geht und um Gaming in der Praxis, ist das messbar offenbar ein kleines bisschen was, praktisch aber nicht der Rede Wert, davon merkst du genau 0

Und Aufwand inkl. System instabilitäten die man sich einfängt ist das schon garnicht Wert, zumal wenn du ein Produktivsystem hast ist das ein NoGo.

Videoschnitt ist hauptsächlich Datenträger Arbeit, wird von a nach b kopiert und das was rausgeschnitten wird, wird dabei nur weggelassen. (wenn die Software was taugt und nicht unnötig jeden Bild tatsächlich neu durch nen Codec rechnen lässt, NCH Videopad kann das, nennt sich lossless export)

Gaming, skaliert auf Grafikkarte und CPU, wobei auch dort wenige hunter mHz man nicht von Skalieren sprechen kann.

Ansonsten würde das ja immense Untschiede geben, in sämtlichen Benches für 3Dmark Advanced, Catzilla, dem Ulletical fps bench für CS:GO ebenso und man würde das im Alltag auch spüren, nichts von alledem ist der Fall, es ist einfach nur heisse Luft


Gruss HL
 
I7 - 8700K 5,15 GHZ all core ( 5. Platz bei den 8700k CPUs ).
Die max Temperatur war ca: 79°c bei etwa 29°c Zimmertemperatur.
3D Mark CPU benchmark 8700k 5,15 GHZ.png

3D Mark CPU benchmark 8700k 5,15 GHZ 2.png
 
Zuletzt bearbeitet:
HasseLadebalken schrieb:
Messung ? Vergleich ?
Das gleiche könnte ich von dir verlangen, nachdem du zuerst die Behauptung aufgestellt hast, dass es ja nichts bringt.

HasseLadebalken schrieb:
Alte Games die tatsächlich nurnoch auf einem Kern stabil laufen sind irrelevant, Multithreading nutzt soweit alle Kerne, naja..
Auch moderne Spiele sind am Ende irgendwann singlethread bound (!). Irgendein Thread des Spiels ist immer der langsamste, meistens der Main- oder Renderthread. Da kommen auch brandaktuelle multithreaded Spiele nicht drumrum.

HasseLadebalken schrieb:
Gaming, skaliert auf Grafikkarte und CPU,
Im CPU Limit skalieren Games auf CPU und RAM. Aber das ignorierst du ja offenbar einfach. Weil tritt ja nicht dauernd auf oder was auch immer deine Begründung ist. Für dich zählen ja auch nur avg fps obwohl das bei weitem nicht alles ist.
 
Powl_0 schrieb:
Im CPU Limit skalieren Games auf CPU und RAM.
So schauts aus 👍.

Ansonsten könnte es sowas nicht geben...das sind mal 41% bei den min FPS.

R9 3900X + RTX 3090.JPG

1440p ultrahoch.JPG


Natürlich ist klar, daß erst einmal ein CPU Limit vorliegen muß.

Damit auch was zum Thema dabei ist, lasse ich mal das Ergebnis von meinem alten Intel da.
https://www.3dmark.com/3dm/63271473?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SeniorY
  • Core i9 7900X (10C20T) 4,7Ghz AllCore / 3,2Ghz Mesh
  • 32GB DDR4-3600 16-16-16-32 1T Quad Channel (scharfe Subtimings)
  • Meltdown/Spectre Mitigations disabled
  • CPU Microcode Updates disabled
  • Speedshift Ultimate Performance (0)
  • C-States deaktiviert (max C1)
  • 250w PowerLimit (Luft Kühlung)
Das Setup ist maximal optimiert, stabil und läuft so daily - kein "Poser Profil" für die Signatur. Die Abwärme entsorgt die Klimaanlage zuverlässig im Sommer :king:

1626125711035.png


https://www.3dmark.com/3dm/63761320?

Reicht zwar nicht für den längsten, aber ich bin KING bei der Leistungsaufnahme (CPU Package Power only):king:
  • 30w im Idle
  • 60w bei Youtube
  • 120w bei Gaming
  • 220-250w bei regulärer Volllast (z.B. Encoding 20T)
  • 250w PowerLimit bei Prime/Cinebench gedrosselt mit geringfügig weniger Takt

Aber ernsthaft, erst ein 10900K oder die Ryzen 5000 Generation schaffen es, sich halbwegs spürbar abzusetzen. Das wird der erste CPU werden, den ich 5 Jahre unter vollster Zufriedenheit verwende.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HasseLadebalken
Powl_0 schrieb:
Das gleiche könnte ich von dir verlangen, nachdem du zuerst die Behauptung aufgestellt hast, dass es ja nichts bringt.


Auch moderne Spiele sind am Ende irgendwann singlethread bound (!). Irgendein Thread des Spiels ist immer der langsamste, meistens der Main- oder Renderthread. Da kommen auch brandaktuelle multithreaded Spiele nicht drumrum.


Im CPU Limit skalieren Games auf CPU und RAM. Aber das ignorierst du ja offenbar einfach. Weil tritt ja nicht dauernd auf oder was auch immer deine Begründung ist. Für dich zählen ja auch nur avg fps obwohl das bei weitem nicht alles ist.
ich habe es hinreichend erklärt, warum und wieso.

ein paar hunderte mHz machen keinen Unterschied
Wenn dein RAM in der Lage ist in deinem Rechner, das bei einem Videoschnittprogramm und oder Spiel die CPU sowie die Grafikkarte limitieren zu lassen, kann "besserer" RAM im Rechner nur rein garnichts bewirken.
Simple Mathematik, EVA-Prinzip, wenn der RAM irgendwas am Rechner verbessern könnte/würde, könntest du "bis der RAM mal ausreicht" nämlich nicht die beiden letzten Stationen überhaupt an's Limit bringen.

Sprich Limit bei der CPU, Volllast alle Kerne, was bei den aktuellsten Titeln, öfters mal der Fall ist, Grafikkarte ja eh genauso.
Die letzte Station im EVA-Prinzip zum Bildschirm, ist die CPU und dann die Grafikkarte, dabei aber bedenken das die CPU nicht nur vorletzte Station ist sondern da auch noch andere Berechnungen darauf laufen. (die CPU0 inkl. SMT/HTT Sache mit THG, was nunmal den performance Boost bringt, bei CS:GO und übrigens auch ETS2)

Edit:
Ich hatte hier eigentlich noch Screenshot von SOTTR, 2600X @ 3,9gHz vs PBO @ Stock Voltage, wo klar und deutlich zu sehen war das es 1:1 dasselbe war.
Ist im Aquarium gelandet... :D

Gruss HL
Ergänzung ()

Stunrise schrieb:
für den längsten, aber ich bin KING bei der Leistungsaufnahme (CPU Package Power only):king:
  • 30w im Idle
  • 60w bei Youtube
60 Watt ist bei mir der ganze Rechner, einfach die CPU rausgerechnet irgendwie ja und die restlichen Bauteile abgezogen ?
CPUID HWMonitor dazu dahergenommen ?

Mein Ryzen 5 2600X @3,9gHz bei 1,225V mit LLC6 auf dem MSI B450-A Pro sehe ich so 18 bis 20W im HWMonitor.

Könnte sogar hinkommen denn ca 60Watt Idle, wenn nach dem Hochfahren noch 4 Gehäuselüfter laufen, 2 HDD's eine SSD und eine NVME, Graka, BD-Toaster, joa das Schätzeisen ist wohl garnichtmal schlecht :-)

Gruss HL
Ergänzung ()

Konnte die Sceenshot aus dem Aquarium retten..., durchschnittliche BPS sogar 2 FPS mehr.
Schon komisch obwohl da einige hunderte mHz pro Kern sicherlich weniger sind, so wie dieses Spiel im Benchmark wechselwirkt....nech ^^
Nichtmal 30% gpu-gebunden, einige hunderte Bilder mehr gerendert insgesamt :D
 

Anhänge

  • 2021-07-04 (3).jpg
    2021-07-04 (3).jpg
    238,4 KB · Aufrufe: 306
  • 36279168_157357528465497_3200001212501983232_n.jpg
    36279168_157357528465497_3200001212501983232_n.jpg
    24,7 KB · Aufrufe: 309
  • 20210705134733_1.jpg
    20210705134733_1.jpg
    421,1 KB · Aufrufe: 295
  • noturbo no pbo, no cnq.jpg
    noturbo no pbo, no cnq.jpg
    421,8 KB · Aufrufe: 288
Zuletzt bearbeitet:
Hier gibt es Beweise für meine Aussagen:
Performance Efficiency Suite (PES)

So von wegen Messdaten sinnvoll was damit anfangen können und zu einem Schluss kommen, nicht nur das feste 3,9gHz besser sind als @Stock ohne PBO, nein auch mit PBO, Performance ist besser und die Effizienz steigt um einiges weil kein einziges Watt mehr verbraten wird ohne die vorhandene CPU-Güte auszureizen.

Gruss HL
 
PCGH kommt mit einer RTX 3070 (220W) im PR Bench auf 8002 Punkte.

PR PCGH.jpg


Ich komm mit meiner uv 3070 (160W) mit 8079 Punkte auf einen leicht höheren Score.

PR 0.875V.PNG


Computerbase kommt im CB20 mit einem R9 3900X (142W) auf 7100cb.

CB20 CB.jpg


Einen höheren Score erreiche ich mit nur ~90W anstatt den 142W.

90W+.PNG


Man kann also mit optimierter Hardware (weniger Verbrauch) gleiche oder bessere Leistung erziehlen als stock......gut das wir das geklärt haben....und nebenbei auch niemand bestritten hat.
Nur was hat das jetzt damit zu tun, daß schneller Ram, oder höherer CPU Takt im CPU Limit helfen kann?

Wenn die CPU/Ram nichts mit der Performance zu tun haben, warum bin ich dann mit der RX 6800 schneller unterwegs wie der Kollege mit der RX 6800 XT...obwohl seine GPU, wie man sieht, schneller ist.

RX 6800 XT oc.png

RX 6800 OC.JPG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheOpenfield
@DaHell63

Wie sind denn die anderen Grundvorraussetzungen ?
CPU's an sich erstmal verglichen ?
von mir genannte Tweaks, vielleicht auch unter anderem bei dir getätigt, aber bei dem System mit der XT nicht ?

Da komme soviele Faktoren in's Spiel, die bei weitem genau garnichts mit dem RAM zu tun haben.
Vielleicht hast du auch ein in der Tat nicht schlechtes optimiertes System, der andere Rechner nicht und nunja GPU brauch CPU, wenn die CPU aber vollgeklatscht ist auf einem unoptimiertem System, was bei dem optimierten System nicht der Fall ist...naja...

Genausogut könnte deine 6800 gut übertaktet worden sein, was die XT eventuell nicht ist...

Edit:
Ein fakt ist mal das deine CPU mit der 6800, offenabr weniger der limitierende Faktor ist

Edit2:
ja nun wenn du über die Package Power dasselbe bewirken kannst, wie ich durch abschalten von PBO, Turbo und CnQ
Was wohl danach aussieht.
Probiere mal meinen Weg, was mit deiner CPU drin ist, wollen wir gespannt sein was dann noch geht :D

Edit3:
Zwischenzeitlich konnte man sich auch auf Windows 10 einen Bug einfangen der Leistung gekostet hat seitens der CPU.
Merkt man daran ob man den hat oder nicht, wenn man dwm.exe beobachtet im Task-Manager und der dann mal eben die dreifache Auslastung auf der CPU wie sonst verursacht, bevor man sich den Bug eingefangen hat.
Kostet übrigens dann wenn das der Fall ist im Fire Strike Benchmark auch so rund 1000Punkte die man sonst zuvor immer hatte, so Pi mal Daumen ;-)

Hintergrundanwendungen bei Datenschutz, Autostart, desweiteren optimierte Dienste oder nicht..., ja und eben die Tweaks die ich hier unter anderem schon niedergeschrieben habe.
Erstmal eine gemeinsame Basis schaffen, was im IDLE so läuft.
Sprich Task-Manager Threads und Handles...
Wenn ich nun noch mehr aufzähle, sprengt das hier den Rahmen vollends und das wären nur Sachen die ich kenne, die bei weitem sicherlich nichtmal absolut alle Faktoren abdecken die da hineinspielen.

Und mal verglichen an der durchschnittlichen BPS die am relevantesten ist, sind 6 Bilder Pro Sekunde, nun auch nicht wirklich der Rede Wert.

Gruss HL
 
Zuletzt bearbeitet:
DaHell63 schrieb:
Ich komm mit meiner uv 3070 (160W) mit 8079 Punkte auf einen leicht höheren Score.
Finde es faszinierend, dass sich mit Ampere absolut nichts bei der Effizienz getan hat. Hier mal zum vgl. meine 2080 Ti bei 165W PL (to be fair, läuft dann natürlich mit sub 0.75V in einem effizienteren Spannungsbereich):
165W+1150Mem.png


Den CPU-Bench hab ich mit meiner 3600-Krücke mal durchgejagt, nichts weltbewegendes:
1626263095033.png
 
Zuletzt bearbeitet:
TheOpenfield schrieb:
Finde es faszinierend, dass sich mit Ampere absolut nichts bei der Effizienz getan hat. Hier mal zum vgl. meine 2080 Ti bei 165W PL:
Zur Überbrückung bis zur neuen Gen wirds schon reichen :D.
Leistung einer RTX 2080Ti ~ stock zum halben Preis. Dafür den VRam kastriert. Mehr war wohl nicht drin. Beide Anbieter haben mit dieser Gen nicht das von mir erhoffte gebracht. Deswegen habe ich auch nur die Mittelklasse Karten RX 6800/RTX 3070 gekauft. Bei 1440p geht das aber noch klar. Nächstes mal gibts dann hoffentlich AMD mit mehr RT Leistung und Nvidia mit mehr VRam...und weniger Verbrauch.

Mit einer RTX 2080Ti lässt sich da natürlich locker warten.
 
DaHell63 schrieb:
Leistung einer RTX 2080Ti ~ stock zum halben Preis.
Na dann Glückwunsch, dass du die Karte nahe der UVP ergattern konntest - damit lässt es sich in der Tat gut aushalten aktuell :daumen:
 
@TheOpenfield
Gerade eine RTX 3070 hat eine gute Energieeffizienz und man kann nicht eine Stock RTX 3070 FE mit einer Custom WaKü 2080Ti UV vergleichen. Ampere ist schon sehr viel mehr effizienter, als Turing.

Eine OC 3070FE mit 2Ghz und 16Gbps bei 240w Limit liegt bei 8850 und da ist auch nur ein 2017er CPU mit PCIe Gen3 zum Einsatz gekommen.

Außerdem sehe ich überhaupt keinen Grund eine 1200€ 2080Ti mit einem 150€ Block zu betreiben und dann an den Stromkosten rumzukacken und die mit 750mv laufen zu lassen. Gerade mit WaKü gehört da ein PowerLimit mit mindestens 300 Watt her, besser 350 Watt, zusammen mit einem Takt von deutlich über 2Ghz.

1626442973792.png
 
Stunrise schrieb:
Ampere ist schon sehr viel mehr effizienter, als Turing.
Konnte ich bisher noch nicht beobachten, hast du dafür ein konkretes Beispiel?
Ergänzung ()

Stunrise schrieb:
Außerdem sehe ich überhaupt keinen Grund eine 1200€ 2080Ti mit einem 150€ Block zu betreiben und dann an den Stromkosten rumzukacken und die mit 750mv laufen zu lassen. Gerade mit WaKü gehört da ein PowerLimit mit mindestens 300 Watt her, besser 350 Watt, zusammen mit einem Takt von deutlich über 2Ghz.
Sehe ich auch so, deswegen darf die Karte ja auch volle Hütte laufen mit jenseits der 10k im Port Royal ;)
 
Laut Computerbase ist Ampere in den Non-Ti Varianten rund 20% effizienter, als Turing - je nachdem, welche Modelle man vergleicht.

1626444337840.png
 
Die Stock-Vergleiche samt FE-Kühler kenne ich bereits - reicht mir persönlich allerdings nicht aus, um einen Direktvergleich zwischen verschiedenen Architekturen/Fertigungen zu ziehen. Ideal wäre ein Vergleich mit "normierter" Kühlung über den gesamten taktoptimierten Spannungsbereich und mit verschiedener Software.

Sowohl Temperatur als auch Arbeitspunkt (auf der Takt/Spannungskurve) machen hier teilweise größere Unterschiede, als die Architektur. Daher ist auch mein Vergleich mit "optimaler" Spannung und Kühlung nicht ganz fair, wie du richtig erkannt hast ;)
 
  • Gefällt mir
Reaktionen: Klever
Zurück
Oben