Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
ja die 20Watt sind ja schon mal ordentlich, wenn man bedenkt dass sich unsere beiden CPUs langweilen und der Benchmark sehr wahrscheinlich GPU-Lastig ist. Sonst würden sich deine 1GHz übertaktung doch wesentlich deutlicher äußern als die 1% (90 Punkte)
Hast nen besseren?!So was wie BF4 als Benchmark hab ich noch nicht gefunden.....
Wenn dann könnt man nur mal gemeinsam Stehen/Laufen in BF4 und dort den Verbrauch+ FPS vergleichen.....ist aber viel aufwendiger.
Es sagt genau das aus was ihr wissen wollt...
Es misst die Leistung der CPU in Punkten bei maximaler Auslastung - wogegen man den Verbrauch stellen kann.
Wenn ihr es schafft die Punkte einigermaßen anzugleichen, dann habt ihr eine direkte Gegenüberstellung eurer CPUs im Verbrauch.
Oder eien der beiden CPUs schafft es ja evtl auch direkt mehr Punkte zu erreichen und zugleich weniger zu verbrauchen, dann ist der Drops eh gelutscht.
Ein CPU Test wie DU meinst soll Klarheit bringen?Rechne ich dann 200Watt für die Graka drauf um dann der Spielverbrauch zu haben?
Nochmal es geht um den Verbrauch in SPIELEN,der X 264 Bench ist Nebensache.
Du redest hier vom "Verbrauch in REALEN Spielen", aber was du eigentlich erreichen willst ist ein Vergleich bei dem die CPU nicht zu stark beansprucht wird durch ein GPU-Limit. Das bezeichnest du dann als "reales Spiel". Aber das verfälscht die Leistung der CPU im Hinblick auf Leistung und Verbrauch, jedoch unterstreicht es deine Aussage, dass ein AMD genauso effizient arbeitet wie ein Intel. Natürlich tut er das... wenn er wenig genutzt wird.
Das 3DMark Vantage ist da absolut richtig.
Die Punkte geben an wieviele Berechnugen die CPU gemacht hat bzw. wieviele frames die CPU berechnet hat, die die Grafikkarte ausrendern müsste. Man braucht nur noch den Verbrauch zu vergleichen.
Ich sehe nicht wo hier die Grafikkarte überhaupt eine Rolle spielt.
Du kannst von mir aus einen beliebigen Offsset draufrechnen für die Grafikkarte.. 100W oder von mir aus auch 83758734W - es ist nur der Offset, der nichts mit dem Verbrauch der CPU zu tun hat.
Man könnte Auch Prime nehmen, aber da hast du keine Punkte zum Vergleich.
Im wesentlichen wären doch diese Dinge interessant:
1. Verbrauch im idle Betrieb - ohne Punkte
2. Verbrauch unter Vollast - und Gegenüberstellung von Rechenleistung (konkret: Frames/Watt) - idealerweise wenn die CPUS selbe Punktzahl haben
3. Eine Verbrauchskurve wäre schön, aber das bekommt ihr nicht hin...
Ergänzung ()
Aber im Prinzip hab es bereit Leute getan, die vernünftige Messwerkzeuge und Ansätze haben.
Liebe Leute, der letzte Post des TEs in diesem Thread stammt vom 12.02.!
Meint ihr nicht, ihr könntet euer "Gebenchmarke" im Grafikkarten-Forum fortführen?
Das da ist nicht schwer zu bekommen.
Nimm Crysis 3 und je nach Stelle und Einstellungen rennt sowohl die CPU als auch die GPU ins Limit.
Da man hier wunderbar ein Spielstand laden kann, kann man die FPS vergleichen.
Euer Problem ist, dass ihr kein einheitliches Testbench habt.
Wenn ihr alle Komponenten gleich hättet und nur Mobo/CPU austauschen würdet, dann könnt ich den hier von dir gewüschten Schw*** Vergleich machen. Das habt ihr nicht, aber hier wieder der Tipp: es gibt Leute, die das haben und die Tests gemacht haben.
Ihr könnt euch sicherlich auch freundlich an die CB-Redaktion wenden.
Alternativ:
einer von euch beiden Kauft die CPU/MoBo Konfiguration des anderen und verbaut diese in seinem System.
Ergänzung ()
Vote 4 close... dieser Thead musste schon zu lange herhalten für den Schwachsinn.
Ich weiß ja ned was ich noch machen soll... die GTX ist sparsamer als ne 7950, der 2500K ist jetzt schon 20W sparsamer obwohl er nicht beansprucht wird.