News Effizienz & Verbrauch: Wollt ihr mehr über effiziente o. sparsame Hardware lesen?

Nur 40% mehr Performance pro Watt bei der RTX 4090 gegenüber der 6900XT. Hmm, wenn AMDs Aussagen stimmen, dass sie mindestens 50% mehr Performance pro Watt bei RDNA 3 hinbekommen, dann könnte AMD in dieser Generation den Kampf um die höchste Leistung gewinnen. Günstig wird der Spaß leider aber nicht.
 
  • Gefällt mir
Reaktionen: Tzk
Ist mir auf jeden Fall sehr wichtig und ich fände es sehr gut, wenn dazu noch mehr berichtet wird. Vor allem zu UV und der Effizienz von Hardware allgemein informiere ich mich aktuell schon.


OT: Lob an CB für den Einsatz einer 1-10 Skala. Die meisten glauben, man könnte damit
"Finde ich gut" Abfragen machen. Der ideale Einsatzzweck ist aber genau dieses hier.
 
Zuletzt bearbeitet:
ShadowDragon schrieb:
Braucht Windows mehr Strom oder weniger als Linux in den selben Anwendungsfällen?
Dazu koennte unser Linux Experte @SVΞN sicher mal einen Test zu Veroeffentlichen. Ich glaube zwar erstmal nicht an Wunder, aber lasse mich diesbezueglich gerne eines besseren belehren!

Gruss Fred.
 
  • Gefällt mir
Reaktionen: Hornblower, Tsu, SVΞN und 2 andere
Auch eine 5 kW Maschine kann mit hoher Effizienz strahlen. Sparsamkeit alleine als Auswahl ist aber auch nicht zielführend, daher würde ich mir immer eine Betrachtung von beiden Aspekten wünschen.

Es wäre langfristig auch hilfreich, wenn ihr in zukünftigen Tests Diagramme für fps / Watt und fps / € (Anschaffungskosten) konstruiert. Bei letzterem würde beispielsweise die RTX 4090 unterirdisch abschneiden, während sie bei ersterem glänzt.

Genial wäre auch, wenn die fps / € Diagramme sich an die aktuellen Preise anpassen könnten.

Hier mal ein Beispiel für Performance / €
1665578857495.png
 
  • Gefällt mir
Reaktionen: ShadowDragon, d3nso und bad_sign
Ich hätte gerne einen PC der sehr stromsparend ist. Idle sehr wenig und beim 1080p zocken (mit fps-cap von 60) ebenfalls wenig verballert.
Mein PC verbraucht 35w im Idle und ~85w beim zocken (60fps cap). B450 + 3600 + gtx1050. Ich weiß nicht was man dazu sagen kann. Der Artikel von Freiheraus ist super, dieser hätte einen Jahr früher veröffentlichen sollen, dann hätte ich passende Teile gekauft, und ca 10-25w in beiden Zuständen sparen können.
 
  • Gefällt mir
Reaktionen: husty, Hornblower und Teckler
Ich habe mal jemanden erlebt, der dachte er würde mit seinem Intel i9-11900k und EVGA RTX 3090 FTW 3 Ultra beim Zocken auf einem 4k Monitor mit 120fps target, nur 50W mehr verbrauchen als mein System.
Mein System:
CPU: 65W TDP 6 Kern Ryzen+ mit undervolting und ohne Overclocking.
GPU: 64W RX470 mit undervolting + underclocking.
Ich vermute mein Rechner allein zieht beim Zocken kaum mehr als sein Monitor.
Sein Rechner dürfte gut 700W + ziehen wenn ich Tests sehe wo seine GPU schon 350W+ verbraucht.
Und zu seiner CPU sagt Google: "The Core i9-11900K in our test peaks up to 296 W, showing temperatures of 104ºC, before coming back down to ~230 W and dropping to 4.5 GHz."

Ich verstehe nicht wie solche leute glauben können, sie brauchen nur 50W mehr als ein Sparsames System wie meines.
 
ShadowDragon schrieb:
Bei mir liegt aber der Fokus bis zu einem gewissen Grad bei der Effizienz. Ich möchte min. 60fps auf meinem UWQHD Display haben, ob HDR oder SDR und das unter Linux. Dabei muss auch nicht alles auf Ultra stehen, dass es stimmig aussieht ist viel wichtiger.
Bis zu einem gewissen Grad bedeutet aber auch, dass ich z.B. die RTX 4000er Serie viel zu stromhungrig finde. Da kann die Effizienz noch so egal sein. Wenn der PC neben dem zocken auch fürs surfen und anderlei Hobbies verwendet wird, dann hört sich der Stromverbrauch der RTX 4000er Serie nicht sonderlich attraktiv an.
Wieso? Wenn Dir 60 fps reichen machst Du dort eine Bremse rein und die GPU taktet sich automatisch erheblich niedriger, mitsamt niedrigerer Leistungsaufnahme.

Niemand kann der 4090 Stand heute vorwerfen, nicht effizient zu sein.
 
jusaca schrieb:
Im Idle wären deutlich umfangreichere Tests zur Sparsamkeit interessant, wie bekomme ich den Rechner im Office-Betrieb auf wenige Watt runter. Was hat der RAM für einen Einfluss? Was lässt sich über BIOS-Settings rausholen?
Das finde ich auch besonders interessant. Webbrowsen etc. ist alles nahe des Idle-Verbrauchs.
 
  • Gefällt mir
Reaktionen: McLovin14 und Hornblower
incurable schrieb:
Die Ergebnisse sind vorher schon klar: In den meisten Fällen wird der größte ASIC mit der deftigsten Bremse die meisten "FPS pro Watt" erzeugen.

Hilft das irgendjemandem? Wo ist die Zielgruppe für 2000-Euro-GPUs, die auf einen Bruchteil ihrer regulären Leistung gedrosselt werden um im "FPS pro Watt"-Vergleich vorn zu liegen?
Den Chip den du beschreibst führt nur die Liste an.
Das tut ne 4090 jetzt im Perf. Ranking ja auch, trotzdem werden noch andere GPUs gekauft.

Natürlich ist beides wichtig. Absolute performance UND Effizienz. Das eine ohne das andere zu betrachten führt selten zum Ziel. Und dann muss es natürlich auch noch für den eigenen Geldbeutel passen.

Aber genau da setze ich an. Statt wie bisher die Performance als DAS Kriterium in der Rangliste zu haben, würde ich mir wünschen dass die Effizienz mindestens genauso präsent ist bzw gewichtet wird.

Und ja, da hat ein großer Chip @ gerningen Taktraten Vorteile. So what? Ist dem Hersteller doch überlassen wie er es schafft. Mich interessiert ja auch nicht die Anzahl der Transistoren oder so, am Ende muss halt Verbrauch und Leistung stimmen.
 
  • Gefällt mir
Reaktionen: Alex1966 und Onkel Föhn
Jan schrieb:
Das hatten wir schon am Tag 1 im Test. 300 und 350 Watt. 😬
Ihr macht das glaube auch schon seit Jahren, insbesondere bei CPUs

Aber ich würde mir mal wünsche, was macht ihr da, wie probiert ihr es, welches Resultat.

Ich habe jetzt rausbekommen das meine 6700XT ~ 150W zieht, wenn ich ein einem Spiel aber zum Beispiel ein gewisses Menü öffne, sind es nur noch 28-35W. Ergo wenn ich nun aufs Matchmaking warte aktiviere ich immer das Menü.

Bei meinem Ryzen 5900 das gleiche, hab ihn auf 95W limitiert, und er ist sogar noch schneller (CineBench) was ihr ja auch rausbekommen habt im Test
 
Yeah, wo ist das eine legitime Umfrage? Die letzten Monate, eher schon Jahre, werden wir alle heiß gemacht wegen WEHE WEHE wenn ich auf das Ende sehe! Einself!! und jetzt sowas?

Liebe Kolleginnen und Kollegen von CB: Das ist Selbstbeweihräucherung, plain and simple, und wenn Überhaupt, dann tragt ihr mit solchen Themen eher zur Spaltung der Community bei als daß ihr sie "repariert" und wieder zusammenführt.

👎
 
Ein deutlicher Fokus auf Verbrauch und Effizienz ist mir wichtig, weil den so wenig andere setzen. Ich ärgere mich insbesondere bei vielen Mainboard-Reviews, wenn da wieder auf 10 Seiten nach dem einen Prozent Performanceunterschied zur Konkurrenz gesucht wird, nur um dann an keiner Stelle den Verbrauch zu messen. Tests von Boards könnte ComputerBase daher auch mal wieder vermehrt bringen.
 
  • Gefällt mir
Reaktionen: Epistolarius, Alex1966, Dalek und 2 andere
iNFECTED_pHILZ schrieb:
Es kauft auch nicht jeder ne 2k€ gpu nur weil er Leistung geil findet.
Ist deswegen die metrik Max Performance nichtig ? Merkst selber oder 😅
In der von Dir propagierten "FPS pro Watt"-Metrik liegt aber genau diese 2000-Euro-GPU vorn, wenn man sie nur hart genug bremst.

Deswegen ja mein Hinweis auf den Unsinn dieser speziellen Betrachtung für die breite Masse an interessierten Konsumenten.
 
  • Gefällt mir
Reaktionen: MarcBomber
bad_sign schrieb:
Ne Leistung ist schon Nr. 1 im Vergleich.
Es macht fast nie sinn neue Hardware zu kaufen, nur wegen der Effizienz.....
Der Grund warum man neu anschafft ist Leistung ....
Also demnach ist ein kleiner Sprung in Effizienz es nicht wert zu wechseln, aber ein kleiner Sprung in der Performance schon?
Ich wäre aber dafür die Effizienz direkt unter den FPS/Score Balken einzublenden.
Das wäre schon ein riesen Schritt und den fände ich auch gut.
 
incurable schrieb:
In der von Dir propagierten "FPS pro Watt"-Metrik liegt aber genau diese 2000-Euro-GPU vorn, wenn man sie nur hart genug bremst.
Hart bremsen heisst bei dieser speziellen GPU gerade einmal 2-5% Prozent Leistungsverlust.

Effizienz ist ja nicht automatisch nur noch mit 50 Watt betreiben, sondern den Sweetspot finden und vergleichen.
 
  • Gefällt mir
Reaktionen: Alex1966, Sombatezib und Tzk
Interessant für mich wäre auch,welche Effizienzspanne eine CPU/GPU erreichen kann..Also von Stock zu "max" sinnvoller/nutzbarer Effizienz...da wirds sicher Unterschiede geben zB aufgrund der Architekturen.
 
incurable schrieb:
In der von Dir propagierten "FPS pro Watt"-Metrik liegt aber genau diese 2000-Euro-GPU vorn, wenn man sie nur hart genug bremst.

Deswegen ja mein Hinweis auf den Unsinn dieser speziellen Betrachtung für die breite Masse an interessierten Konsumenten.
Soll der Hersteller sie doch bremsen wie er sie mag.
Wo ist das problem?

hätten wir noch riesiges OC Potential wäre die Leistungslücke zwischen @stock und @OCmax auch viel größer. Ich erinnere mich hier an GPU Ranglisten bei der die OC Varianten gut 20% drüber lagen.

Ich lese da nur die Angst raus, dass der Hersteller absichtlich die Leistung kastriert, um in den hoffentlich bald dominerenden Effizienzrankings vorne zu liegen. Aber dann haben wir doch genau das richtige erreicht.
 
Die Zeiten bei denen ich mir 10% Mehrleistung 25%+ Verbrauch erkaufe sind vorbei, muss ich mir einfach nicht mehr geben. Ich fände es daher interessant wenn man die effizient stärker in den Vordergrund setzen würde als die reine Performance allein. Wobei das ja bei vielen Test ja schon heute gemacht wird?

fps/Watt und fps/€ fände ich interessant.
 
  • Gefällt mir
Reaktionen: Alex1966 und Tzk
Hi

Ja bitte mehr davon in Zukunft. :)

@d3nso

Ja Genau , sollte OC/UV mal nicht so gut zu klappen , dann lieber mehr UV , und nen bischen mit dem Takt runter , 3-4FPS verlust da lacht man doch drüber , aber für die Meisten COD/Fortnite/Minecraft Kinder oder 4090 Suchtis , ist das ja so schlimm , nahe am Weltuntergang.

Bei meiner RX5700 , die Taktet mit 1960mhz , runter auf 1900 mit 0,950V habe exakt 3-4FPS nur verloren , aber dafür braucht die nur noch im Superpostion um die 120-130W , und wenn ich meine Games mit 60FPS zocke nur noch 70-80W.

mfg.
 
Zuletzt bearbeitet:
AlanK schrieb:
Apple hat beim M1 ja auch Geschwindigkeit und Energieeffizienz gezaubert.
Und wie? Genau, indem sie mehr ins Silizium investieren.

Das ist nämlich der Haken: Du kannst Dir in vielen Szenarien die selbe Leistung X in verschiedenen Kombinationen von verwendetem Silizium und nötiger Leistungsaufnahme erkaufen. Für ein aktuelles Beispiel siehe die unterschiedlichen Wege von Microsoft und Sony zu ähnlicher Leistung in der aktuellen Konsolengeneration.
 
Zurück
Oben