Tipps für Rechenknecht Büro75%/Zocken25%

Ob es Cent oder € werden, ist allein abhängig vom Usecase des TE.
Fakt ist, dass ein 7700(X)/7800X3D im Office Bereich gerne das doppelte aus der Steckdose nimmt als ein i5/i7:
KarlsruheArgus schrieb:
Wenn es dir auf 30W bis 50W Mehrverbrauch nicht ankommt

Das Argument "tote Plattform" interessiert die meisten Leute nicht ansatzweise. Wahrscheinlich wird auch Windows 13 auf der Kiste noch laufen...
 
  • Gefällt mir
Reaktionen: Tigerkatze
Nur mit Aufrüsten ist dann nix mehr auf dem MB. Weißt du aber auch, ignorierst du nur immer weil intel-fanboy.
 
djducky schrieb:
Nur mit Aufrüsten ist dann nix mehr auf dem MB
Das wird der TE entscheiden können, ob ihm das wichtig ist.
Wenn ja, bezahlt er es mit teilweise doppelten Verbrauch bei Office/Youtube.
Wenn nein, ist Intel für ihn die sinnvollere Wahl.

Und zu Deinem Fanboy Geblubber:
Falls AMD es irgendwann schafft, für meinen Usecase (90% Desktop) die effizientere CPU zu bauen, habe ich ruckzuck AMD ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tigerkatze
Ich habe dir schon drölfzig Mal vorgerechnet, wie lange es dauert, bis dieser Strom-Steckdose-Quatsch überhaupt nennenswerte Summen generiert. Nur weil es dein Lieblingsthema ist, ist es kein besonders bedeutendes Thema.
 
Weil ich die Diskussion immer so schön finde: Kucke ich 8h am Tag (30 Tage im Monat) ein 8k-Video mit dem System von Till (was sicherlich beim Thema Undervolting mehr optimiert ist als das von Argus) so verbrauche ich bei einem Strompreis von 35c im Monat 1,18EUR mehr mit dem AMD 8500G.
Der Mehrpreis eines 13600K geegnüber einem 8500G bedeutet, dass sich der 13600K nach 7 Jahren rechnet. Außer ich nutze mal Volllast. Nehmen wir als Vollastvergleich nur die Werte vom CB Anwendungstest gegenüber dem 8600G, weil der 8500G da nicht erscheint und lassen von den 8h das 10% der Zeit anliegen, also 48min, so schrumpft der Strombonus vom 13600k auf 8cent pro Monat.

Ok. Tigerkatze wird wissen, wie wichtig ihm die 8cent, die Aufrüstbarkeit oder die Leistung allgemein ist. Nur er wird das final für sich beurteilen können und ich denke es wurden viele Argumente für beide Lösungen vorgebracht, dass er da eine gute Entscheidung fällen kann.
 
  • Gefällt mir
Reaktionen: KarlsruheArgus
till69 schrieb:
Wenn ja, bezahlt er es mit teilweise doppelten Verbrauch bei Office/Youtube.

Was meinst du denn was ein Intel und was ein AMD im Idle verbrauchen?

Ich würde das jetzt mal so schätzen, dass ein AMD so ca, 40-45W benötigt.

Dann würden wir, wenn du von der Hälfte sprichst also bei ca. 20W für den Intel sein.

Kommt das so ca. hin?

Das sind im Jahr bei sagen wir 25W unterschied dann bei einer Nutzungsdauer von 5 Stunden täglich ca. 45kWh Unterschied. Stimmt das so? Das sind bei sagen wir hoch angenommenen 50 Cent pro kWh dann unter 25 Euro im Jahr.

Stimmt doch so, oder hab ich wo einen Denkfehler?

Bei einer Nutzungsdauer von 10 Jahren sind das dann 250 Euro unterschied bei einem Gesamtverbrauch von etwa 2250 Euro (gerechnet mit einem Mittelwert zwischen Idle und Last (50W für CPU und 200W für GPU) und das wo der Intel unter Last mehr braucht, ohne das berücksichtigt zu haben.

Ob das die Entscheidung beeinflussen sollte?

Ich meine, ich versuche ja echt neutral zu sein, ob AMD oder Intel, aber ich sehe momentan kein Argument für Intel. Oder sagen wir zumindest nicht mehr und bessere Argumente als bei AMD.
 
djducky schrieb:
drölfzig Mal vorgerechnet
Ja, und auch beim hundertdrölftzigsten Mal wirst Du es nicht schaffen über den Tellerrand zu blicken.
Mein Rechner läuft 24/7 (wegen Smarthome).
Bei 25W mehr sind das 65,5€ (bei 30Ct/kWh) im Jahr. Nach 2-3 Jahren also ein neues Board.

Alles Peanuts Summen, aber sorry, wenn mir ein AMD/AMD Setup bei Youtube über 120W zieht, und ich weiß, dass Intel/Nvidia es mit der Hälfte hinbekommt, entscheide ich mich für die "tote" Plattform, die bei jeder Alltagsaufgabe auch noch schneller ist (Singlecore).

Tharan schrieb:
Nur er wird das final für sich beurteilen können und ich denke es wurden viele Argumente für beide Lösungen vorgebracht, dass er da eine gute Entscheidung fällen kann
+1
 
  • Gefällt mir
Reaktionen: Tigerkatze
till69 schrieb:
wenn mir ein AMD/AMD Setup bei Youtube über 120W zieht,

Du meinst damit jetzt aber nicht die AM5 CPU alleine oder??????

Da bist du dann wirklich komplett daneben, was ein AM5 vernraucht!

Du meinst damit den kompletten Rechner oder?
 
5h bei 20W Unterschied macht 0,035€ macht bei 300 tagen im Jahr rund 10€ bei 35c pro kwh.

Und das auch nur, wenn du ausschließlich die Situationen heranziehst, bei denen der Intel Vorteile hat. Diese Debatte ist so unfassbar viel weniger relevant, als sie von Leuten wie till immer wieder hochgekocht wird.

24/7 Dauerbetrieb ist ein ganz spezifischer anwendungsfall, der hier kaum jemanden interessiert.

@KGR48
Er meint CPU plus GPU. Das macht er immer gerne: Ein AMD/AMD gegen ein Intel/nvidia System stellen, weil nVidia Systeme weniger fressen und seine Intel CPU dann noch besser dasteht. Dass man AMD CPUs mit Intel-GPUs kombinieren kann, fällt dann unter Geheimwissen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tharan
@djducky

Mit GPU macht der Vergleich ja Null Sinn, da selbst die AMD-CPU User zur Mehrzahl NVidia Karten haben ...

Ausserdem ist das gerade für eine Beratung individuell zu betrachten, je nachdem was gewünscht ist, und dennoch muss es separat betrachtet werden.

Und selbst bei AMD-AMD kann ich mit meinem 7800X3D hier meine 80W ins Rennen werfen!
 
KGR84 schrieb:
Du meinst damit den kompletten Rechner oder?
Ja, komplett.
djducky schrieb:
Ein AMD/AMD gegen ein Intel/nvidia System stellen, weil nVidia Systeme weniger fressen und seine Intel CPU dann noch besser dasteht
Ich hatte einen 5900X+Nvidia mit >120W bei Youtube. Mit dem 13700K+gleiche Nvidia gings runter auf 65W.

KGR84 schrieb:
Was meinst du denn was ein Intel und was ein AMD im Idle verbrauchen?
Mein 13700K ohne 4090: 24W
Ein 7800X3D ohne dGPU bei mir: 51W
 
Zuletzt bearbeitet:
@KGR84
Dann lass mal deine Fantasie spielen, wie die Diskussionen zwischen till und mir in der vergangenheit so gelaufen sind.
 
till69 schrieb:
Ja, komplett.
Ich hatte einen 5900X+Nvidia mit >120W bei Youtube. Mit dem 13700K+gleiche Nvidia gings runter auf 65W.

Also ich habe gerade bei meinem System (7800X3D (und das ist nicht der sparsamste AM5) mit RX580) nachgesehen. Ich habe im google Chrome 50 Fenster offen, habe gerade 3 Youtubefenster probeweise gleichzeitig laufen lassen, und kann kaum einen Unterschied zum richtigen Idle feststellen.
@id: ok wenn ich wirklich gar nichts mache geht mein CPU von 40W auf ca. 25W runter, aber das spricht ja noch mehr gegen die Theorie, dass Intel sooo viel sparsamer ist!

Ich habe sowohl an der CPU als auch der GPU jeweils ca. 40W anliegen.

Also insgesamt 80W. Zugegeben meine GPU ist sehr alt und sparsam, aber wie gesagt die GPU spielt da mMn keine Rolle, wenn man die CPU betrachten möchte!

Aber der Unterschied den du da festgestellt hast beim 5900X (ich kann jetzt nicht einschätzen wie da der Unterschied zum 7800X3D ist) ist ja alleine schon mehr, als meine CPU alleine verbraucht, das kann nicht stimmen.
 
Zuletzt bearbeitet:
@till69 ja ... die Diskussion hatte ich auch schon mal, an der Steckdose gemessen kommen ein paar Watt anders raus, mal mehr mal weniger. Das hat bei mir mit HWInfo, wo ich es auch jetzt abgelesen habe +- übereingestimmt.
 
@till69 Wenn ich nur die Maus bewege dann steigt der Verbrauch ca. um 7-8W und wenn ich mit der Maus über etwas drüber fahre, z.b. die Werte auf HW-Info und das Fenster mit der Beschreibung aufpopp dann ca, auf 35-40W.
 
Zurück
Oben