Für Deinen Usecase vielleicht, meiner ist >8 Std/Tag Desktop, und 4-8Std/Woche zocken am TV/4K. Volllast nur 1x im Jahr zum OpenWRT bauen.Verak Drezzt schrieb:davon ab ist die Verbrauchsdiskussion für den Großteil da draußen eh hirnrissig
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Ryzen vs. Intel Core im Test: Gaming-Benchmarks mit Windows 11 24H2 & BIOS-Updates
Quidproquo77
Lt. Commander
- Registriert
- Okt. 2023
- Beiträge
- 1.789
Wo steht das denn? Link? Also ich habe das nicht gesagt. Es ging mir hier nicht um irgendeine CPU Kaufberatung.CadillacFan77 schrieb:Ich kann es nur nicht mehr als Argument hören, warum der Intel deswegen die bessere Wahl sein soll.
Ausweichen kann man immer. Am Notebook zockt man theoretisch auch effizienter.CadillacFan77 schrieb:Entweder sind einem die Stromersparnis diese Aussage wert -> dann sollte man aber eben Strom wirklich sparen und auf Smartphone / Notebook ausweichen.
Warum sollte man gegenüber einer Intel CPU bspw. 14900K , wenn man auch zockt was sparen? Glaub ich nicht.CadillacFan77 schrieb:Oder es ist die monetäre Ersparnis bezogen auf dem Stromverbrauch.
Wir reden ja nicht nur über 10 Watt, sondern durchaus 20 bis 25 Watt.CadillacFan77 schrieb:Es gibt keinen monetären, ideologischen oder wirklich sinnvollen Grund, über 10W +/- zu diskutieren.
Verak Drezzt
Admiral
- Registriert
- Jan. 2020
- Beiträge
- 9.696
Wegen dem besseren Gesamtverbrauch. Das sind kWh geteilt durch Stunden, ergibt die durchschnittliche Leistungsaufnahme. Versteht aber nicht jeder.Verak Drezzt schrieb:Intel wegen dem besseren Idle Verbrauch
LamaMitHut
Commander
- Registriert
- Nov. 2013
- Beiträge
- 2.915
Toll. Dann ist aber auch ein Raptor Lake relativ unnötig, hol dir einen z.B. einen i7-12700KF und werde glücklich damit. Hier geht es um High End CPUs. Das sind alles unvernünftige Spielzeuge.till69 schrieb:Richtig, spiegelt aber den Verbrauch wieder, den die Leute letztendlich bezahlen.
Und für alle, die keine 4090 haben (GPU Limit), sind die Software-Verbrauchswerte völlig nichtssagend/praxisfremd.
Wieso wird hier über die paar Watt so lange hergezogen? Lässt Du die Lampe im Bad den ganzen Tag aus versehen brennen, hat das einen größeren Effekt auf deine Stromrechnung als der Unterschied in einen Tag rumidlen im Intel oder AMD. Das sind doch keine Unsummen und rechtfertigt weder das eine noch das andere.
Quidproquo77
Lt. Commander
- Registriert
- Okt. 2023
- Beiträge
- 1.789
Auf dem TV surft es sich aber nicht bequem. Ich glaube wir drehen uns an der Stelle langsam im Kreis. Das ist ja längst ein anderes Thema als die reinen Messwerte bzw. was man auf einem Desktop Rechner typischerweise macht.ThirdLife schrieb:Nicht aufs Notebook, aber auf den TV.
Und wenn und wenn und wenn. Der Idle/Teillastverbrauch ist dennoch deutlich höher und das ist halt ein Minuspunkt.ThirdLife schrieb:Und wenn ich nur ein bisschen gemütlich was lesen will ist oft mein iPad erste Wahl.
Lasst uns am besten die Desktops verbieten^^.ThirdLife schrieb:Warum soll ich dafür jetzt den Desktop nehmen ?
Was heißt beschweren, das ist von meiner Seite lediglich eine sachliche Feststellung von Tatsachen mit den typischen Dingen die man an einem PC nunmal tut.ThirdLife schrieb:"dass man sich ja beschweren dürfen muss".
Da ist halt der 5800X3D bzw. Zen 3 oder auch Intel deutlich sparsamer.
Und jetzt kann ich das akzeptieren, oder eben immer neue Ausflüchte suchen warum das nicht auch ein Faktor ist.
Ich meine du überschlägst dich jetzt mit Whataboutism und einem Autovergleich.
Wozu denn?
Das ist abhängig vom Anforderungsprofil. Du wirst halt nicht nur Vollast fahren oder nur zocken. Die Last bei Photoshop, CAD, YouTube, Website/Dokument öffnen, PDF erstellen/verschlüsseln oder Adobe Premiere liegt ja meist nur kurz an, sowie alle Hintergrundprozesse, Fenster etc. keine ernsthafte Last erzeugen.ThirdLife schrieb:In Relation IST es eben auch nicht wichtig.
Klar ist das für die Bewertung wichtig. Wie wichtig hängt von den Gewohnheiten ab. Da muss man ja nicht groß drüber reden. Aber wenn jemand sagt er nimmt den Desktop zu 95% nur zum zocken, dann ist das für mich nicht die Regel.
Nein wozu das Setup ist ja so gewählt und eingestellt, dass es sparsam ist. In Spielen und zum arbeiten. Und wenn ich das bei allen Geräten im Haus mache, kommt ein hübsches Sümmchen zusammen.ThirdLife schrieb:Wenn du wirklich sparen willst musst du dein ganzes Setup in Frage stellen,
Ergänzung ()
Meine Badlampe hat 3 Watt.Squido schrieb:Lässt Du die Lampe im Bad den ganzen Tag aus versehen brennen, hat das einen größeren Effekt auf deine Stromrechnung als der Unterschied in einen Tag rumidlen im Intel oder AMD.
Damit der bei Intel vs Zen 4/5 besser ist, musst du viel arbeiten und Idlen und quasi nie zocken.^^ Theoretisch möglich.till69 schrieb:Wegen dem besseren Gesamtverbrauch. Das sind kWh geteilt durch Stunden, ergibt die durchschnittliche Leistungsaufnahme.
Zuletzt bearbeitet:
alyk.brevin
Ensign
- Registriert
- Jan. 2024
- Beiträge
- 234
macht bitte mal eine sonntagsfrage über vbs/hvci:
und natürlich auch bei den tests vollständig deaktivieren und die unterschiede zeigen.
hier ist ja schon herausgekommen, dass 36-43% das bewusst aktiv haben:
https://www.computerbase.de/2024-06...-schuetzt-ihr-eure-pcs-vor-viren-und-malware/
also über die hälfte der 3300 antwortgeber hat es entweder nicht aktiviert oder es ist unbewusst aktiviert.
- wer denkt, dass er weiß, ob es aktiviert ist (haken in sicherheitseinstellung speicherintegrität)
- wer weiß, ob es wirklich aktiviert ist (prüfbar über msinfo32)
- wer weiß, wie man es wirklich deaktiviert (vm in bios)
- wer hat win neu installiert und wer hat von win10 aktualisiert (=unterschiedliche standardeinstellung)
- wer hat es manuell de-/aktiviert
- warum ist es aktiviert (standardeinstellung/unkenntnis/sicherheitsgefühl/vms in benutzung)
- warum ist es deaktiviert (standardeinstellung/performancevorteile/sicherheitsrisiko niedrig genug)
und natürlich auch bei den tests vollständig deaktivieren und die unterschiede zeigen.
hier ist ja schon herausgekommen, dass 36-43% das bewusst aktiv haben:
https://www.computerbase.de/2024-06...-schuetzt-ihr-eure-pcs-vor-viren-und-malware/
also über die hälfte der 3300 antwortgeber hat es entweder nicht aktiviert oder es ist unbewusst aktiviert.
aldaric
Admiral
- Registriert
- Juli 2010
- Beiträge
- 8.221
Quidproquo77 schrieb:Und wenn und wenn und wenn. Der Idle/Teillastverbrauch ist dennoch deutlich höher und das ist halt ein Minuspunkt.
Ist halt weiterhin unfug. Alleine die Aussage "deutlich höher" ist beim Gesamtsystem mit ~10 W Unterschied absolut vernachlässigbar.
Ein höherer Lastverbrauch erfordert aber deutlich mehr, als nur den reinen Verbrauch.
Die Kühlung muss dementsprechend angepasst werden. Das Netzteil muss dementsprechend dimensioniert werden. Das sind Ausgaben, die einen 10 W niedrigeren Idle Verbrauch niemals auffangen können.
UrlaubMitStalin
Lt. Commander
- Registriert
- März 2011
- Beiträge
- 1.772
Krass... ich wusste das "FPS pro Watt im Durchschnitt" Verhältnis ist bei Intel mies, aber das Intel bei weniger Leistung das dreifache an Strom frisst, ist schon echt krass.
ArrakisSand
Lieutenant
- Registriert
- Dez. 2019
- Beiträge
- 795
@UrlaubMitStalin Das dreifache im Schnitt, in der Spitze bis zum dreieinhalbfachen.
Das ist einfach nur abartig.
Gab es das schon einmal, dass ein CPU Hersteller so abgeschlagen in einem Effizienz-Trümmerhaufen, voller Furcht auf die Hand Buddhas in Form des 9800X 3D warten musste.
Das ist einfach nur abartig.
Gab es das schon einmal, dass ein CPU Hersteller so abgeschlagen in einem Effizienz-Trümmerhaufen, voller Furcht auf die Hand Buddhas in Form des 9800X 3D warten musste.
Quidproquo77
Lt. Commander
- Registriert
- Okt. 2023
- Beiträge
- 1.789
Was nicht sein darf, darf nicht sein?aldaric schrieb:Ist halt weiterhin unfug.
Ich sehe hier in der Spitze über 30 Watt Unterschied und 23 Watt von 5800X3D zum 7800X3D System.
https://www.computerbase.de/2024-09...t/#abschnitt_leistungsaufnahme_in_anwendungen
Wen mein System an der Steckdose im Idle mehr als 80 Watt statt wie bei mir 40- 45 Watt zieht, dann ist das nicht so prickelnd. Ich verstehe nicht was es da zu debattieren gibt.
Wieso eigentlich immer nur 10 Watt?aldaric schrieb:Alleine die Aussage "deutlich höher" ist beim Gesamtsystem mit ~10 W Unterschied absolut vernachlässigbar.
Wo hat der 5800X3D nen höheren Lastverbrauch? Haben die Intel F CPUs auf Einstiegsboards im übrigen auch nicht, falls es dir um AMD vs Intel geht.aldaric schrieb:Ein höherer Lastverbrauch erfordert aber deutlich mehr, als nur den reinen Verbrauch.
Tornavida
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.346
Puh ,ganz schön anstrengend den ganzen BS von Stromverbrauch/Idle bei jedem CPU Thread rauszufiltern. Dass den Leuten nicht langweilig wird und man eh nicht zu einem Konsens kommen wird.
Naja wie dem auch sei, anstrengender war sicher der Nachtest, Respekt und besten Dank für den Aufwand. Meine CPUs aus beiden Lagern freuen sich, bis jetzt blieb das Update bei mir aus.
Auf die Battles der neuen Gen. freue ich mich schon, endlich wieder Bewegung im CPU Markt. Ist schon etwas langweilig überlegen was AMD abliefert. Der 7800x3d ist schon ein nettes Teilchen zum Zocken, läuft zuverlässig schnell, sparsam und leise , zum ersten mal bin ich auch wirklich zufrieden mit einem AMD Produkt von Anfang an und Kauf kurz nach Release. Hoffe das geht so weiter zumindest bei den CPU.
Naja wie dem auch sei, anstrengender war sicher der Nachtest, Respekt und besten Dank für den Aufwand. Meine CPUs aus beiden Lagern freuen sich, bis jetzt blieb das Update bei mir aus.
Auf die Battles der neuen Gen. freue ich mich schon, endlich wieder Bewegung im CPU Markt. Ist schon etwas langweilig überlegen was AMD abliefert. Der 7800x3d ist schon ein nettes Teilchen zum Zocken, läuft zuverlässig schnell, sparsam und leise , zum ersten mal bin ich auch wirklich zufrieden mit einem AMD Produkt von Anfang an und Kauf kurz nach Release. Hoffe das geht so weiter zumindest bei den CPU.
Quidproquo77
Lt. Commander
- Registriert
- Okt. 2023
- Beiträge
- 1.789
Hast du nicht auch einen 7800X3D? Klar dass man das nicht so gerne hört und das wieder "BS" ist. An anderer Stelle (etwa bei GPUs) wird oft über den Idleverbrauch gesprochen.Tornavida schrieb:Puh ,ganz schön anstrengend den ganzen BS von Stromverbrauch/Idle bei jedem CPU Thread rauszufiltern.
Die Mess-Werte für sich zweifelt niemand an, zumindest gehe ich davon aus.Tornavida schrieb:Dass den Leuten nicht langweilig wird und man eh nicht zu einem Konsens kommen wird.
Ja, Absolut. 3 fache Gaming Effizienz zum 14900K Schluckspecht mit 253 Watt Profil. Idle trotzdem irgendwie "schlecht", deshalb wirds bei mir keine neue CPU. Beim Nichtstun Strom verballern ist mir dann zu viel des Guten.Tornavida schrieb:Der 7800x3d ist schon ein nettes Teilchen zum Zocken, läuft zuverlässig schnell, sparsam und leise...
Übrigens ist da "Spoiler" besonders Arrow Lake "mäßig". Die Systeme nuckeln im Idle bisher alle mit dem aktuellen BIOSen, warum auch immer, wohl dem Tile Ansatz geschuldet.
Gaming ~ X% unter dem 14900K..
Zuletzt bearbeitet:
aldaric
Admiral
- Registriert
- Juli 2010
- Beiträge
- 8.221
Na hoffen wir mal, dass hier nichts schlimmeres bezüglich der neuen Core Ultra CPUs auf uns zu kommt.
Erste Berichte zu instabilen Core Ultra CPUs
Erste Berichte zu instabilen Core Ultra CPUs
Quidproquo77
Lt. Commander
- Registriert
- Okt. 2023
- Beiträge
- 1.789
Eher nicht aber der Launch morgen wird für Gamer eine "Offenbarung" im negativen Sinne, soviel ist sicher.aldaric schrieb:Na hoffen wir mal, dass hier nichts schlimmeres bezüglich der neuen Core Ultra CPUs auf uns zu kommt.
Verak Drezzt
Admiral
- Registriert
- Jan. 2020
- Beiträge
- 9.696
weil Intel meint dass es ein Softwarefehler ist ? abwarten und Tee trinken ob dem so ist, ansonsten würde ich dahingehend erstmal keinen in der Kaufberatung einen Arrow-Lake empfehlen, solang dies nicht geklärt istQuidproquo77 schrieb:Eher nicht
Tornavida
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.346
Naja wenn der Microcode wie in @aldaric Link nach Intels Aussage anscheinend noch nicht ausgereift ist ist es kein Wunder, dass die CPUs erstmal wie ein Sack Nüsse laufen oder? Sollte natürlich nicht sein und ob es auch nur daran liegt werden wir erst in Zukunft sehen wenn überhaupt was an der Story dran ist. In den nächsten Tagen sind wir ja schlauer. Frag mich wieso man sowas erst immer kurz vor Launch bemerkt oder dann überhaupt launcht. Besonders zuträglich dem Image ist es ja nicht.
Ähnliche Themen
- Antworten
- 295
- Aufrufe
- 24.920