Tenferenzu
Vice Admiral
- Registriert
- Okt. 2017
- Beiträge
- 6.522
Youtube hat da eine eigene Einstellung mit der du AV1 forcierenNixdorf schrieb:Browser-Add-On das Ausliefern von AV1
Quelle:
https://www.youtube.com/account_playback
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Youtube hat da eine eigene Einstellung mit der du AV1 forcierenNixdorf schrieb:Browser-Add-On das Ausliefern von AV1
Was meinst du macht eine halbwegs moderne CPU beim Surfen oder Programmieren? Die läuft da zu >90% im Idle.Nixdorf schrieb:Nachdem hier im Thema häufig von "Effizienz im Idle" die Rede war, muss ein Hinweis noch sein: Der effizienteste PC im Idle ist der, den man ausschaltet oder in den Standby schickt.
Der Tipp ist generisch anwendbar .Nixdorf schrieb:aber man kann eigentlich die Verantwortung nicht auf den dicken Rechner abwälzen, sondern sollte sich selber an die Nase fassen.
Was soll ich dir sagen, der Screen hatte 60% in C6 verbracht.NameHere schrieb:Deine CPU ist garnicht im Idle bzw. erreicht nicht die erforderlichen C-States weil Hintergrundlast oder nicht richtig konfiguriert.
Hier mal die Werte von einem Mobilen Ryzen 4600u (1,654W). Deine CPU sollte wenn alle C-States greifen weniger als 10 W brauchen.
Anhang anzeigen 1113046
Jepp. Deshalb ist das Thema Idle bei der Effizienzbetrachtung ja auch nicht weg, sondern wurde als "sekundär" bezeichnet. Wer außer diesen Dingen nix mit der Kiste macht, bei dem fallen primärer und sekundärer Fokus zusammen. Da braucht man dann aber erst gar keinen Achtkerner. Die Mehrausgaben gegenüber einem dafür bereits großzügig dimensionierten 10105F bekommt man mit keinem Effizienzwunder der Welt wieder rein.I'm unknown schrieb:Was meinst du macht eine halbwegs moderne CPU beim Surfen oder Programmieren? Die läuft da zu >90% im Idle.
Ah, also doch noch immer nicht. Ich hatte vermutet, dass hätte sich geändert. Die Auto-Einstellung ist halt, dass AV1 genutzt wird, wenn der Browser es als unterstützt meldet. Und das tun die modernen Browser. Damit fällt es dann doch wieder auf ein Add-On zurück, diese Meldung zu unterdrücken. Das Optimum wäre es, wenn man seinem Browser beibringen könnte, das nur dann als unterstützt zu melden, wenn es per Hardware-Dekoder abgespielt werden kann. Aber genau das tun die Browser meinem aktuellen Kenntnisstand nach nicht von sich aus.Tenferenzu schrieb:mit der du AV1 forcierenoder abschaltenkannst
Der 1231v3 hatte keinen DDR4-Controller. War das tatsächlich ebenfalls mit 3600er-RAM? Genau das dürfte nämlich einer der Übeltäter sein. Da läuft der Fabric über der Spec, und das kostet deutlich Watt. Ein weiterer Aspekt "bei gleichem Betrieb" dürfte sein, dass der alte Prozessor noch keine Taktwechsel in einer Millisekunde konnte. Genau diese "Schwuppdizität" der neueren Ryzen ist nämlich der zweite Kandidat für die hohen Werte.wirelessy schrieb:Mein alter Xeon 1231v3 war (bei gleichem Betrieb) deutlich sparsamer, mit ca 4W bei diesem Workload.
//e: Man beachte, wer das meiste zieht. Das sind nicht die Kerne, das sind Cache+RAM Controller etc.
Nixdorf schrieb:That being said: Ich fände das schon cool, wenn man im Desktop die dedizierte Grafikkarte genau wie in einem Optimus-Notebook bei Nichtgebrauch einfach komplett abschalten könnte, ohne sie ausbauen zu müssen.
Auto sollte VP9 sein wenn kein AV1 in HW vorhanden ist. Bei mir wird von alleine kein AV1 wiedergegeben.Nixdorf schrieb:Die Auto-Einstellung ist halt, dass AV1 genutzt wird, wenn der Browser es als unterstützt meldet.
Gerade mal getestet. Ok komplett abschalten tut sie nicht, aber wenn ein Monitor an der 3090 hängt zieht sie laut HWInfo min. 25W. Wenn ich den Monitor umstecke auf die Onboard Grafik, so dass die Nvidia GPU auf dem Desktop nicht genutzt wird, geht sie runter auf 13W. Also durchaus ein beachtlicher Gewinn.Nixdorf schrieb:Ich fände das schon cool, wenn man im Desktop die dedizierte Grafikkarte genau wie in einem Optimus-Notebook bei Nichtgebrauch einfach komplett abschalten könnte, ohne sie ausbauen zu müssen.
Jepp, inzwischen bewegt sich wieder was. Aber da wurden einige Jahre echt verschenkt, das könnte schon viel weiter sein.Ray519 schrieb:Aber abgesehen davon läuft Hybrid ja mittlerweile Top auch auf Desktops.
Also ich bekomme hier AV1, und meine Settings stehen auf Auto. Und die RX 580 kann das nicht in Hardware.Tenferenzu schrieb:Auto sollte VP9 sein wenn kein AV1 in HW vorhanden ist. Bei mir wird von alleine kein AV1 wiedergegeben.
Du schaltest also den PC aus, wenn Du z.B. Excel oder Word benutzt? Denn auch da hat man meist 99% Leerlauf.Nixdorf schrieb:Der effizienteste PC im Idle ist der, den man ausschaltet oder in den Standby schickt.
Ahja, da bekomm' ich's auch.Nixdorf schrieb:Also ich bekomme hier AV1, und meine Settings stehen auf Auto.
Da fragst du den falschen. Mein PC ist nie im Leerlauf. Schon mal was von Multitasking gehört?till69 schrieb:Du schaltest also den PC aus, wenn Du z.B. Excel oder Word benutzt? Denn auch da hat man meist 99% Leerlauf.
Nixdorf schrieb:Wer außer diesen Dingen nix mit der Kiste macht, bei dem fallen primärer und sekundärer Fokus zusammen. Da braucht man dann aber erst gar keinen Achtkerner.
Also was jetzt? Beim Programmieren 20-30 Watt dauerhaft mehr ist kein Problem, solange man nicht ewig aufs Compilat warten muss? Viele Anwendungsfälle passen in das Schema lange (sehr) wenig Performance nötig aber kurzzeitig ist Performance gewünscht. Und wenn eine dedizierte GPU keinen Vorteil bringt würde ich bei der Zusammenstellung mit Fokus auf Effizienz immer versuchen diese einzusparen. Gerade bei AMD bringt das besonders viel da dann ein SoC mit nur einem Die welches besonders auf Effizienz getrimmt wurde zum Einsatz kommt.Nixdorf schrieb:Wer aber zwischendurch immer mal wieder "getting stuff done" fährt, der sollte eben genau das stärker im Blick haben. Bringt ja nix, wenn die Kiste zwar dauerhaft 20W spart, aber immer dann, wenn es wirklich zählt, kriegt man 200 Puls wegen "der lahmen Scheißkiste".
Was genau schlägst du denn konkret vor? Initiativbewerbungen mit guten und umsetzbaren Ideen werden bestimmt schnell angenommen .Nixdorf schrieb:Aber da wurden einige Jahre echt verschenkt, das könnte schon viel weiter sein.
Hier ein paar Watt, dort ein paar Watt, das summiert sich. Im mobilen Bereich werden teils Einsparungen von ein paar zehntel Watt als Durchbruch gefeiert - vor allem weil der Idle-Verbrauch von Notebooks zum Teil selbst bei Videowidergabe extrem gering ist wenn man den Verbrauch vom Display abzieht.Nixdorf schrieb:Na ja, und das braucht dann halt ohne den Hardware-Dekoder in Summe vielleicht ein paar Watt mehr. Schrieb ich ja... Luxusproblem.
Dass sie das bereits begonnene Projekt (Zero Core Power) nicht sang- und klanglos beerdigen.I'm unknown schrieb:Was genau schlägst du denn konkret vor?
Wo haben sie das? Die GPUs welche ab Begin dieses (Marketing)Programms fallen waren nie bei 0 Watt inkl. allem was auf der Grafikkarte verbaut ist VRMs, etc.Nixdorf schrieb:nicht sang- und klanglos beerdigen.
Klar, kann man machen. Was ist aber, wenn man auch zocken will? Für einige ist dann die Konsole die Lösung, für andere muss ein zweiter PC her. In jedem Fall ist das noch ein Gerät, und das ist zumindest im Hinblick auf die Umweltbilanz ein Verlust. Da betrachtet man ja nicht nur die Energie, die man während der Nutzung verbraucht, sondern auch die, welche für die Herstellung benötigt wurde. Dazu kommt noch der multiplizierte Platzbedarf, der bei einigen ebenfalls irgendwann zum Problem wird.I'm unknown schrieb:Und wenn eine dedizierte GPU keinen Vorteil bringt würde ich bei der Zusammenstellung mit Fokus auf Effizienz immer versuchen diese einzusparen.
Nein, aber unter 3W. Und das war vor vielen Jahren schon mal deutlich weniger als das derzeitige Minimum von 5W.I'm unknown schrieb:waren nie bei 0 Watt
Für manche (Selbstständige) ist das tatsächlich eine echte Anforderung. Für Privatpersonen wohl eher nicht - da würde man auch bei einer CPU mit iGPU eher eine dedizierte GPU nachrüsten.Nixdorf schrieb:für andere muss ein zweiter PC her
Ja - nur Zen 2 + Zen 3 ohne iGPU fallen dabei raus - wenn man nicht mehr als acht Kerne benötigt. AMD hat sicher nicht wegen der Gewinnmarge für Notebooks einen eigenen Die aufgelegt - das hat technische Hintergründe warum die APUs anders aufgebaut sind.Nixdorf schrieb:Und dass ein 5700G und ein 11700(K) sich im Idle kaum was nehmen.
Welche der größeren AMD GPUs hatte diesen realen Bedarf - also die komplette Karte und nicht nur die GPU laut HWInfo?Nixdorf schrieb:Nein, aber unter 3W.
Der 5700G ist leistungsfähiger als der 9900K. Ehrlichgesagt gehe ich davon aus, dass mir die Leistung locker reichen wird.PC_Peter schrieb:Jetzt kenn ich mich da nicht aus aber evtl kannst du, Callejon, einordnen ob die Performance für deine Sachen passt.
Der 5700G scheint echt die perfekte CPU für mich zu sein. Trotzdem habe ich aus unerklärlichen Gründen Lust auf den 5900X. Die CPU ist etwas zukunftssicherer und hat dann Leistungsreserven ohne Ende. Die neueste Version von Ableton Live soll zudem CPU-hungriger geworden sein. Das kann sich mit späteren Updates zwar ändern, aber der Leistungsbedarf wird generell eher langsam steigen. Außerdem kann man den Rechner dann vielleicht 3-4 Jahre länger nutzen, da er mehr Kerne hat. Mir ist bewusst, dass ich mir das schönrede. Wahrscheinlich bin ich aber traumatisiert von meiner uralten i3 Gurke, die völlig überfordert ist und mir oft die Laune verdirbt. Da wäre es schön einfach mal brachiale Leistung zu haben, auch wenn der 5700G sicherlich auch reichen würde. Beim 5900X ist der Eco Mode interessant. Wenn sich der Strombedarf zum 5700G „nur“ um ungefähr die Grafikkarte unterscheiden würde, dann würde ich die 10W-15W Mehrbedarf durch meine GTX 1050 eventuell in Kauf nehmen. Aber da waren ja noch die Treiber Probleme von Nvidia, von den ich auch schon gehört habe. Es kann sogar sein, dass ich die Probleme auch habe. Aber wenn der ganze Rechner schlecht ist, dann fällt das kaum auf Das spricht dann wieder für den 5700G. Es sei denn ich tausche die GTX1050 gegen eine gleichwertige Radeon...ghecko schrieb:Um einen 5900X in Ableton auszulasten müssen deine Projekte schon gewaltig sein. Ich würde auf den 5700G setzen. Sollte der irgendwann nicht mehr reichen, steht dir die Option nach wie vor offen.
Schlechte Treiber verursachen sporadisch hohe Latenzen, wenn sie mit Interrupts die CPU lahmlegen. DX in Verbindung mit Nvidia sind da meist die Übeltäter. Und neuerdings immer öfter die RGB-Seuche. Mit GPUs von AMD oder Intel hat man solche Probleme weitaus seltener. Ob nun GPU oder iGPU hat damit weniger zu tun.Callejon schrieb:Sind die Latenzen einer iGPU geringer als bei einer GPU?
Von der kommend wird sich alles schnell anfühlen. Du hast gar keine Vorstellung davon, wie schnell schon heutige 8-Kerner sind. Also ich sehe den Sinn in einem 5900X nicht. Noch nicht. Wenn er mal nötig werden sollte, kann man ihn nach wie vor günstig gebraucht schießen und einfach nachrüsten.Callejon schrieb:Wahrscheinlich bin ich aber traumatisiert von meiner uralten i3 Gurke
Also davon ausgehend, dass eine GT1030/RX550, die beide langsamer als die APU sind schon weit über 100€ kosten, finde ich die CPU im Augenblick sogar recht günstig. Klar wird die mit der Zeit irgendwann günstiger, große Preissprünge sind aber noch nicht absehbar. Der Preis ist fair.Callejon schrieb:Geht ihr davon aus, dass die Preise der 5700G fallen werden? Einige User hier finden die CPU ja etwas überteuert.
Nicht wenn du es leise haben willst.Callejon schrieb:Meint ihr beim 5700G kann man mitgelieferten Lüfter verwenden oder lieber austauschen?
Den Kaufpreis empfinde ich persönlich auch als etwas hoch, aber es sind halt aktuell Zeiten, wo Preise mal etwas abweichen. Das mit dem Cache ist primär im Spielen wirklich deutlich, sonst nur selten. Das Fehlen von PCIe 4.0 ist ziemlich egal, wenn eh keine Graka verbaut wird. Bei einer SSD merkst du den Unterschied zwischen 3.0 und 4.0 bestenfalls in Benchmarks, spüren kann man den nicht. Und AV1 nicht in Hardware zu haben, ist wie bereits besprochen ein Luxusproblem. Oft genug wirst du dem Codec gar nicht begegnen, und wenn doch, dann lacht die CPU da drüber. Eigentlich mag ich an dem Teil wirklich nur den Preis nicht, alles andere ist super.Callejon schrieb:Was mir am 5700G nicht gefällt ist, dass es bei 370€ Kaufpreis nur 16MB L3 Cache, kein PCIe 4.0 und kein AV1 gibt.
Der 5900X hat zwei Chiplets, das sind plus 3-4 Watt dafür an Basisaufschlag gegenüber einem 5700G/5800X. In Single-Core-Lasten ist er etwas hungriger, aber dafür auch entsprechend flotter. In Multi-Core-Lasten mit Eco-Mode unschlagbar effizient und dennoch sparsam verglichen mit einem 11700K. Der Aufschlag zu einem 5700G ist tendenziell etwas höher, als du denkst.Callejon schrieb:Wenn sich der Strombedarf zum 5700G „nur“ um ungefähr die Grafikkarte unterscheiden würde, dann würde ich die 10W-15W Mehrbedarf durch meine GTX 1050 eventuell in Kauf nehmen.