Leerlauf. Desktop ohne alles. Einfach nur anstellen und zuschauen.IntoTheRed schrieb:Was genau ist hier mit Idle gemeint?
Kennt man auch bei Spiele auf Steam, die alleine vor sich hin laufen, ohne dass man selber daddelt.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Leerlauf. Desktop ohne alles. Einfach nur anstellen und zuschauen.IntoTheRed schrieb:Was genau ist hier mit Idle gemeint?
Tausende Euro für einen Computer ausgeben , aber dann im Idle Strom und Geld sparen wollen? Merkste selber, oder?NerdmitHerz schrieb:@Blutschlumpf dem schließe ich mich an, weil:
wie hat sich der stromverbrauch im idle verbessert beim neuen treiber?
weil ich schwanke noch zwischen einer ab werk wassergekühlten rtx 4080 und einer 7900xt(x) (die ich dann selbst auf wakü umbaue)
jedoch sah ich bei CB, dass mit dem letzten treiber 86 Watt bei der 7900xt und 105 bei der 7900xtx ein nogo, bei 1080p240, 1440p240hz und 2x 1080p60hz, wenn ich die monitore auf 60hz im non-gaming-modus setzen müsste damit der stromverbrauch im idle nicht durch die decke wandert. in den pc wo die zukünftige gpu rein soll gibts zwar eh nur gamen oder nicht gamen (pc aus), jedoch hätte ich vorm spielstart gerne einen entspannten stromverbrauch
Egal ob Du mit dem Roller oder mit dem Hubschrauber unterwegs bist, sinnloser Mehrverbrauch dürfte die wenigsten erfreuen.BxBender schrieb:Tausende Euro für einen Computer ausgeben , aber dann im Idle Strom und Geld sparen wollen? Merkste selber, oder?
Taxxor schrieb:Frage mich wo diese Unterschiede dann noch her kommen sollen.
Naxtrumrar schrieb:UHD 120Hz + WQHD 120HZ absolut keine Änderung. Weiterhin 120W im idle!
Nutzt ihr alle Windows 11?guggi4 schrieb:Und dann gibt es noch den exorbitanten Verbrauch bei navi31 von teils 80W+, der nicht rein auf den VRAM Takt beschränkt sein zu scheint.
FreeSync in Benutzung?47x500 schrieb:7900XTX+Dell G3223Q @UHD 144Hz =9Watt laut Treiber und GPU-Z im Idle, das waren bei Release mal 50+Watt.
Bei PCGH haben sie Mausbewegungen zugelassen (evtl. auch getätigt), also nicht nur reiner Idle.BxBender schrieb:Leerlauf. Desktop ohne alles. Einfach nur anstellen und zuschauen.
Besitzt Du eine AMD- oder eine Intel-CPU?og.echnaton schrieb:wenn beide das gleich können und der eine nunmal mehr verbraucht, nehme ich den der "besser" ist
Auf der Liste mit Leistungsaufnahmeviren kommt mausbewegen direkt auf Rang 2 hinter Furmark.Tanzmusikus schrieb:Bei PCGH haben sie Mausbewegungen zugelassen (evtl. auch getätigt), also nicht nur reiner Idle.
Das merkt man ganz schnell wenn man einfach OpenGL (FurMark z.B.) bencht. Da gibt es nur eine bestimmte anzahl an "Cuts" was MHz und auch Verbrauch betrifft. Es gibt dort keine Hysterese...DevPandi schrieb:
LOL warum ging das bei mir ????? WTF.Taurus104 schrieb:AMD Software: Adrenalin Edition 23.3.1 Release Notes
Important Notes
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-23-3-1
- Factory Reset has been temporarily disabled as precautionary measure while we address isolated installation issues that have been reported during PC upgrades.
Boar - für dieses Problem wird es unter Umständen nie eine Lösung geben. Weil es nicht dieses Problem ist. Es sind viele Probleme.Relaxo32 schrieb:Zum anderen, da die Vorgängergeneration einen guten Ruf hinsichtlich ihres Stromverbrauchs hat und diese Probleme, soweit ich weiß, dort nicht existier(t)en.
Die Kritik ist daher, in meinen Augen, valide und es sollte weiterhin erwähnt bleiben (ähnlich wie das DPC Latency Problem bei NVidia), bis es eben eine allumfassende Lösung gibt.
JulianHD schrieb:Aber wenn man eins sagen kann, dann definitiv nicht das AMD bei der Treiberentwicklung faul wäre und nichts voran geht. Vielleicht haben Sie den Fehler gemacht und gehen zu viele Probleme gleichzeitig an, wodurch es sich für den Endkunden so anfühlt als es passiere nichts.
Bist du für CB an der Sache dran? Falls ja OMG - ich hab gehofft das wir jetzt bald mal Butter bei die Fische bekommen...DevPandi schrieb:Und auch da hab ich einen Verdacht, wo das Problem liegen könnte.
Hab Takt und PowerStages bei verschieden Lasten als Daten erfasst.
Das Spoiler ich aber jetzt nicht! Morgen und übermorgen Testmarathon mit der 4090.
Nur das diese Einstellmöglichkeiten am Ende nur die Symptome lindern, aber nicht das Problem beheben oder gar die Ursache verhindern.pilzsammler2002 schrieb:Die Sapphire hatte bei mir die größte Granulare "Einstellmöglichkeit" und war am Ende auch am effizientesten.
Nein, ich hab mir die Tage eine RTX 4090 besorgt, weil ich mit KI als Hobby angefangen habe und dem entsprechend jetzt einen neue Leserintest vorbereite. Ich habe im Zuge dessen auch mal Teillast-Szenarien, Compute-Szenarien aber auch FSR/DLSS mi auf die List egeschrieben und habe dabei einige interessante Beobachtungen gemacht.Novasun schrieb:Bist du für CB an der Sache dran? Falls ja OMG - ich hab gehofft das wir jetzt bald mal Butter bei die Fische bekommen...
BxBender schrieb:Tausende Euro für einen Computer ausgeben , aber dann im Idle Strom und Geld sparen wollen? Merkste selber, oder?
Vielleicht sollte man eher nach seinem Spielverhalten etc. gehen, welche Karte interessanter ist.
Mit den vielleicht 20 Euro Unterschied pro Jahr kannst du so oder so bei den angesetzten Kartenpreisen kein Geld sparen.
Nimm eine Kartenklasse darunter, schon sparst du durch geringere Leistungsaufnahme nicht nur stetig etwas Geld, sondern hast gleichzeitig schon vom Start weg mehr Geld eingespart, als du durch dieses ominöse Stromsparding jemals einsparen könntest.
Am meisten Strom spart man übrigens durch die Kombi AMD X3D und NVidia 4000er.
CPU bis zu 3x so effizient und GPU im Extremfall bei Raytracing auch bis zu 2x so viel FPS pro Watt.
Aber wie gesagt, wer sparen will, muss zu erst einmal Abstand von der extrem teuren Hardware nehmen udn dann vielleicht nur noch für die Hälfte im Mittelfeld was passendes suchen.
Merkste selber, oder?
Falls das deferred Lighting die ROP´s unnötig in die Höhe treibt, könnte man mal Licht+Schatten von Ultra auf High runternehmen.(falls Du in einem speziellen Game das besonders auffällig findest)DevPandi schrieb:Und auch wenn ich es nicht "gerne" zu gebe, aber das Verhalten, so wie ich es fest gestellt habe, untermauert die Gerüchte nach einem Hardware-Issue in der Renderpipeline und ich denke sogar, dass wir die CU hier ggf. sogar rausnehmen können und uns eher die ROPs ansehen müssten.
Es geht bei solchen Tests eher darum, dass man der Architektur auf den Zahn fühlen kann, wie gut die P-States sind und wie effektiv die Grafikkarte damit umgeht und ob dann auch innerhalb der P-States entsprechend der Chip auch skaliert.GerryB schrieb:Ne XTX in FHD@60fps zu vermessen halte ich dagegen für realitätsfern.
Licht, Schatten haben damit wenig zutun. Die ROPs sind „auch“ für das finale Bild zuständig und entsprechend kann hier auch der Grund für die hohe Leistungsaufnahme beim Desktop liegen.GerryB schrieb:Falls das deferred Lighting die ROP´s unnötig in die Höhe treibt, könnte man mal Licht+Schatten von Ultra auf High runternehmen.
Kuck mal bei dem PCGH-User: ... hat ne extra Resi mit CRU erstellt (x)style2k6 schrieb:Monitor: LG OLED 48" @120hz/2160p