F
flappes
Gast
Ich hoffe die machen endlich mal was mal DUAL-Monitor-Verbrauch, auch wenn das viele nicht betrifft, so ein hoher Verbrauch muss ja nun wirklich nicht sein.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Kannst du erklären warum das ein Problem sein soll?SFFox schrieb:Dass AMD mit dem Memory Chiplets überhaupt so weit kommt überrascht mich positiv. Das Design macht es nicht einfacher VRAM Takt passend zur Pixelzahl und Refresh Rate eines oder gar mehrerer Monitore zu definieren,
Das Problem ist die gestiegene Komplexität. Ich hatte das beim Treiber 23.7.1 schon mal angesprochen und bin näher darauf eingegangen:pacifico schrieb:Kannst du erklären warum das ein Problem sein soll?
Dieser Artikel bezieht sich primär auf erhöhte Leistungsaufnahme im Idle bei Monitoren mit 120 Hz Bildfrequenz oder mehr. Sieht man in den Preisvergleich, dann unterstützen 724 der 765 Geräte in diesem Segment den benötigten VRR-Standard Adaptive Sync, also 94,6%. Die Preise für die Geräte starten bei 113€. Die Realität widerspricht also der Vermutung.TigerherzLXXXVI schrieb:Leider ist VRR nur in den neusten und vermutlich auch höherpreisigen Monitoren zu finden, deswegen können nur die wenigsten Nutzer von diesem speziellen Umstand profitieren.
Das Problem ist, ich hatte mal ein Problem mit einen Adaptive Sync Monitor und der PS5. Im Grafikmenü der Konsole konnte ich kein VRR aktivieren, da der Bildschirm angeblich diese Funktion nicht unterstützt. Ich habe daraus geschlussfolgert, dass VRR und AS nicht dass Gleiche ist.Nixdorf schrieb:Sieht man in den Preisvergleich, dann unterstützen 724 der 765 Geräte in diesem Segment den benötigten VRR-Standard Adaptive Sync, also 94,6%. Die Preise für die Geräte starten bei 113€. Die Realität widerspricht also der Vermutung.
Nein. Die negativen Auswirkungen sind z.B. "kein adaptive sync". Ein erratisches Treiberverhalten hat damit jedoch absolut nichts zu tun.Nixdorf schrieb:Dazu gehören auch Käufer von G-SYNC-Modellen, die den VESA-Standard nicht unterstützen. Wer davon später auf eine Radeon gewechselt ist, der sieht jetzt die negativen Auswirkungen des Vendor-Lock-Ins.
Wie ist es bei 2x 144 statt 165 bzw 1x144+1x165Sky_Sk4p3r schrieb:Also bei meiner 7900XTX mit dem neusten Treiber habe ich einen Idle Verbrauch von ca. 100 Watt mit 1x FHD 165Hz + 1x WQHD 165 Hz. Beide Monitore unterstützen FreeSync Premium Pro, welches im Treiber auch für beide aktiv ist. VRR ist in Windows auch aktiv.
Custom Resolution treiberseitig führt zu "Out of Range" Benachrichtigungen auf den Bildschirmen.
Bei CRU finde ich kein Szenario das meine Monitore schlucken würden. Irgend ein Wert ist immer rot, egal was ich probiere. Vielleicht weiß da jemand weiter?
Ich habe jetzt einfach mal den FHD Monitor an das Mainboard gehangen (7800X3D). Die iGPU nimmt sich 25-30 W im Idle. Vielleicht weiß jemand was man da machen kann?
Die 7900XTX läuft mit dem WQHD Monitor im Idle bei 7W. Das empfinde ich als sehr gut. Macht in Summe irgendwas zwischen 30-35 Watt.
Cooler wäre natürlich, wenn beide Monitore direkt über die Graka betrieben werden könnten und ich zumindest auch auf diesen Durchschnittsverbrauch kommen würde. Vielleicht eines Tages, man wird wohl träumen dürfen.
Das Thema ist kompliziert.TigerherzLXXXVI schrieb:Ich habe daraus geschlussfolgert, dass VRR und AS nicht dass Gleiche ist.
Korrekt, die hohe Leistungsaufnahme ergibt sich derzeit transitiv aus der fehlenden Unterstützung für Adaptive Sync. Für die Zukunft ist natürlich wünschenswert, dass AMD auch für die immer noch betroffenen Monitore eine Lösung nachliefert.ZeusTheGod schrieb:Nein. Die negativen Auswirkungen sind z.B. "kein adaptive sync". Ein erratisches Treiberverhalten hat damit jedoch absolut nichts zu tun.
blackiwid schrieb:Das müsste man dann aber auf VRAM auch übertragen, wenn Karten mit so wenig VRAM aus gestattet sind das sie in 1-2 Jahren Sondermüll werden ist das auch nicht ökologisch (Nvidia).
Ja aber irgendwann landet sie auf dem Müll und wenn man heute eine mit 8gb kauft statt 16 wird sie deutlich schneller auf dem Müll landen.Banned schrieb:Die Aussage mit dem Sondermüll in halte ich für polemischen Unsinn. Meine GPU ist von 2016 und hat 8GB VRAM. Auch damit kann man heutzutage in FullHD noch fast alles Zocken, wenn man die Details etc. runterschraubt. Und niemand schmeißt eine GPU normalerweise einfach weg, die wird verkauft oder verschenkt und jemand mit noch weniger Ansprüchen hat seinen Spaß daran.
Alles an Frequenzen probiert was ging, bin bei keinem Szenario unter 70W Idle gekommen.Cleanor schrieb:Wie ist es bei 2x 144 statt 165 bzw 1x144+1x165
Ich habe schon früh die Beobachtung gemacht, dass meine 7900 nur bei den AMD vorgegebenen Fraquenzen wenig verbraucht. (bei mir 4k@144 wenig Verbrauch, 4k@ 75, 100, 120Hz = viel verbrauch (so dumm das auch ist, da ja weniger gerefreshed wird als bei 144))
Wenig verbrauch = evtl. die richtige Kombination finden. (wobei 35W noch halbwegs gelb sind statt 100)
Was ja im Umkehrschluss bedeuten sollte, dass man möglichst auf Displayport setzen sollte, oder?Nixdorf schrieb:Das Thema ist kompliziert.
Der Begriff VRR (Variable Refresh Rate) ist eigentlich nur der Oberbegriff für alle diesbezüglichen Techniken.
Bei DisplayPort stimmt das auch. Adaptive Sync ist die Bezeichnung für den dazugehörigen VESA-Standard. AMDs FreeSync ist eine Implementierung dieses Standards. NVIDIAs G-SYNC hingegen ist eine proprietäre VRR-Technologie, die zumindest ursprünglich nicht dem VESA-Standard entsprach und mit spezifischen Hardware-Modulen im Monitor umgesetzt wird.
Bei HDMI kam hingegen in HDMI 2.1 ein Feature dazu, welches explizit "VRR" heißt und namentlich mit dem allgemeinen Begriff oben kollidiert. Für die Nutzung von VRR an der PS5 kommt es offenbar darauf an, dass der Monitor oder TV dieses HDMI-Feature unterstützt.