Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test GPU-Leistungsaufnahme: Auch Radeon kann auf dem Windows-Desktop sparsam sein
janeeisklar
Lieutenant
- Registriert
- Juni 2014
- Beiträge
- 552
VRR - FreeSync ist default an, sobald VRR (FreeSync) Monitor/e angeschlossen ist/sind. --Macht ja auch sinn so.
Das Radeon User mit FreeSync im Treiber auf an (default!) idR weniger Leistungsaufnahme haben ist aber doch wirklich schon länger bekant, trotzdem schön dass CB das mal so deutlich darstellt.
Das Radeon User mit FreeSync im Treiber auf an (default!) idR weniger Leistungsaufnahme haben ist aber doch wirklich schon länger bekant, trotzdem schön dass CB das mal so deutlich darstellt.
Conqi
Rear Admiral
- Registriert
- Dez. 2011
- Beiträge
- 6.105
Ich hab das mit meiner RX 6900 XT mal kurz durchgetestet. Monitor 1 3440x1440@175Hz mit HDR, Monitor 2 2560x1440@75Hz. Beide unterstützen Freesync.
Mit einem Monitor lande ich zwischen 18 und 20 Watt, mit zwei Monitoren bei 32 bis 33. Freesync an oder aus im Treiber und in Windows hat darauf keine sichtbare Auswirkung. Fenster verschieben bringt in beiden Fällen dann so 2 bis 3 Watt zusätzlich.
Mit einem Monitor lande ich zwischen 18 und 20 Watt, mit zwei Monitoren bei 32 bis 33. Freesync an oder aus im Treiber und in Windows hat darauf keine sichtbare Auswirkung. Fenster verschieben bringt in beiden Fällen dann so 2 bis 3 Watt zusätzlich.
Nightspider
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 970
Ein wichtiger Punkt ist aber auch das bei Teillast der Verbrauch beispielsweise einer 7900XTX deutlich vor einer 4080 liegt.
Crazy_Chris
Lt. Junior Grade
- Registriert
- Apr. 2003
- Beiträge
- 475
Wirklich neu sind die Erkenntnisse jetzt aber nicht. Ähnliches Verhalten hat selbst die 5700XT schon gezeigt.
Tanzmusikus
Fleet Admiral
- Registriert
- Aug. 2010
- Beiträge
- 10.059
Bei meiner RX 5700 XT in Verbindung mit dem LG 34GL750-B @ 2560x1080 ändert sich nichts mit/ohne VRR im OS/Monitor. Es bleibt bei ~9W GPU Chip Power Draw. Beim Fenster-Verschieben sind's ein paar Watt mehr.
Bin aber auch sowieso bei diesem Thema mit meiner Hardware-Konstellation nicht betroffen.
Bin aber auch sowieso bei diesem Thema mit meiner Hardware-Konstellation nicht betroffen.
Gsync/Freesync geht dann nicht mehrC.J. schrieb:
- Gibt es in Spielen fps-Verluste durch den Umweg?
- Gibt es in Spielen zusätzliche Latenz durch den Umweg?
Crazy_Chris
Lt. Junior Grade
- Registriert
- Apr. 2003
- Beiträge
- 475
Was damit quasi schon ein K.O. Kriterium ist.
Sicher? Es gab doch sogar mal den Trick, dass man FreeSync auf Nvidia GPUs bekommen konnte, wenn man das Display-Signal über eine AMD-APU ausgegeben hat, weil diese (im Gegensatz zu Nvidia) sehr wohl FreeSync unterstützt hat.till69 schrieb:Gsync/Freesync geht dann nicht mehr
janeeisklar
Lieutenant
- Registriert
- Juni 2014
- Beiträge
- 552
Natürlich geht FreeSync mit der "AM5-iGPU", zudem kann sie Hybrid-Grafik, wo du den Monitor anschießt ist volkommen egal.
Unter Windows kann man dann festlegen ob Programm XYZ auf der iGPU oder der dGPU "läuft".
Unter Windows kann man dann festlegen ob Programm XYZ auf der iGPU oder der dGPU "läuft".
rentex
Commander
- Registriert
- Juli 2004
- Beiträge
- 2.999
Und das über 7 Monate nach Release der Karten...DeltaPee schrieb:Naja, im nachhinein ist ja man immer schlauer... Wer hätte diese Kombi aus dem stegreif als Ursache vermutet, keiner bisher. Bis eine Redaktion das verhalten beobachtet....
Und warum zum Teufel, hat man bis jetzt zum Benchen keinen Monitor mit VRR genutzt? Auch wenn es keinen Einfluss auf die Ergebnisse hatte, sollte man aktuelles Equipment zum Benchen auf dieser Veröffentlichungsebene nutzen.
Am falschen Ende gespart?
Crazy_Chris
Lt. Junior Grade
- Registriert
- Apr. 2003
- Beiträge
- 475
Naja das muss aber schon verdammt lange her sein da Nvidia das auch seit 2019 unterstützt.C.J. schrieb:Sicher? Es gab doch sogar mal den Trick, dass man FreeSync auf Nvidia GPUs bekommen konnte, wenn man das Display-Signal über eine AMD-APU ausgegeben hat, weil diese (im Gegensatz zu Nvidia) sehr wohl FreeSync unterstützt hat.
Ja, zumindest mit NVidia GPU + Intel iGPUC.J. schrieb:Sicher?
Es geht um Gsync/Freesync bei Anschluss an eine iGPUCrazy_Chris schrieb:da Nvidia das auch seit 2019 unterstützt
JoeDoe2018
Lieutenant
- Registriert
- Sep. 2018
- Beiträge
- 614
Ich selber verwende einen 4K Monitor mit 60Hz und das schöne bei AMD ist das man für jedes Spiel ein Profile anlegen kann. Ich limierte immer die FPS auf 60 und drehe den GPU Takt um 10% runter und die Spannung auch etwa um 10% und dann benötige ich bei einige Spielen nur 45W bei meiner 6800XT MERC 319 Edition und dann kann bleibt die Lüfterdrehzahl bei ca. 750 U/min und ist somit nicht hörbar.
Auf die schnelle habe ich das gefunden: https://www.reddit.com/r/Amd/comments/99yz9h/freesync_on_nvidia_1060_6gb_through_amd_apu/Crazy_Chris schrieb:Naja das muss aber schon verdammt lange her sein da Nvidia das auch seit 2019 unterstützt.
2018, damals noch mit GTX1060 und einer Zen 1 (!) APU. Das Alter ist ja egal, denn wenn es damals schon ging, sollte es auch heute noch möglich sein. Bloß die Praxistauglichkeit müsste man testen, d.h. ob es Schwierigkeiten mit dem Umschalten gibt oder zwei, drei Frames zusätzlich gepuffert werden müssen (= miese Latenz).
Mir geht es spezifisch um AMDtill69 schrieb:Ja, zumindest mit NVidia GPU + Intel iGPU
Es geht um Gsync/Freesync bei Anschluss an eine iGPU
Banned
Admiral
- Registriert
- Sep. 2014
- Beiträge
- 9.735
Highlander87 schrieb:jaja kann was wer aber. Das sollte von Haus aus funktionieren ohne selber Hand anlegen zu müssen. Was für eine Farce.
Sehe ich auch so. Vor allem geht ja keiner, wenn er sich so eine Karte kauft von so absurd hohem Verbrauch bei quasi Nichts aus.
Viele kaufen sich sicherlich so ne Karte, spielen damit, messen den Verbrauch nicht und treiben sich gar nicht auf Computerseiten rum. Die ahnen bis heute nicht, was ihre teure Grafikkarte sich da so genehmigt.
Ein Produkt mit solchen Verbrauchswerten bei quasi keiner Last darf mMn erst gar nicht auf den Markt kommen oder sowas müsste aus Verbraucherschutz-Sicht untersagt sein, wenn es dem Nutzer beim Kauf nicht offen kommuniziert wird. Jeder Kühlschrank hat ein Energielabel, aber bei GPUs ist es völlig egal. Das kann doch nicht sein. Ich fordere somit Energielabel für Computerhardware, die auch was aussagen, also nicht so wie der Energy Star.
- Registriert
- Nov. 2002
- Beiträge
- 8.928
Bei so niedrigen Werten sollte man auch nicht erwarten, dass sich da etwas tut, da scheint der Idle-Power-State ja auch schon zu funktionieren. Das ist eher was für hohe Auflösungen und hohe Bildwiederholfrequenzen.Tanzmusikus schrieb:Bei meiner RX 5700 XT in Verbindung mit dem LG 34GL750-B @ 2560x1080 ändert sich nichts mit/ohne VRR im OS/Monitor. Es bleibt bei ~9W GPU Chip Power Draw. Beim Fenster-Verschieben sind's ein paar Watt mehr.
Bin aber auch sowieso bei diesem Thema mit meiner Hardware-Konstellation nicht betroffen.
Das ist vielleicht für einen Sonderartikel interessant, aber nicht für ein dauerhaftes Testen bei neuen Produkten. Dafür ist das Interesse daran einfach nicht groß genug.xerox_ schrieb:@Wolfgang
Könnt Ihr bitte ein (Standard) Linux in eure Vergleichswerte mit aufnehmen?
Wäre sehr interessant, wie es dort aussieht, im Besonderen die neuen offenen Radeon Treiber.
Als Linux User ist es immer frustrierend, diesbezüglich aussagekräftige Daten im Netz zu finden.
Ähnliche Themen
- Antworten
- 127
- Aufrufe
- 13.356
- Antworten
- 26
- Aufrufe
- 2.141
- Antworten
- 16
- Aufrufe
- 2.599
Leserartikel
Baal auf der Suche nach den Energiefressern im PC
- Antworten
- 99
- Aufrufe
- 20.308