News Variable Refreshraten: Trick erlaubt FreeSync-Nutzung mit Nvidia-GPUs

OrtusMalum schrieb:
In der News wird Erwähnt, dass Windows es erlaubt, das Rendern auf die Leistungsstärkere Karte zu legen, während die Bildausgabe von der Leistungsschwächeren Karte übernommen wird um damit Strom zu sparen.

Wieso spart man damit Strom? Die Leistung welche zum Rendern benötigt wird sollte doch gleich bleiben wenn es weiterhin die (z.B.) GTX1060 rechnet. Und ich würde jetzt eigentlich nicht erwarten, dass allein die Bildausgabe so viel am Stromverbrauch ausmacht, dass das von GPU zu GPU so verschieden ist... Oder überseh ich jetzt was?

Das ist schlecht formuliert. Sinn macht diese Vorgehensweise im normalen Desktopbetrieb (Office, Browser usw.), wo die stärkere GPU komplett abgeschaltet werden kann. (in Notebooks seit Jahren Standard)
 
Den Hype um die Sync-Arten versteh ich eh nicht. Hatte mal GSync am laufen, aber eine wirkliche Verbesserung konnte ich subjektiv nur unterhalb von 55 FPS wahrnehmen. Ich spiele generell kaum etwas unterhalb 80 FPS, deshalb für mich vernachlässigbar.
 
NDschambar schrieb:
Mag sein, aber man hätte das dann auch begraben sollen.

Warum? Hat doch Geld gekostet. Außerdem hat man Kontrolle darüber was die Displayhersteller an Material verbauen. Da gibt es keine Überraschungspakete a la FreeSync ja, aber nur von 48 bis 75 Hertz.

NDschambar schrieb:
Sowie AMD mit Mantle die Entwicklung von DX12/Vulcan katalysiert hat.

Mantle gibts aber auch noch. Es soll gerüchteweise sogar weiterentwickelt werden. Kann aber auch ne Verlegenheitsaussage sein, weil man nicht zugeben wollte dass man es auf den Müll wirft.
 
NDschambar schrieb:
Mag sein, aber man hätte das dann auch begraben sollen. Sowie AMD mit Mantle die Entwicklung von DX12/Vulcan katalysiert hat.
G-Sync ist jedoch die bessere Technik. Das ist eben das Ding. Wäre für die Hardcore-Gamer und den ganzen Markt wirklich schade, wenn G-Sync ausstirbt. Das Problem ist einfach, dass FreeSync (was günstig ist) nicht unterstützt wird. Die beste Lösung wäre da, FreeSync für die Holzklasse aller Gaming-Monitore(also standardmäßig) zu unterstützen, die hochpreisigen Monitore, wo 100-200€ dem Käufer nicht wehtun, nutzen G-Sync.
 
gerzerk schrieb:
Den Hype um die Sync-Arten versteh ich eh nicht. Hatte mal GSync am laufen, aber eine wirkliche Verbesserung konnte ich subjektiv nur unterhalb von 55 FPS wahrnehmen. Ich spiele generell kaum etwas unterhalb 80 FPS, deshalb für mich vernachlässigbar.

Free- und G-Sync können (für viele Leute) 4K auf Vega/1080 angenehm spielbar machen. Und ja ich weiß wie jetzt wieder N Leute aus dem Busch springen und heulen ABER DAS GEHT NICHT 60 FPS IST WAS GANZ ANDERES!!!11ELF... Ich hab geschrieben "für viele Leute"^^
 
Ich sag doch schon seit Jahren dass das möglich ist.
NVidia will nur nicht. Deshalb will ich auch kein nVidia. So einfach ist das. Selbst schuld.
 
  • Gefällt mir
Reaktionen: Unnu, AssembIer und Acedia23
timboboy123 schrieb:
Free- und G-Sync können (für viele Leute) 4K auf Vega/1080 angenehm spielbar machen.
Ich spiele sogar nur mit einer R9 380 in 4K. Geht natürlich nicht bei allen Spielen, aber meine Lieblinge laufen ohne Probleme. Und falls mal kurz die fps droppen fängt freesync das wunderbar auf.
 
Zumindest bei der Lösung über die AMD-APU sollte es NVidia nicht gelingen können, das wegzupatchen, weil dies vom Betriebssystem verwaltet wird. Das funktioniert ähnlich wie bei Laptops mit zwei eingebauten Grafikkarten, wo auch die Intel-GPU die NVidia-Grafik streamt. Sollte Intel Freesync irgendwann mal unterstützen sollte das dann auch funktionieren. Dann kann NVidia sich nicht mehr davor schützen.
 
  • Gefällt mir
Reaktionen: AssembIer und bad_sign
yummycandy schrieb:
Woher wissen die das eigentlich?

Weil die detaillierten Spezifikationen beider Prozessoren seit längerem fix sind. Großkunden können durchaus auch einige Samples erhalten haben.
Etwas mehr oder weniger Takt ist allerdings eher unerheblich. Wenn zenvers2 vor allem bei der FMA3 und AVX Leistung keinen deutlichen Schritt nach vorne macht, ist die Entscheidung durchaus nachvollziehbar. Zenvers1 ist bei FMA3 gegenüber Skylake um einen Faktor 2 im Nachteil, gegenüber Skylake-X im Vollausbau (ab 10 Kernen) um einen Faktor 4.
 
NDschambar schrieb:
Also, ich hab mir soeben eine RX550 2GB geschossen. Mal sehen, wie gut das funktioniert. Vermutlich muss ich die 1080Ti auf DSR hochheizen, damit die Framerate in den Freesync-Bereich des Monitors droppt.
Innerhalb der letzten paar Stunden ging der Preis für das Ding um fast 5 € hoch :rolleyes::evillol:
Solange du kein Spiel hast, welches einen die Option gibt welche Graka das Bild berechnet, bleibt dir nur Windowmode und das Bild auf den Freesync Monitor zu schieben. Ich habe auch noch eine RX480 aber die ist bei meine Bruder verbaut :/ Probiert hab ichs noch nie, wobei ich Freesync nie bemerkt habe innerhalb der ein jährigen Laufzeit meiner RX 480.
 
Ich habe einen Freesync Monitor und ich würde die Funktion eigentlich nicht vermissen.... Nice to have... Aber gerade bei Muliplayer möchte man hohe Frames, und bei hohen Frames hat man wiederum weniger probleme mit Tearing....

Adabtive Syncronisation wäre mir weder die 200-300€ für nen G-Sync Monitor wert, aber auch nicht die 100€ für eine Freesync Karte. Noch ein Bauteil im Computer was Temperatur erzeugt und den Airflow stört....

Da würde ich lieber die 150-300€ ersparniss dann bei bei einem Grafikkarten-Neukauf aufaddieren, um dann einfach mit mehr Details auch auf mindestens 143FPS zu kommen. Dann noch nen Framelimiter und 144Hz Monitor. Hat man meiner Meinung nach viel mehr davon. Aber gut das ist auch Geschmackssache.
 
  • Gefällt mir
Reaktionen: bad_sign
surxenberg schrieb:
Auf die Möglichkeit, FreeSync über eine AMD GPU einzubinden.

Okay das ist sehr missverständlich gewesen. Das hätte auch heißen können, dass Nvidia das schon verhindert haben könnte mit einem neuen Treiber.
 
Gab es hier im Forum nicht mal einen Thread, wo der Sinn von Freesync und G-Sync erklärt wird? Gegenüberstellung und in welcher Kombination aus Hz/FPS/Syncrange etc. diese Techniken eingreifen und empfehlenswert sind? Mich interessiert diese fast schon religiöse Diskussion überhaupt nicht, aber die Technik dahinter und wie man sie am besten individuell einsetzen sollte, sehr wohl.
 
PC Perspective hat ein erstes review: https://www.pcper.com/reviews/Graphics-Cards/AMD-FreeSync-Working-NVIDIA-GPUs-Some-Strings-Attached

Offensichtlich funktioniert das nativ momentan nur mit ner AMD APU + diskreter nvidia GPU, da man bei 2 diskreten GPUs die Option zum Umschalten fehlt. Manche Games, wie im Artikel genannt, WoW und FarCry 5 bieten im Grafikmenü eine entsprechende Wahlmöglichkeit.
Es könnte aber vermutlich über einen Registryhack die Möglichkeit zum Umschalten direkt in Windows hinzugefügt werden. Ich werde die 550 erstmal behalten und berichten.

icetom schrieb:
Geht das mit Ubuntu auch?
Linux unterstützt natives Passthrough der Graka, ob dann bei Ausgabe über die AMD-GPU FreeSync geht, kann ich dir aber noch nicht sagen.
Schau dir mal diesen Link an: https://wiki.archlinux.org/index.php/PCI_passthrough_via_OVMF
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cruse
timboboy123 schrieb:
Free- und G-Sync können (für viele Leute) 4K auf Vega/1080 angenehm spielbar machen. Und ja ich weiß wie jetzt wieder N Leute aus dem Busch springen und heulen ABER DAS GEHT NICHT 60 FPS IST WAS GANZ ANDERES!!!11ELF... Ich hab geschrieben "für viele Leute"^^


Mein Reden. Ein Hype bedeutet aber, dass es für alle ein Zugewinn darstellt. 4K Gamer sind aber noch immer eine verschwindend geringe Minderheit.
 
Maliex schrieb:
Okay das ist sehr missverständlich gewesen. Das hätte auch heißen können, dass Nvidia das schon verhindert haben könnte mit einem neuen Treiber.
Bei nVidias History wird das auch nicht lange dauern. nVidia blockiert sogar GPUs in einer virtuellen Maschine.
 
  • Gefällt mir
Reaktionen: Qonqueror
Zurück
Oben