News Variable Refreshraten: Trick erlaubt FreeSync-Nutzung mit Nvidia-GPUs

Umgekehrt sollte das genauso funktionieren. Also dass eine AMD-Karte berechnet, aber eine NVIDIA-GPU sich um die Monitor-Ausgabe kümmert und damit GSync unterstützt.

Das wesentliche Problem ist die Endsynchronisation, nicht die Schritte dazwischen.

Ich sehe hier nicht die große Entdeckung oder Enthüllung.

Besonders wäre ein Treiberhack der FreeSync auf der NVIDIA-GPU direkt ermöglicht.
 
  • Gefällt mir
Reaktionen: elwu und NDschambar
Verstehe noch immer nicht wieso Standards unterdrückt werden dürfen, hier sollte eine Regierung aktiv werden, manchmal ist es einfach von Nöten. Das sagt ein 1080ti Nutzer. Selbst der neuste Treiber fixt nicht das Gsync Prroblem im Fenstermodus, WOW wird damit teilweise unspielbar auf DX12.
 
@Tronx Das Problem ist, dass es selten nur einen Standard gibt. Bei Adaptive Sync haben wir (bisher) den Fall, da wäre das also möglich, aber was wäre, wenn sich das HDMI Konsortium gegen Adaptive Sync entschieden hätte und nen eigenen Standard verabschiedet hätte? Wären dann alle gezwungen, beide zu unterstützen? In vielen anderen Bereichen sieht es diesbezüglich ja noch bedeutend schlimmer aus und "der eine Standard" existiert schlicht nicht.
 
Herdware schrieb:
So wie es jetzt ist, könnte das für eine große Nachfrage nach kleinen, preiswerten AMD-Karten sorgen. :D

Oder eben APUs von AMD, welche bei der kommenden 7nm APU-Generation bei dann evt. 8 Kernen schon sehr verlockend sein könnten :).
 
Inxession schrieb:
Der Gsync Monitor wird als TRUE geschaltet, der Fsync Monitor, ohne verifizierten Treiber wird als FALSE nicht unterstützt.
Ah, ok. Jetzt habe ich verstanden.
In diesem Fall würden sie allerdings alle Monitore _ohne_ Gsych abschalten.
Da müssen sie schon etwas mehr Arbeit investieren. Also, dass bspw. diese Abschaltung nur greift, sobal ein Spiel auf der dedizierten GPU läuft.
Das allerdings kann ich mir vorstellen.
So wird es wohl kommen.
 
cruse schrieb:
der reddit poster war halt der erste, der es publik gemacht hat.
ein hoch auf bryf50 !

Schonmal auf die Idee gekommen das genau dieser Reddit Post dafür sorgen wird das Nvidia davon erfährt und Maßnahmen einleitet ? *Facepalm. :rolleyes:
 
Biedermeyer schrieb:
heute um 11:47 kam der erste Beitrag, jetzt um 21:07 sinds schon 11 Seiten... *g - ich glaube, was hier jemand schreibt, liest kein Mensch, denn nach dem Fertigstellen, duerften schon wieder 2 weitere Seiten voll sein ;).

Doch! Tatsächlich, ich :freaky:
 
@Mracpad : Ja, ich habe vor allem gefragt, was nVidia daran hindern sollte, diese Umgehung zu blockieren.
Darauf hin hast Du ein Beispiel gebracht, bei dem ich mich Frage wie das Funktionieren soll.
Wir sind also in der Diskussion fortgeschritten.

@Inxession hat ja ein schönes Beispiel gebracht wie nVidia diesen Trick recht schnell unterbinden kann.
Mit etwas mehr Aufwand, kann dann auf einer APU / nVidia-GPU Kombi wunderbar gearbeitet werden, Fenster verschoben etc. Nur wenn ein Spiel gespielt wird, dann wird explizit ein G-Synch-Monitor verlangt, sofern einer angeschlossen ist. Oder die Karte muss direkt mit einem GS-Monitor verbunden sein.

Die finden da schon Mittel und Wege, dass technisch zu lösen.

Und wieso ist das Wettbewerbswidrig, wenn sie eine "Beschränkung" in ihre Karte einbauen?
Falsch. Eigentlich sorgen sie dafür, dass eine bereits vorhandene Beschränkung auch wirklich greift.
Wenn Sie das klar kommunizieren, dann ist das unproblematisch.

Und wenn die dann die APUs für's Gaming ausschalten (was ja Sinn und Zweck solcher Geräte ist), dann kann man ihnen daraus auch keinen Strick drehen.
... ich muss mal gucken was man da so finden kann, wenn es wirklich so viele von gibt. Ist ja spannend. :)
Ergänzung ()

Wadenbeisser schrieb:
Moooment....unterstützt Intel bei ihren IGPs adaptive Sync/Freesync?
Wenn ja dann würde es doch bedeuten dass man es mit Windows 10 auch mit der IGP von Intel hinbekommen würde?
Es ist angekündigt, soweit ich weiß.
Und ja, dann sollte das damit auch funktionieren. Gleiches Prinzip.
 
@Unnu
Wenn Intel das im Treiber einpflegt könnte das eine ernsthafte Alternative für die Spieler sein denn gerade die für Spieler relevanten Modelle haben ja eine IGP mit drin. Die Geforce wird dann nur noch zum Beschleuniger degradiert.

2 Ansatzpunkt zur Blockade gibt es aber bereits heute denn soweit ich weiss lässt sich deren Einstellungsmenü nicht öffnen wenn an der Karte kein Monitor hängt und in dem Fall könnte auch die PhysX Beschleunigung blockiert werden.
 
Augen1337 schrieb:
Herzlichen Glückwunsch an alle mit einen G-Sync Monitor 😄

Das ist die Verarsche pur.

Warum? Ich betreibe seit 1 1/2 Jahren einen 165Hz G-Sync WQHL-Monitor an GTX1070 und bin sehr zufrieden. Davon abgesehen, dass die im Artikel beschriebene Umgehungsmöglichkeit erst seit kurzem bekannt ist, ich also 1 1/2 Jahre auf flüssige Framrates mit einem FS-Monitor hätte verzichten müssen, müsste ich auch zusätzlich zu diesem Monitor in eine (wenngleich einfache) AMD-Graka investieren.

Unter Strich: keine Verarsche. Kein Markenfanboygeschwätz. Alles gut.
 
Vitche schrieb:
....Über die Systemeinstellungen können Nutzer das Rendern auf die „High Performance GPU“ schieben, während das Bild weiterhin über die „Power Saving GPU“ ausgegeben wird. Solch ein Modus wird zum Strom sparen oft in Notebooks verwendet, die neben einer integrierten GPU auch eine dedizierte Grafikeinheit zum Spielen haben. ...
Das ist natürlich eine wunderschöne Funktion, um Freesync nutzen zu können oder Strom zu sparen. Es ärgert mich bei meiner GTX 980TI immer schon, dass die Karte für Office und beim Surfen aktiviert wird, anstatt stromsparend die Grafikkarte zu nutzen.

Dann hoffe ich jetzt nur noch, dass es mit Zen 2 einen Ryzen 7 3700G geben wird. Dann erspart man sich die 500,-€ für ein G-sync Modul bei neuen 144Hz 4K Monitoren.

Apropos, kann man zum Stromsparen auch mit einer Intel CPU den Monitor an die CPU anschließen und nur im Fall des Fall die Grafikkarte automatisch von Windows aktivieren lassen?

elwu schrieb:
Warum? Ich betreibe seit 1 1/2 Jahren einen 165Hz G-Sync WQHL-Monitor an GTX1070 und bin sehr zufrieden.
Meine Meinung ist zwie gespalten. Das Bild beim Spielen ist wirklich gut und war die ca. 100,-€ Mehrkosten für den WQHD Monitor wert. Aber es gibt immer wieder ärgerliche Bildfehler, wie einen ca. 2mm breiten Balken, der in der Mittel ausgeschnitten und am linken Rand eingeführt wird, sowie probleme beim zurück gehen auf den Desktop nach dem Spielen. In deinen Fällen hilft einzig ein Neustart. Das nervt. Aber das Biild ist trotzdem sehr gut und der sehr weite Nutzungsbereich bis unter 30FPS sehr hilfreich.

Sehe ich aber 500,-€ mehr bei aktuellen Monitoren, kann ich nur noch schmunzeln.

Valto schrieb:
Tatsache.... hab zu meiner 980 TI ne RX 560 dazu gesellt. Funktioniert, geil. :daumen: (WoW)
Eigentlich müsste doch eine RX 550 ausreichen. Damit hat die Karte richtigen Sinn bekommen
 
Zuletzt bearbeitet von einem Moderator:
Vitec schrieb:
Aber bei Firmen sind die 100€ egal , da G-Sync auch wenn das viele nicht wahrhaben wollen nunmal derzeit noch besser ist , da es bis 30 fps runter gehen kann. die Frage bei G-Sync ist nur ob man bereit ist diese 100€ oder halt 500€ bei den aktuellen Asus zu bezahlen.

Ist sowas von egal, wenn du drops auf 30FPS von 60 hast hilft auch kein Sync es wird eklig aussehen.
Desweiteren geht mein Async Monitor auf 32 Runter....
Fehlt nurnoch eine Passive 1 Slot GPU die FreeSync supportet, und die Hoffnung das NV keinen "bugFix" rausdrückt...:lol:
 
Mal ne blöde Frage, könnte ich bei mir den Monitor, an den Onbaord Intel GPU dranhängen, und dann das Bild von der Nvidia Karte sehen? Das würde mir unter Linux wunderbar weiterhelfen und ich müsste nicht immer am Monitor den Input umschalten. Da das Kabel immer am Intelgpu dran hängt. Sozusagen 3D von der Nvidia Karte, 2d von der Nvidia Karte?
 
@cruse

Hmm, also G-Sync Monitore mit VA-Panel und 144Hz gehen bei über 400€ (für die vernünftigen eher 500€) los.

Ohne G-Sync bei 200€ (24 und 27").

Das Ganze mit IPS statt VA, sind wir bei 600€ gegenüber 400-500€.

Die Preisdifferenzen sind auf jeden Fall erheblich, da das Angebot für G-Sync klein ist.

Mag sein, dass die Differenz bei TN kleiner ist, aber sowas würde ich mir eh nicht kaufen (schon gar nicht für so viel Kohle).
 
Don Sanchez schrieb:
Du willst dir keine Vega kaufen wegen dem Preis/Leistungsverhältnis, aber denkst über eine 1080 Ti nach obwohl die ein katastrophal schlechteres Preis/Leistungsverhältnis hat? Dein Ernst?
Im Abverkauf, Mal sehen was da passiert. Die günstigste 1080ti kostet gerade 599€, die günstigste Vega 64 520€. So viel schlechter finde ich das nun nicht. Wenn die nächsten Wochen da noch mehr geht...
 
rg88 schrieb:
Nö, niemand kauft jetzt deshalb eine Nvidia-Karte, wenn er es nicht ohnehin schon vorgehabt hat.

Also ich hab nen Freesync-Monitor und sehe mich eigentlich nur deswegen gezwungen, ne Radeon zu kaufen. Wenn es permanent auch mit der APU gehen würde, würde ich sofort ne Nvidia kaufen.
 
Shoryuken94 schrieb:
Im Abverkauf, Mal sehen was da passiert. Die günstigste 1080ti kostet gerade 599€, die günstigste Vega 64 520€. So viel schlechter finde ich das nun nicht. Wenn die nächsten Wochen da noch mehr geht...
Ein Model von einem Händler, nicht lieferbar... das wird bestimmt nichts für 600€. Das günstigste normale 1080 Ti Angebot geht ab 656€ los, mit Standardkühler. Mit Custom Kühler ist man dann bei 690€.

Die 520€ von der Vega 64 sind hingegen ein "echter" Preis, lieferbar von mehreren Händlern, mit Custom Kühler.
Also 520€ vs. 690€.

Wenn Nvidia die Preise senkt wird wahrscheinlich auch AMD runter gehen.
 
Zuletzt bearbeitet:
Don Sanchez schrieb:
Wenn Nvidia die Preise senkt wird wahrscheinlich auch AMD runter gehen.
Dann wird Vega zumindest interessanter. Wie gesagt mir ist die Marke egal, aber da würde mir ne 1080 mit 11GB und der Leistung mehr zusagen... Macht den Kohl auch nicht fett und in vielen Spielen ist sie schon ein gutes Stück fixer, aber das geht am Thema vorbei. Warum immer diese "Warum kaufst du dir keine amd" Diskussion. Das ist doch hier nicht das Thema.
 
Zurück
Oben