News Variable Refreshraten: Trick erlaubt FreeSync-Nutzung mit Nvidia-GPUs

NDschambar schrieb:
Ich glaube, die Anzahl der User, die das Feature nutzen werden, dürfte ziemlich gering bleiben. Wer absolute Highend-GPUs hat, dürfte selten in den Framebereich fallen, bei dem Sync interssant ist. In meinem Fall ist vor allem Neugier und die ziemlich hohe Auflösung der Grund.

Habs extra die Tage nochmal getestet.
Ich brauch bei BF1 und 144 Hz immer noch zwingend V-Sync, selbst bei >200 FPS.

Morgen kommt deshalb meine RX 550 an.
Ergänzung ()

smashen schrieb:
Ist der Trick für AMD nicht viel fataler als für nvidia? So verlieren sie ja ihren aktuell einzigen Vorteil bei dedizierten (Oberklasse-)GPUs, wenn Freesync auch über die APU mit einer dedizierten nvidia-Karte geht. Nvidia verkauft dadurch noch mehr Grafikkarten und dafür weniger GSync-Module, was vermutlich ein ganz guter Deal für sie wäre.

Naja, ich hab ne GTX 1080 TI. Jetzt steck ich mir ne RX 550 daneben um FreeSync zu nutzen.

Wenn mir ne langsamere GPU reichen würde hätte ich direkt zu ner einzelnen AMD Karte gegriffen.
 
  • Gefällt mir
Reaktionen: NDschambar
Ich setze jetzt meine Hoffnung in die Chinesen, dass die eine G-Sync-Freesync-Passthrough-PCIe-Karte rausbringen. Einfallsreich sind die allemal.

Und man würde den US/Taiwanischen Unternehmen Nvidia und AMD eins auswischen :D.

Noch besser wärs natürlich wenn man ein Programm schreiben würde, welches einem Freesync-Monitor vorgaukelt die NV-Graka sei AMD und umgekehrt.
 
  • Gefällt mir
Reaktionen: MeisterOek und derSafran
Nvidia ist KEIN teil des VESA-Standards.

Man kann sich nicht nur die Kirschen raussuchen. Thats not how it works.

Edit: Man kann ja sein Schei** Modul ja trotzdem bewerben mit smootheren Gameplay oder so, kein Problem.
 
Interessant. :)

Das hätte doch was, wenn das altbekannte Master und Slave Prinzip wieder aufleben würde.

Man stelle sich vor, Anwender verbauen zukünftig neben einer RTX 2080 Ti (Master GPU) zusätzlich eine möglichst günstige Radeon RX (Slave GPU), damit der AMD Sklave ihnen den günstigen Weg zu FreeSync ebnet. :D

Skurrile Sache, welche sicherlich schnell gefixt sein wird.

Liebe Grüße
Sven
 
johnyflash schrieb:
Frage mich wie du das beurteilen kannst. Ich denke das wäre durchaus fatal für Nvidia falls das stimmt. Nvidia wird ja nicht nur bei Privaten im Einsatz stehen.

Aber bei Firmen sind die 100€ egal , da G-Sync auch wenn das viele nicht wahrhaben wollen nunmal derzeit noch besser ist , da es bis 30 fps runter gehen kann. die Frage bei G-Sync ist nur ob man bereit ist diese 100€ oder halt 500€ bei den aktuellen Asus zu bezahlen.
Zwar kann man bei AMD am Monitor herumfickeln um mit glück die hz etwas nach unten zu drücken , aber ist halt Lotterie wie weit und ob es geht. Und LFC setzt einen 100hz Monitor vorraus , während G-Sync auch auf 60 hz Arbeitsrechner läuft.

Und g-Sync scheint derzeit noch genug gefragt zu sein , sonst hätte NV es schon eingestampft.
 
Die Agon Serie von AOC greift mit Freesync auch ab 30-144 Hz. Und die gibt es glaube ich schon über 2 Jahre.

Nun kannst du nichtmal mehr behaupten das G-Sync "besser" sei, ist natürlich auch Unfug. G-Sync funktioniert zwar generell bis 30 Hz runter, aber es gab grade zu Beginn genügend Monitore die unter 35-40 Hz Probleme hatten oder flackerten.
 
Schönes Ding jetzt müssen alle nur einen 2400g haben und natürlich einen freesync Monitor dann überlegt sich Nvidia vielleicht kostengunstigen Ersatz zu schaffen. Als dieses überteuerte gsync. Ich besitze selbst einen Moni mit g sync den ich aber deutlich günstiger geschossen habe als er eigentlich war. Dank an die Kundenrückläufer ich Feier euch so kann man gut Geld sparen.
 
@Rhino One

Naja die Rückläufer gibt es teilweise in Massen, da grade viele Panels (z. B. Asus) außerordentlich große Qualitätsschwankungen haben. Hier im Forum gab es ja Leute bei denen erst der vierte gepasst hat. :freak:
 
  • Gefällt mir
Reaktionen: Qonqueror und Rhino One
Aldaric87 schrieb:
@Rhino One

Naja die Rückläufer gibt es teilweise in Massen, da grade viele Panels (z. B. Asus) außerordentlich große Qualitätsschwankungen haben. Hier im Forum gab es ja Leute bei denen erst der vierte gepasst hat. :freak:

Ja das stimmt schon mit der Panellotterie ich hab aber echt Glück gehabt keine toten pixel und keine Lichthöfe ich weiß nicht warum mein Vorbesitzer den zurückgegeben hat vielleicht weil's 21:9 ist?
 
Vitec schrieb:
Und g-Sync scheint derzeit noch genug gefragt zu sein , sonst hätte NV es schon eingestampft.

Das liegt aber kaum daran das G-Sync besser wäre. Stimmt halt auch einfach nicht, es ist bloß strenger reglementiert was natürlich Vor- aber auch Nachteile bringt. Der Grund für den Erfolg von G-Sync ist, dass Kunden schlichtweg keine Wahl haben, ausser den Verzicht. Daran wird auch die Bastellösung mit AMD GPU nicht groß etwas ändern. Wenn NVIDIA überzeugt von der Überlegenheit G-Syncs wäre, würden sie den Markt entscheiden lassen. Aber es ist offensichtlich dass sich dann viele Käufer stattdessen für einen günstigeren Adaptive Sync Monitor entscheiden würden. Und nur G-Sync sperrt den Kunden im NVIDIA Ökosystem ein.

Rhino One schrieb:
Ja das stimmt schon mit der Panellotterie ich hab aber echt Glück gehabt keine toten pixel und keine Lichthöfe ich weiß nicht warum mein Vorbesitzer den zurückgegeben hat vielleicht weil's 21:9 ist?

Fang jetzt bloß nicht an zu grübeln und suchen, sonst findest du noch etwas.. Perfekte Panel gibt es eh nicht.
 
  • Gefällt mir
Reaktionen: MeisterOek, Unnu, Rhino One und eine weitere Person
borizb schrieb:
Na wenn das irgendwann auf jeder Seite im Netz publiziert wird, passiert das mit Sicherheit.

und wie genau soll nvidia das machen in diesem fall? die müssten dazu direkt im amd gpu treiber rumpfuschen, und das wird aus juristischen gründen nicht geschehen, davon darfst du getrost ausgehen.
 
Wenn AMD etwas besseres als die 1030 bringt, würde ich die gerne sofort auswechseln.
Bedingung: niedriger Idleverbrauch, jeweils 1x HDMI 2.0 und DP1.4, möglichst günstig im Einkauf (solang es UHD Videos beschleunigen kann und zwei UHD anstecken kann, ist sie qualifiziert :D)
AMDs Karten sind viel leichter zu handeln unter Linux als dieser Mist mit Nvidias Treibern.
 
Lederjacke ist wahrscheinlich außer sich vor wut das Leute nun doch keinen überteuerten Gsync Müll kaufen müssen :evillol:
 
Biedermeyer schrieb:
heute um 11:47 kam der erste Beitrag, jetzt um 21:07 sinds schon 11 Seiten... *g - ich glaube, was hier jemand schreibt, liest kein Mensch, denn nach dem Fertigstellen, duerften schon wieder 2 weitere Seiten voll sein ;).

AMD scheint einiges richtig zu machen, erst als Mining-Basis, jetzt als Nvidia-Basis - AMDGrakas schlechter? - Wurscht, die werden gekauft und gehen weg wie warme Semmeln...
Hätte vielleicht nicht geschadet, wenn du ein paar davon auch gelesen hättest. Dann wüsstest du vielleicht auch um was es geht.
 
  • Gefällt mir
Reaktionen: derSafran
Conqi schrieb:
SKu schrieb:
Minimü schrieb:
soweit ich weiß geht AS immer noch nicht mit Intel
soll am treiber liegen
TenDance schrieb:
Richtig bitter für nVidia wäre es wenn Intels iGPU Freesync nutzen würde...
"würde"
das gsync modul/fpga ist von altera. die Firma gehört zu Intel ^^
sTOrM41 schrieb:
woran liegts? gabs da einen maulkorb durch nvidia?
die Redaktion wollte sich wohl eher das ganze erstmal näher betrachten und nicht überhastet irgendwelche News raushauen
Anti-Virus schrieb:
Mit dem Geld welches man bei Freesync spart kann man sich noch ein zweitsystem gönnen :D
spart?
es gibt keine freesync monis mit 4k/144hz/hdr
C1996 schrieb:
Und wofür genau brauche ich dann ein 500€ G-Sync Modul mit aktiver Kühlung beim ASUS PG27UQ ?
für die Datenmengen. bin gespannt auf die kosten von freesync2 monis mit den selben stats. die werden auch über 2k gehen.
lynx007 schrieb:
und bei hohen Frames hat man wiederum weniger probleme mit Tearing....
weniger, das mag stimmen. aber BF4 war ein Paradebeispiel für tearing auch bei hohen fps.
durch sync hat man auch 0 ruckeln/stottern. es ist ein flüssiges bild ohne hänger - aber weißt du ja selber ;)
Banned schrieb:
100€? Schön wär's. Meistens sind es eher 200€ aufwärts gegenüber einem ansonsten gleichwertigen Monitor.
+/- 100€ stimmt schon, habs mal aus langeweile verglichen...
Pure Existenz schrieb:
Das schreibe ich immer wieder
wenn es nur Softwareseitig ist - wieso gibt's dann in den Monitoren ein gsync modul?
NDschambar schrieb:
Tatsächlich macht sich der nvidia Treiber in der Standardausführung ziemlich breit mit mehreren Hintergrundprozessen und -diensten (z.B. für ShadowPlay, Gamestream und die Geforce "Experience"). Zudem zwingt nvidia bei der Treiberinstallation die User zum Login mit einem nvidia-Account. Nett und userfreundlich ist definitiv anders.
kann man alles weglassen. ist aber nicht die einzige Software, die sich über die jahre sehr breit macht.
das mit der Anmeldung ist aber wirklich zum kotzen. leider muss man experience installieren, wenn man Videos aufnehmen möchte.
NDschambar schrieb:
Wer absolute Highend-GPUs hat, dürfte selten in den Framebereich fallen, bei dem Sync interssant ist.
ruckeln kannst du in jedem framebereich haben.
 
Zuletzt bearbeitet:
smashen schrieb:
Ist der Trick für AMD nicht viel fataler als für nvidia? So verlieren sie ja ihren aktuell einzigen Vorteil bei dedizierten (Oberklasse-)GPUs, wenn Freesync auch über die APU mit einer dedizierten nvidia-Karte geht. Nvidia verkauft dadurch noch mehr Grafikkarten und dafür weniger GSync-Module, was vermutlich ein ganz guter Deal für sie wäre.
Nö, niemand kauft jetzt deshalb eine Nvidia-Karte, wenn er es nicht ohnehin schon vorgehabt hat. Aber den Monitorkauf kann man sich jetzt zweimal überlegen. Wenns kein gsync wird, dann gehen nvidia die lizenzgebühren für den sinnlosen Skaler flötten. Sicher ein Hunni pro Monitor.
AMD hat dadurch aber potentiell ne APU verkauft, wenns davor vll ein i3 geworden wäre.

Aber ich trau Nvidia keinen Meter. Plötzlich wird es dann wieder nicht mehr gehen nach nem Treiberupdate.
Ergänzung ()

cruse schrieb:
in Rechenzentren gibt es doch auch nur 1 Monitor aber x gpus - würde das dann ebenfalls nicht mehr funktionieren?
Du vergleichst hier Äpfel mit Teetassen.
Die GPUs werden für Berechnungen eingesetzt und nicht für die Bildausgabe. Vollkommen anderer Verwendungszweck. Mit der Bildausgabe haben diese dann überhaupt nichts zu tun. Der Monitor ist auch nicht an den Grafikkarten/Beschleunigerkarten angesteckt, sondern am Mainboard. Wer bittr sollte denn am server so ein rechenmonszer für dje Bildgenerierung nutzen
 
@rg88 habs entfernt ^^
BestinCase schrieb:
[..] befürchte das dies ein Fehler in der Hardware ist, sprich auf GPU Ebene.
[..], aber es ist ein Problem auf Hardware-Ebene.
das ist kein fehler in dem sinne. wie sagt man so schön "clever use of game mechanics" - ein exploit.
hätte jeder von uns schon viel früher drauf kommen können. der reddit poster war halt der erste, der es publik gemacht hat.
ein hoch auf bryf50 !
 
  • Gefällt mir
Reaktionen: Unnu
Shoryuken94 schrieb:
Ich habe auch nicht gesagt, dass ich das mit der 780Ti nutzen möchte. Ein wirkliches Leistungsplus wärenur eine Vega. Aber da passt mir Preis / Leistung nicht so Recht (noch). Ich liebäugel mehr mit einer 1080Ti im Abverkauf oder halt eine RTX Karte wenn die Preise sich da nach Release halbwegs einpendeln.
Du willst dir keine Vega kaufen wegen dem Preis/Leistungsverhältnis, aber denkst über eine 1080 Ti nach obwohl die ein katastrophal schlechteres Preis/Leistungsverhältnis hat? Dein Ernst?
 
Zurück
Oben