News FreeSync-Monitore zum Jahreswechsel im Handel

Athlonscout schrieb:
@Smith

Wenn du Behauptungen aufstellst, sollte es sich von selbst verstehen, dass du diese Behauptungen spätestens auf Nachfrage mit qualifizierten Quellen belegen kannst. Bis jetzt kann ich das in deinen Beiträgen nicht erkennen. Zudem solltest du dir nochmal deine Posts in diesem Thread durchlesen und dir selbstkritisch die Frage stellen wieviel dein Geschriebenes mit dem Thema (nochmal zur Erinnerung: "FreeSync-Monitore zum Jahreswechsel im Handel") zu tun hat.

In einem Punkt gebe ich dir recht, bin leicht vom Haupt Thema abgekommen ;-) Aber man kann trotzdem in ein Normalen Ton es Schreiben ohne gleich Pampig werden oder Leute mit irgendwas gleich zu betiteln.Sowas macht man nicht. Ich greife in Forums auch kein direkt an oder gebe Pampige Antworten, nur weil es mir nicht passt was er Schreibt oder das er Total falsch liegt.

Davon abgesehen bin ich nicht der einzige der vom Thema abgekommen ist. Gibt genug Leute hier die über was anders Schreiben wie CUDA und so. Dann Bitte die auch belehren :D
mfg
Hier geht es nur um PC Teile. Davon geht die Welt auch nicht unter und man könnte das ganze Lockere sehen.
 
Zuletzt bearbeitet:
@Smith

Warum wunderst du dich, dass ich pampig werde? Du stellst andauernd irgendwelche Thesen auf die nur entfernt mit dem Thema zu tun haben. Wenn man diese richtig stellt oder dich um Quellen bittet, hälst du es nicht mal für nötig darauf einzugehen. Anstattdessen kommen pauschale Aussagen aka "Beide Firmen schenken sich nichts und sind kein Stück besser weder Rot oder Grün! " (Stammtischniveau)
Ich denke auf den letzten Seiten haben viele Boardies zur Genüge ausgeführt, inwieweit sich die Firmenphilosophien grundlegend differieren. Welche "besser" ist, darüber kann man wie aus diversen Posts ersichtlich wird geteilter Meinung sein auch wenn ich manche Ansichten nicht teilen kann.
Zudem habe ich dich mitnichten in irgend einer Art und Weise "betitelt".
 
SuddenDeathStgt schrieb:
GSync Käufer interessiert primär eine gewisse Smoothness, speziell im Low-FPS-Bereich, wobei die eigentlich übergreifend gegeben ist & dank diverse Limiter über Tools, könnte man sogar seine Graka auch noch schonen, welches in Summe natürlich die Effizienz (wieder)steigert ... ;-)
Mal wieder hast du nicht begriffen worum es überhaupt geht.

Stand heute verbrauchen Monitore mit GSync Module über 10% mehr Strom. Das liegt am zusätzlichen GSync Modul, das logischerweise auch eine zusätzlichen Verbrauch verursacht. Allerdings auch dann wenn Kein GSync aktiviert ist.

Und ganz sicher kauft man dann eine GTX980 um sie über Limiter zu schonen und zu drosseln.

Das Problem von Nvidia ist das ihre GPUs das einfach nicht können. Wer das über den Monitor kompensieren möchte der zahlt halt richtig dafür ohne einen Mehrwert. Der einzige Vorteil ist, dass ich aussterbende Technik erhalte bevor sie verschwunden ist. Warum auch immer man das erstrebenswert finden sollte.
 
Und wieder philosophierst Du am Kundenkreis vorbei & das nicht zu knapp!

Stand heute verbrauchen Monitore mit GSync Module über 10% mehr Strom
Wenn man keine (leistungsfähige)AMD CPU verbaut hat, holt man das spielend wieder rein^^ & jaa, selbst 30-40FPS wirken mit GSync noch äußerst smooth & da könnte man wie gesagt lt "deiner Rechnung" ebenfalls noch einsparen.
Unterschiedliche Lasten haben auch einen unterschiedlichen Verbrauch & das auch bei einer Maxwell-GPU ... ;-)
 
daedal will offenbar auch keinen Vergleich G-Sync vs Adaptiv Sync zum Zeitpunkt nach dem Jahreswechsel. Lieber ein Vergleich G-Sync heute vs Adaptive Sync zum Jahreswechsel.

smilefaker schrieb:
Wird zum Jahreswechsel veröffentlicht, was soll die Polemik Future will tell?
Dir passt es nur einfach nicht, das ist das Problem.

AMD orientiert sich an offenen Lösungen.
Was bringt wohl eine offene Lösung, die für bestimmte Hardware von Vorteil ist.

Es ging nicht darum was es leistet, sondern dass es auf einem offenen Standard aufbaut.
Schade, dabei habe ich mich schon gefreut wenn sich AS verbreitet. Also geht es nur darum Firma X ist besser.
 
Daedal schrieb:
In 6 Monaten wird Gsync keinen mehr interessieren, weil alle neu erscheinenden Monitore ASync verbaut haben standardmäßig für diese Zielgruppe.

Da wette ich dagegen. ;)

Selbst wenn schon in 6 Monaten die meisten Gamer-Monitore Adaptive Sync unterstützen würden, werden die halt nur mit AMDs FreeSync einen Mehrwert bieten und das ist dann schon mal allen Leuten mit GPU von Intel oder Nvidia (beide haben einen größeren Marktanteil als AMD) völlig egal. Die allermeisten werden bestimmt nicht nur wegen dieses einen Features auf AMD umsteigen.

Wir müssen mit dem Irrglauben aufräumen, dass FreeSync ein (gar freier) Standard sei, dem sich einfach so mal eben jeder anschließen will oder auch nur kann und der sich deshalb mit Windeseile verbreiten und durchsetzen wird. Diese propritäre Technik wird immer AMD-exklusiv bleiben und monitorseitig kompatible Gegenstücke, die erstmal von Grund auf neu entwickelt und in kommende GPUs und Treiber implentiert werden müssten, was mehrere Jahre dauern würde, plant derzeit auch niemand sonst.
Intel hat nicht genug Fokus auf anspruchsvolles Gaming, um sich für sowas überhaupt zu interessieren, und Nvidia hat schon länger eine eigene, funktionierende Lösung, die genau das selbe tut. (Ob besser, schlechter oder gleich gut wird sich demnächst zeigen, wenn auch FreeSync das Licht der Welt erblickt und ein direkter Vergleich möglich wird.)

Die wahrscheinlichste Zukunftsperspektive ist, dass ausgesprochene Gaming-Monitore mit Adaptive-Sync oder G-Sync am Markt parallel nebeneinander existieren werden. Also Monitore, deren Sync-Funktion mit Nvidia funktioniert (und mit nichts sonst) und Monitore, die mit AMD funktionieren (und nichts sonst). So ungünstig das auch für den Kunden sein mag.
Im besten Fall werden einige besonders noble Gaming-Monitore auch beides gleichzeitig unterstützen.

AMDs Hauptargument für FreeSync ist, dass Adaptive Sync im Monitor günstiger zu implementieren ist. Das mag im Augenblick (G-Sync noch als aufwändiges FPGA implementiert, statt als dedizierte Hardware) auch stimmen, aber die technische Weiterentwicklung und große Stückzahlen werden letztlich sowohl Adaptive Sync- als auch G-Sync-Hardware zu "Centartikeln" werden lassen. Vorausgesetzt, sie setzen sich überhaupt durch.

Und um das klarzustellen: Ich sage nicht, dass G-Sync besser ist, als FreeSync, und sich durchsetzen wird. Ich sage nur, dass FreeSync auch nicht automatisch der Sieger ist oder auch nur konkrete Vorteile bringt, nur weil es auf ein VESA-Feature aufsetzt, das standardisiert ist. Der Anwender hat von dieser Standardisierung herzlich wenig, solange AMD der einzige ist, der dieses Feature nutzt.

Was zählt ist also letztlich nur, welche der beiden herstellerspezifischen Sync-Techniken besser funktioniert und auch, ob sie überhaupt allgemeine Verbreitung finden und nicht beide "Exotenfeatures" bleiben, über die in ein paar Monaten/Jahren keiner mehr redet.
 
Herdware schrieb:
Wir müssen mit dem Irrglauben aufräumen, dass FreeSync ein (gar freier) Standard sei, dem sich einfach so mal eben jeder anschließen will oder auch nur kann und der sich deshalb mit Windeseile verbreiten und durchsetzen wird. Diese propritäre Technik wird immer AMD-exklusiv bleiben und monitorseitig kompatible Gegenstücke, die erstmal von Grund auf neu entwickelt und in kommende GPUs und Treiber implentiert werden müssten, was mehrere Jahre dauern würde, plant derzeit auch niemand sonst.
Wie kann ein freier VESA-Standard für DP mit dem von dir geschriebenen in der selben Realität existieren? Fragt sich wo der Irrglaube vorhanden ist. Was du schreibst widerspricht existierenden Fakten. AdaptiveSync ist ein freier VESA-Standard - heute schon, das muss auch nicht erst irgendwann geschehen - und Freesync wird es gar nicht mehr weiter geben als Markenname vermute ich anhand der Verlautbarung der VESA.
http://www.vesa.org/news/vesa-adds-adaptive-sync-to-popular-displayport-video-standard/
Adaptive-Sync is a proven and widely adopted technology. The technology has been a standard component of VESA’s embedded DisplayPort (eDP™) specification since its initial rollout in 2009. As a result, Adaptive-Sync technology is already incorporated into many of the building block components for displays that rely on eDP for internal video signaling. Newly introduced to the DisplayPort 1.2a specification for external displays, this technology is now formally known as DisplayPort Adaptive-Sync.

Monitorseitig gibt es kompatible Gegenstücke seit 2009 für diese Technik und für Januar sind schon welche angekündigt. Wo war da Nvidia mit ihrer Innovation?

Fakt ist ebenfalls, dass alle Scaler-Hersteller den Standard ab sofort in der neuen Scaler Generation bedienen, und es eher fraglich sein wird ob es überhaut noch Scaler die DP 1.2a/1.3 Standard Unterstützen ohne ASync für Desktopmonitore geben wird. Alle eDP-fähigen Panels haben es ja schon onBoard auch wenn es nicht von den OEM Herstellern aktiviert wurde bisher. Zudem funktioniert ASync nicht nur mit Desktopkarten sondern auch mit AMDs APUs, was für die Video/Media-Fraktion ein riesen Vorteil ist die gegen ständiges ruckeln kämpfen müssen bei so vielen unterschiedlichen 24p Implementierungen - auch hier werden Monitore das unterstützen und es kann gut sein, dass es darüber auf TV überschwappt da diese ja von den selben Scaler Herstellern beliefert werden wie die Monitorhersteller - davon kann GSync ja nur träumen als Zielgruppe.

Zudem hat Nvidia ja schon im Mai gesagt, dass sie jeglichen Industriestandard unterstützen als es in den DP aufgenommen wurde, gaben allerdings zu bedenken, dass sich nicht jeder Standard durchsetzt. Ok stimmt ja. Nur dieser Sync Standard hat ja nicht die Aufgabe sich weiter zu verbreiten als GSync, sondern die Marktsegmentierung zu beenden die geplant war.

Mir ist ehrlich gesagt auch nicht klar wie man sich als Nvidia Käufer wünschen kann, dass eine Funktion die 135,- € Aufpreis kostet, meine Monitorwahl un Anschlußwahl einschränkt und zudem den Stromverbrauch steigert nicht ersetzt wird durch eine kostenlose Lösung die auf allen Monitoren läuft und keinen zusätzlichen Strom verbraucht sondern auch noch spart, wie beim eDP. Durch das zufügen des zusätzlichen GSync Moduls entfallen diese Verbrauchsvorteile.
Ergänzung ()

Selbst wenn es keine ASync Alternative gäbe, wäre der weitere Einsatz von GSync bei den Monitorherstellern eher fraglich. Vor allem wird hier etwas gelöst, das die meisten gar nicht als Problem wahrnehmen, daher existiert auch diese Kaufdruck überhaupt nicht dafür mehr bezahlen zu müssen. UNd wenn dann einer seinem Kollegen im nächsten Jahr erzählt er habe sich den Mega GSync Monitor geholt, dann zockt der Kollege wahrscheinlich schon längst auf seinem Standardmonitor und weiss noch nicht mal dass er das schon lange nutzt. Nvidia versucht das zu einem Kaufargument zu machen während die VESA es allen für umme gibt und die Scaler Hersteller dies gerne ihren Monitor-Kunden als zusätzliches neues besseres Feature für ihre neuen Monitore ohne Aufpreis anbieten, damit die nicht noch einen weiteren Hersteller von Scalern mit ins Boot nehmen - wie Nvidia hier beim Kampf um Marktanteile bei den Monitorherstellern gegen Realtek, MStar und Novatek mithalten will ist ein Rätsel.
https://www.computerbase.de/2014-09/amd-freesync-grundstein-fuer-die-verbreitung-gelegt/
Mit MStar, Novatek und Realtek werden drei große Anbieter Frequenzteiler (Scaler) produzieren, die mit Adaptive-Sync umgehen können, was die Basis für AMD FreeSync bildet.
Welcher Monitor-Hersteller sieht hier noch einen Grund zu Nvidias teurem Scaler zu greifen? Das hat ja nichts mit AMD zu tun. AMD unterstütz lediglich die von Realtek, MStar und Novatek angekündigten neuen Scaler für Monitore - das muss Nvidia natürlich nicht tun, doch in den Monitoren werden diese Scaler verbaut werden ohne darüber nachzudenken welche GPU der Kunde daheim hat. Die GPUs müssen mit den Scalern klar kommen. Natürlich hat Nvidia versucht einen Fuss in die Tür zu bekommen - und hier ist auch klar warum AMD so heftig daran mitgearbeitet hat das zu verhindern. Man will die Marktanteile ja nicht dauerhaft verlieren wenn Monitor-Käüfer versucht werden an einen Hersteller gebunden zu werden.

Darüber sollte jeder Nvidia GPU-Käufer froh sein. Leider werden sie es wohl nie zu schätzen wissen, weil AMD in den News immer mit erwähnt wird.

Und zu den erst in Jahren kommenden Monitoren:
https://www.computerbase.de/2014-11/erste-freesync-monitore-amd-dezember-januar/
Darüber hinaus hat Huddy auch über FreeSync geredet und bekannt gegeben, dass erste Monitore entweder noch im Dezember oder aber „spätestens im Januar“ im Handel erhältlich sein werden. Der für FreeSync benötigte Treiber soll noch im Dezember veröffentlicht werden.

Ein Monitor, der FreeSync auf Basis von Adaptive Sync aus DisplayPort 1.2a grundsätzlich unterstützt, befindet sich laut Huddy bereits im Verkauf.
 
Zuletzt bearbeitet:
Unyu schrieb:
GCN ist keine Eigenschaft. :lol:
Ehm?? Doch!? GCN Architektur.
"AMD FreeSync wird im vollen Umfang nur auf den Modellen Radeon R7 260, Radeon R7 260X, Radeon R9 285, Radeon R9 290 und Radeon R9 290X funktionieren." ->GCN GPUs oder irre ich mich da?

Unyu schrieb:
Liest du überhaupt was du zitierst?
Ja! Das hier:
Unyu schrieb:
Offenbar willst du nicht verstehen. nvidias Ansatz zwingt NICHT zum Kauf einer neuen Grafikkarte, sondern zum Kauf eines bestimmten, heute noch teureren, Monitors.
AMD hingegen zwingt zum Kauf einer kompatiblen Grafikkarte[...]

Was nunmal völlig falsch ist, und ein schönreden von Nvidias G-Sync ist?!
Tip: G-Sync braucht auch Kepler ab 650ti.

Unyu schrieb:
Da du hier AMD in Schutz nimmst bist du wohl der Fanboy. Kleiner Tipp, ein Fanboy kritisiert nicht seine Firma.
Warum findest du es gut, das nvidia nicht auf AS setzt?

Ich nehm nicht AMD in schutz, sonder habe mich über deine Verbreitung von falschen Informationen aufgeregt.
Und zu sagen, dass man für G-Sync KEINE bestimmt GPU braucht ist nunmal alles andere als kritisieren.

Edit: Und wie ich dadruch automatisch gut finde, dass Nvidia nicht auf AS setzt ist mir auch schleierhaft.
Und ich bin sicher kein Fanboy, alleine der bekackte Mausbug geht mir so dermaßen aufn Sack :mad:
Bei jeder großen Firma finde ich genug Sachen die mich stören, deshalb verstehe ich auch nicht wie man Firmen so vergöttern kann wie es einige machen ;)
 
Zuletzt bearbeitet:
Daedal schrieb:
Wie kann ein freier VESA-Standard für DP mit dem von dir geschriebenen in der selben Realität existieren? Fragt sich wo der Irrglaube vorhanden ist. Was du schreibst widerspricht existierenden Fakten. AdaptiveSync ist ein freier VESA-Standard - heute schon, das muss auch nicht erst irgendwann geschehen - und Freesync wird es gar nicht mehr weiter geben als Markenname vermute ich anhand der Verlautbarung der VESA.

Und genau das ist der weit verbreitete Irrtum.

Adaptive Sync und FreeSync sind nicht zwei Namen für ein und die selbe Sache.

Adaptive Sync ist ein VESA-Standard, das stimmt. Aber FreeSync ist etwas ganz anderes. Adaptive Sync wird von FreeSync zur "Kommunikation" mit dem Display genutzt, aber die eigentliche Technologie, mit der die Refreshrate des Displays in Spielen dynamisch mit der gerade aktuellen Framerate der GPU synchronisiert wird, ist eine in der GPU-Hardware und den Grafiktreibern von AMD implementierte, propritäre Technologie. AMD selbst sprach von ihrer "secret sauce", in die sie über Jahre sehr viel Entwicklungsaufwand gesteckt haben.

Adaptive Sync allein tut erstmal gar nichts. Es ermöglicht es, ein zusätzliches Kommando an das Display zu überrtagen, aber dieses Kommando muss auch erstmal sinnvoll genutzt werden. Es kommt komplett auf die GPU und den Treiber an, ob und wofür es genutzt werden kann.
Ältere, noch nicht FreeSync-fähige AMD-GPUs, werden Adaptive Sync z.B. zur Anpassung der Display-Refreshrate bei Videos nutzen. Nicht aber zur hoch dynamsichen Synchronisierung in Spielen.
Und der ursprüngliche Anwendungsfalls von Adaptive Sync, das es in Notebookdisplays schon länger gibt, ist einfach nur zwecks Stromsparen in Idle die Refreshrate zu reduzieren.

Der wesentliche Unterschied zwischen FreeSync und G-Sync ist letztlich, dass AMD es geschafft hat, die gesamte propritäre Technik auf der "Grafikkarten-Seite" des Displayport-Kabels zu bündeln. Dafür war allerdings erstmal eine Erweiterung des bis dahin bestehenden DisplayPort-Standards nötig.

Nvidas Ansatz war anders. Die haben den bis dahin bestehenden DP-Standard als gegeben angenommen und eine Sync-Technologie entwickelt, die mit normalem DP arbeitet, aber sich zwischen GPU-Seite und Display-Seite aufteilt. Das hat den Nachteil, dass G-Sync nur mit einer Kombination aus G-Sync-fähiger Grafikkarte und G-Sync-Monitor funktioniert.
Der Vorteil war aber, dass Nvidia nicht erst warten musste, bis ein neuer DP-Standard definiert ist und dann entsprechende Monitore auf dem Markt sind, sondern in Kooperation mit Monitorherstellern direkt loslegen konnte. Deshalb ist G-Sync schon länger eine existierende und funktionierende Technologie, während FreeSync mangels kompatibler Monitoren noch auf sich warten lässt.

Zudem hat Nvidia ja schon im Mai gesagt, dass sie jeglichen Industriestandard unterstützen als es in den DP aufgenommen wurde, gaben allerdings zu bedenken, dass sich nicht jeder Standard durchsetzt. Ok stimmt ja. Nur dieser Sync Standard hat ja nicht die Aufgabe sich weiter zu verbreiten als GSync, sondern die Marktsegmentierung zu beenden die geplant war.

Ich fürchte, die Segmentierung wird es so oder so geben. Wie gesagt, wäre es nicht einfach nur eine "politische" Entscheidung, ob Nvidia (oder Intel) Adaptive Sync für die Synchronisation in Spielen nutzt oder nicht. Eine entsprechende Technologie müsste erstmal komplett neu entwickelt und in zukünftigen GPUs und Treibern umgesetzt werden. AMD wird dabei nicht helfen wollen oder können. Selbst wenn sie alle Details über ihr FreeSync (Hardware und Software) offenlegen würden, würde das den anderen wenig nutzen, denn es ist ja in AMDs GPUs und Treibern eingebunden, die ganz anders aufgebaut sind und funktionieren, als die von Nvidia oder auch Intel.

Jeder, der eine monitorseitig zu AMDs FreeSync kompatible Lösung entwickeln will, muss erstmal praktisch bei Null neu anfangen.

Mir ist ehrlich gesagt auch nicht klar wie man sich als Nvidia Käufer wünschen kann, dass eine Funktion die 135,- € Aufpreis kostet, meine Monitorwahl un Anschlußwahl einschränkt und zudem den Stromverbrauch steigert nicht ersetzt wird durch eine kostenlose Lösung die auf allen Monitoren läuft und keinen zusätzlichen Strom verbraucht sondern auch noch spart, wie beim eDP. Durch das zufügen des zusätzlichen GSync Moduls entfallen diese Verbrauchsvorteile.

Die derzeitigen hohen Kosten und Stromverbrauch des G-Sync-Moduls ergeben sich aus der (noch) kleinen Stückzahl und dass es immer noch als FPGA umgesetzt ist. Das ist quasi noch Prototypen-Technik, die Nvidia da einsetzt. Nicht für den Massenmarkt optimierte, dedizierte Serienhardware.
Und tatsächlich war das bisher auch gar nicht anders möglich. Die ersten verkauften G-Sync-Module funktionierten zwar weitgehend, waren aber im Prinzip noch Beta-Hardware, die seit dem ständig weiter optimiert werden musste. Die frei programmierbaren FPGAs machten das möglich.
Auf Dauer wird aber garantiert dedizierte Hardware genutzt werden, die viel billiger und auch sparsamer ist. Vorausgesetzt, die Nachfrage nach den entsprechenden Monitoren ist groß genug, dass sich das lohnt.

Vor allem wird hier etwas gelöst, das die meisten gar nicht als Problem wahrnehmen, daher existiert auch diese Kaufdruck überhaupt nicht dafür mehr bezahlen zu müssen.

Das sehe ich auch als größeres Problem, und zwar für beide. Die Vorzüge dieser Synchronisations-Features lassen sich sehr viel schwieriger darstellen, als z.B. hohe durchschnittliche Frameraten. Es ist etwas ähnlich, wie beim Thema Microruckler, für das sich auch erstmal ein Problembewusstsein entwickeln musste.
Es gibt eine relativ kleine Gruppe von anspruchsvollen Gamern, die auch auf sowas achten und die Review-Websites geben sich heutzutage auch wesentlich mehr Mühe, solche über reine Framezahlen hinaus gehenden Problematiken anzusprechen. Aber wie gesagt, das lässt sich nur nur sehr schwer messen, sondern auch nicht mal eben mit einem simplen Balkendiagramm darstellen und damit ist es nicht wirklich fassbar für alle, die sich nicht tiefer mit der Theorie beschäftigen wollen/können und auch nicht die Gelegenheit haben, es sich einmal selbst anzuschauen.

Und obendrein wird es auch noch Menschen geben, die selbst im direkten Vergleich nichts merken werden. Jeder Mensch nimmt so etwas anders wahr. Ist das selbe bei >60FPS oder mehr doer weniger flimmender PWM-Hintergrundbeleuchtung usw. Manche bekommen sofort Augenkrebs, andere bemerken gar nichts davon.

Welcher Monitor-Hersteller sieht hier noch einen Grund zu Nvidias teurem Scaler zu greifen?

Es gibt da draußen um einiges mehr Nvidia-Grafikkarten, als welche von AMD. (Und beide werden von Intel in den Schatten gestellt.)
G-Sync ist ein Feature, mit dem man Nvidia-Kunden ansprechen kann. Von einem Adaptive-Sync-Monitor haben die gar nichts und das wird wie gesagt auch dann noch jahrelang so bleiben, selbst wenn Nvidia sich entschließen sollte, G-Sync einzustampfen und auf Adaptive-Sync aufsetzend nochmal neu anzufangen.

Man will die Marktanteile ja nicht dauerhaft verlieren wenn Monitor-Käüfer versucht werden an einen Hersteller gebunden zu werden.

Darüber sollte jeder Nvidia GPU-Käufer froh sein. Leider werden sie es wohl nie zu schätzen wissen, weil AMD in den News immer mit erwähnt wird.

Wie gesagt, davon, dass Adaptive Sync ein freier Standard ist, hat man solange überhaupt nichts, wie AMD der einzige ist, der ein darauf aufbauendes Sync-Feature nutzt. Es gibt also so oder so eine Bindung an einen einzelnen GPU-Hersteller. Egal ob im Monitor G-Sync oder Adaptive-Sync eingesetzt wird. Der Monitorhersteller hat also, wie der Kunde, die Wahl, ob er dabei auf AMD oder Nvidia setzen will.

Ein denkbarer Ausweg wäre, wenn Monitore beides gleichzeitig unterstützen würden. Da kommt es dann darauf an, wie viel Druck die Monitorhersteller auf Nvidia ausüben können, damit deren propritärer G-Sync-Scaler auch zusätzlich Adaptive-Sync unterstützt. Da es wie gesagt ein freier Standard ist, wäre das grundsätzlich kein Problem, nur wäre es direkt erstmal nicht in Nvidias Interesse, denn damit helfen sie ja (scheinbar) nur ihrem Konkurrenten.
Wenn die Alternative aber so aussieht, dass die Monitorhersteller sagen: "Entweder so oder gar keine G-Sync-Unterstützung", dann könnte Nvidia sich dazu gezwungen sehen. Letztlich haben sie auch ein Inetresse daran, dass sich G-Sync-kompatible Monitore möglichst weit verbreiten. Wenn der Preis dafür ist, dass daneben auch AMDs Konkurrenzfeature unterstützt wird, ist das eine Kröte, die Nvidia schlucken müsste.
 
Zuletzt bearbeitet:
Warum ist es weniger schlimm, wenn man eine GTX 650 hat und G-Sync damit nicht nutzen kann?

Warum ist es eine Frechheit, wenn man eine 7850 hat und damit nicht Adaptive Sync nutzen kann?
 
Herdware schrieb:
Und genau das ist der weit verbreitete Irrtum.

Adaptive Sync und FreeSync sind nicht zwei Namen für ein und die selbe Sache.

Adaptive Sync ist ein VESA-Standard, das stimmt. Aber FreeSync ist etwas ganz anderes.
Und dein Irrtum besteht darin zu denken GSync wäre die Konkurrenz zu Freesync, dabei steht es in Konkurrenz zu AdapticeSync.
Ohne eine Implementierung auf Monitorseite anstatt der schon im Markt bestehenden standardisierten Scaler funktioniert es nicht. Welcher Monitorhersteller sollte das denn tun um dann höheren Stromverbrauch, höhere Preise und eine tatsächlich proprietäre Lösung die nur bestimmte Hersteller-GPUs ansprechen können.

Freesync ist so proprietär wie ein Hardwaretreiber eben ist, das ist ja wohl auch die Natur eines solchen. Wie sollte AMD auch eine Nvidia Implementierung herstellen? Müssen sie das jetzt auch für DX oder OpenCL Nvidia abnehmen? Oder für Videoencoding?

Wie gesagt, davon, dass Adaptive Sync ein freier Standard ist, hat man solange überhaupt nichts, wie AMD der einzige ist, der ein darauf aufbauendes Sync-Feature nutzt. Es gibt also so oder so eine Bindung an einen einzelnen GPU-Hersteller. Egal ob im Monitor G-Sync oder Adaptive-Sync eingesetzt wird. Der Monitorhersteller hat also, wie der Kunde, die Wahl, ob er dabei auf AMD oder Nvidia setzen will.
Ja die Wahl ob der Monitor mit 50% aller im Markt befindlichen GPUs funktioniert oder mit 100% derzeit auf dem Markt vorhandenen GPUs.
  • Gsync-Scaler funktionieren nur mit Displayport Nvidia GPU, VESA-Kompatible Scaler mit allen Anschlüßen und GPUs auch denen von Nvidia.
  • Gsync-Scaler verbrauchen mehr Strom
  • Gsync-Scaler kosten deutlich mehr
  • GSync-Scaler werden nur von Nvidia-GPUs angesprochen, VESA-kompatible von allen am Markt befindlichen. Nvidia hat 14% GPU-Marktanteil, ebenso wie AMD.
  • Es gibt kein einziges zusätzliches Feature, welches der GSync-Scaler hinzufügt gegenüber den VESA-kompatiblen
Hier trifft nicht der GPU Käufer die Entscheidung ob sich das durchsetzen wird oder nicht. Hier entscheidet der Monitor-Hersteller und das hat nichts mit AMDs Hardwaretreibern zu tun.
 
Zuletzt bearbeitet:
Daedal schrieb:
Und dein Irrtum besteht darin zu denken GSync wäre die Konkurrenz zu Freesync, dabei steht es in Konkurrenz zu AdapticeSync.

Nein. G-Sync ist ebenfalls ein "Komplettpaket", genauso wie FreeSync.
Adaptive Sync hingegen ist ein (nur) von FreeSync genutzter "Baustein". Eine standardisierte Untermenge/Basis für FreeSync, die aber allein für sich genommen erstmal gar nichts "kann".
Ein Monitor mit Adaptive Sync an etwas anderem als als den aktuellesten GPUs von AMD mit zukünftigen Treibern verhält sich nicht anders als ein Monitor ohne Adaptive Sync.

Ich versuche es mal mit einem allseits beliebten Auto-Vergleich:

Adaptive Sync ist die Straße. FreeSync ist das "System" aus AMDs Auto, das auf dieser Straße fährt, und der Straße selbst. Nur im Zusammmenspiel befördern sie Personen von A nach B.

Nvidias G-Sync könnte man demgegenüber vielleicht mit sowas wie der Transrapid-Magnetschwebebahn beschreiben. (Jetzt mal außen vor gelassen, dass die ein teurer Flopp war. ;) )
Letztlich tun beide das selbe. Sie bringen Passagiere von A nach B. Aber bei AMDs "Auto-Lösung" liegt das eigentliche, propritäre Know-How komplett nur im Fahrzeug, wobei jedem (Monitorhersteller) erlaubt ist, dafür geeignete, standardisierte (und technisch eher unkomplizierte) Straßen zu bauen.
Bei Nvidias Magnetschwebebahn-System ist hingegen auch die Schiene ein Stück komplizierte und propritäre Nvidia-Technik, in dem sich ein wesentlicher Teil des Antriebssystems befindet und das nicht jeder (Monitorhersteller) beliebig selbst nachbauen kann/darf.

AMD kann jetzt leicht sagen: "Nutzt doch alle die selben freien/standardisierten Straßen, wie unser FreeSync-Auto.", aber Nvidia kann nicht einfach mal eben seinen Transrapid-G-Sync-Zug auf eine Straße stellen. Der würde sich mangels Antriebssystem in der Schiene keinen meter bewegen. Die müssten erstmal neu bei Null anfangen (weil allzuviel von der Zug-Technik sich nicht einfach auf ein Auto ummünzen lässt) und ein eigenes Auto konstruieren, das auch auf den Adaptive-Sync-Straßen fahren kann.

Wie gesagt, bitte bei dem Vergleich nicht darauf herum reiten, dass der Transrapid ein kommerzieller Misserfolg war und wohl auch technisch gesehen "over engineered". In wie weit das auf G-Sync zutreffen wird, bleibt abzuwarten. ;)
Mir geht es bei dem Vergleich nur darum, zu erklären, wie sich FreeSync, Adaptive Sync und G-Sync zueinander verhalten.

Ohne eine Implementierung auf Monitorseite anstatt der schon im Markt bestehenden standardisierten Scaler funktioniert es nicht.

Doch. Es funktioniert. Es gibt jetzt schon G-Sync-Grafikkarten und G-Sync-Monitore die erwiesenermaßen miteinander funktionieren, was man von FreeSync mangels Monitoren noch nicht sagen kann.

Welcher Monitorhersteller sollte das denn tun um dann höheren Stromverbrauch, höhere Preise und eine tatsächlich proprietäre Lösung die nur bestimmte Hersteller-GPUs ansprechen können.

Der spätere Stromverbrauch und Preis bleibt wie gesagt abzuwarten. Wenn man da nur die erste Kleinserien-G-Sync-Module auf FPGA-Basis anschaut, wird man der Sache nicht gerecht.

Und warum sollten Monitorhersteller das unterstützen? Einfach weil das die Lösung der Wahl für alle Kunden mit Nvidia-Grafikkarte ist und das ist kein ganz geringer Teil in der Zielgruppe für High-End-Gaming-Monitore.

Freesync ist so proprietär wie ein Hardwaretreiber eben ist, das ist ja wohl auch die Natur eines solchen. Wie sollte AMD auch eine Nvidia Implementierung herstellen? Müssen sie das jetzt auch für DX oder OpenCL Nvidia abnehmen? Oder für Videoencoding?

Hardwaretreiber und Hardware. Auch die GPU muss FreeSync in Hardware unterstützen, was nur bei neueren AMD-GPUs (GCN) der Fall ist.

Und ja, du hast damit Recht, dass FreeSync sich somit kein bisschen von allen möglichen anderen propritären Features von GPUs und Grafikktreibern unterscheidet und AMD steht in keinerlei Bringschuld, diese von ihnen entwickelte Technik der Konkurrenz zur Verfügung zu stellen und denen so Arbeit abzunehmen. (Abgesehen davon dass Nvidia udn Intel wie gesagt wohl gar nicht so viel damit anfangen könnten, weil deren GPUs und Treiber ganz anders funktionieren als AMDs. Darüber, dass AMD ihnen alle mögliche technsichen Details offenlegt, würden sie sich natürlich trotzdem freuen. ;) )

Das "Free" in FreeSync steht nicht für "Free" wie in Freeware, sondern für dynamisch frei einstellbare Refreshraten (also im Gegensatz zu z.B. festen 60Hz). Es ist genauso ein Stück propriäte AMD-Technik, wie Nvidias G-Sync.

Ja die Wahl ob der Monitor mit 50% aller im Markt befindlichen GPUs funktioniert oder mit 100% derzeit auf dem Markt vorhandenen GPUs.

Die Wahl ist ca. 20% AMD, die man mit Adaptive Sync erreicht, gegenüber ca. 20% Nvidia mit G-Sync und 60% von Intel stehen sowieso ganz außen vor, weil die weder das eine noch das andere Sync-Feature haben.

[*]Gsync-Scaler funktionieren nur mit Displayport Nvidia GPU, VESA-Kompatible Scaler mit allen Anschlüßen und GPUs auch denen von Nvidia.

Wenn du mit "funktionieren" die normale Grafikausgabe meinst, dann funktionieren an G-Sync-Monitoren selbstverständlich auch AMD- und Intel-GPUs. Das ist schließlich standardkonformes DisplayPort 1.2. Nur das zusätzliche G-Sync-Feature geht halt nur mit entsprechenden Nvidia-Karten und Treibern.

[*]Gsync-Scaler verbrauchen mehr Strom

Stichwort FPGA.

[*]Gsync-Scaler kosten deutlich mehr

Nochmal: FPGA und noch geringe Stückzahl. Preise und Verbrauch muss man sich nochmal anschauen, wenn für große Serien dedizierte Hardware eingesetzt wird.
Zugegebernermaßen hat AMD aber erstmal einen gewissen Startvorteil durch die zunächst wesentlich niedrigeren Kosten. Aber den brauchen sie auch dringend, denn Nvidia ist schon Monate vor ihnen gestartet und muss erstmal wieder eingeholt werden.

[*]GSync-Scaler werden nur von Nvidia-GPUs angesprochen, VESA-kompatible von allen am Markt befindlichen. Nvidia hat 14% GPU-Marktanteil, ebenso wie AMD.

Siehe oben. Der Displayport-Anschluss an G-Sync-Monitoren ist natürlich ebenfalls VESA-konform (+G-Sync-Erweiterung), nur (nach derzeitigem Stand) halt ohne Adaptive Sync, so dass FreeSync nicht damit funktioniert.

[*]Es gibt kein einziges zusätzliches Feature, welches der GSync-Scaler hinzufügt gegenüber den VESA-kompatiblen

Kein standardisiertes zusätzliches Feature, ganz genau. Und deshalb ist er auch zu allen Grafikkarten mit Displayportausgang voll kompatibel. Die merken gar nichts von G-Sync.

Wobei es natürlich nicht besonders clever wäre, sich erst einen teureren G-Sync-Monitor anzuschaffen, den aber dann an einer Grafikkarte ohne G-Sync zu benutzen. Möglich ist das aber ohne weiteres.

Hier trifft nicht der GPU Käufer die Entscheidung ob sich das durchsetzen wird oder nicht. Hier entscheidet der Monitor-Hersteller und das hat nichts mit AMDs Hardwaretreibern zu tun.

Wie gesagt, warum sollten alle Monitorhersteller statt dessen AMD den Vorzug gegenüber Nvidia geben?
Schließlich ist Nvidia ein sehr wichtiger Mitspieler im Markt der Gamer-Hardware. Eher noch etwas wichtiger, als AMD, deren meisten verkaufte GPUs in APUs stecken und eher nicht die erste Wahl für anspruchsvollere Spieler sind, die man mit diesen Monitoren ansprechen will.

Wobei es für die Monitorhersteller (und Kunden) natürlich der Idealzustand wäre, wenn ihre Monitore die Sync-Features beider Hersteller gleichermaßen unterstützen würden. Dafür reicht aber weder Adaptive Sync noch G-Sync allein, sondern sie bräuchten beides gleichzeitig.
 
Zuletzt bearbeitet:
Damit meine beiden Fragen nicht untergehen.
Warum ist es unbedeutend, wenn man eine GTX 650 Ti hat und G-Sync damit nicht nutzen kann?

Warum ist es schlimm, wenn man eine HD 7790 hat und damit nicht Adaptive Sync nutzen kann?


Noch eine weitere Frage.
Welche Vorteile habe ich mit einem G-Sync Monitor, außer G-Sync, wenn ich weder HDMI noch DVI noch VGA Anschlüsse habe?
 
Zuletzt bearbeitet:
Herdware schrieb:
Nein. G-Sync ist ebenfalls ein "Komplettpaket", genauso wie FreeSync.
Adaptive Sync hingegen ist ein (nur) von FreeSync genutzter "Baustein".
Alleine darauf basierend ist alles was du darauf folgend geschrieben hast falsch.

Freesync hat nichts mit den schon seit 2009 im Handel erhältlichen eDP Geräten zu tun die ebenso AdaptiveSync enthalten weil es in den Scalern vorhanden ist. Freesync wird für Laptops oder Videoausgabe nicht gebraucht. Ebenso nicht dafür in Laptops Strom zu sparen. Die Trennung die du oben selber so vehement beschrieben hast gelingt dir einfach selber nicht in deiner Argumentation.

Diese Löcher in der Logik werden auch in jedem anderen Punkt deutlich den du näher beschrieben hast.
 
Herdware schrieb:
Nein. G-Sync ist ebenfalls ein "Komplettpaket", genauso wie FreeSync.
Adaptive Sync hingegen ist ein (nur) von FreeSync genutzter "Baustein".

Ja und dieser Baustein, der in einem Standard verewigt ist, macht das ganze zur einer offenen Lösung.
Du kannst den Grafikkartenherstellern nicht vorwerfen, ihre Hardware und Software innerhalb der gekapselten Grafikkarte für sich zu nutzen.
Auf Adaptive Sync baut das ganze doch auf.

Achtung Spekulation:

Nvidia hat die Pläne von AMD gestohlen ( bzw Mitarbeiter) und ist deswegen mit einem FPGA vor AMD diese Technologie zu implementieren, während AMD das schon in Bonaire ( HD 7790 ) integriert hat.
Offenbar ist die Nvidialösung deswegen nicht gekapselt, weil Nvidia schlicht zu wenig Zeit hatte.
 
Zuletzt bearbeitet:
Dai6oro schrieb:

Danke schön :)

Dann bin ich mal gespannt ob es wirklich so kommt wie es dort behauptet wird.
Oder ob der Herr Huddy sich auch dort "mißverständlich ausgedrückt" hat.

Denn wie schon einige erwähnt haben bedeuete SDK eigentlich nur dann man sich an vorhandene Software "anhängen" kann, bzw. diese Software über definierte Schnittstellen erweitern kann. So wie beim Game Modding z.B.
Zugriff auf die Kernsoftware bekommt man mit einem solchen SDK in der Regel nicht.
 
Ich finde das jetzt nicht so schlimm, wenn ich mich im Augenblick auf Nvidia GPU's festlege und dementsprechend meine Hardware Updates plane. Gibt ja genauso Leute, die sich auf AMD GPU's festlegen.

Wenn die irgendwann kommenden Testberichte feststellen, dass FreeSync das selbe Resultat bietet wie G-Sync bei weniger kosten und weniger Stromverbrauch, dann ärgert es mich schon, wenn NVidia kein Adaptive Sync nutzt und etwas in die GPU bastelt. Das heißt aber doch nicht, dass ich wegen FreeSync jetzt wieder AMD GPU's kaufe.

Klar kostet ein G-Sync Modul im Monitor mehr Geld. Wie sieht das denn bei AMD aus, die ja Zeit und Geld investiert haben um FreeSync zu entwickeln? Verschenken die das oder kommen die Kosten mit etwas Gewinn über den GPU Preis wieder rein? Wenn AMD das verschenkt, dann wundert es mich nicht, wenn die irgendwann Pleite gehen. Jedem dem an AMD etwas liegt sollte doch auch gerne bereit sein für einen Mehrwert auch einen Mehrpreis zu zahlen.
 
Herdware schrieb:
Die Wahl ist ca. 20% AMD, die man mit Adaptive Sync erreicht, gegenüber ca. 20% Nvidia mit G-Sync und 60% von Intel stehen sowieso ganz außen vor, weil die weder das eine noch das andere Sync-Feature haben.

Ich weiss ja nicht was du sonst noch mit dem Monitor machst ausser GSync. Aber Fakt ist dass ein GSync Monitor auf lediglich 50% der GPUs die du bei Geizhals heute kaufen kannst ein Bild anzeigen kann um dein BIOS, Windows oder was auch immer auf dem PC darzustellen. Bei Scalern mit ASync sind das 100% aller GPUs. Inkls. Intel und Nvidia - auch der Nvidia Karten die auf einem Gsync Monitor kein Bild ausgeben können. Sogar lediglich weniger als die Hälfte alle Nvidia Desktop-Karten kann mit GSync Monitoren ein Bild darstellen. Und nur die neueren können dann darauf noch GSync aktivieren.

100% aller Grafikkarten die im Handel erhältlich sind können ein Bild ausgeben auf Scalern die den VESA-Standard nutzen inkl. AMD, Intel und Nvidia. Wie viel davon dann auch ASync nutzen können mag in den Sternen stehen, doch zumindest geht alles andere.

Welcher Monitor-Hersteller verbaut solch einen Scaler freiwillig? Geschweige denn bezahlt dann noch Geld dafür?
 
Daedal schrieb:
Aber Fakt ist dass ein GSync Monitor auf lediglich 50% der GPUs die du bei Geizhals heute kaufen kannst ein Bild anzeigen kann um dein BIOS, Windows oder was auch immer auf dem PC darzustellen.

Kannst du diesen "Fakt" belegen?

Davon lese ich das allererste mal. Nach allem was ich weiß, ist der bei G-Sync genutzte Anschluss einfach nur standardkonformes DP 1.2. Oben drauf kommt das propritäre G-Sync-Feature, das man nur mit einer G-Sync-fähigen Grafikkarte nutzen kann, aber der normale Betrieb klappt selbstverständlich auch mit jeder anderen Grafikkarte.

Das ist doch gerade einer der wesentlichen Unterschiede zwischen Nvidias und AMDs Ansätzen. Nvidia setzt bei G-Sync auf das schon existierende DisplayPort 1.2. Damit trotzdem ein dynamisches Synchronisieren zwischen GPU und Display funktioniert, obwohl es keine direkte Möglichkeit gibt, dass die GPU mit dem Display die Refreshrate kontinuierlich aushandelt, musste Nvidia einen Teil der "Intelligenz" in den Monitor verfrachten. Der Monitor "wartet" im G-Sync-Betrieb quasi auf jedes Bild, das von der Grafikkarte rüber kommt, und passt seine Refreshzeiten selbstständig entsprechend an.

Bei FreeSync ist das anders herum. Da steckt die ganze "Intelligenz" in GPU und Treibern. Über Adaptive Sync teilt die Grafikkarte dem Monitor ständig mit, welche Refreshrate gerade anzuwenden ist (VBLANK). Das hat den Vorteil, dass auf der Monitorseite keine sonstige, propritäre Zusatzhardware nötig ist.
Von Nvidias Seite gab es dazu Aussagen, dass es möglicherweise Einfluss auf die Performance und/oder Latenzen haben könnte, wenn die GPU und der Treiber (die CPU) die ganze Arbeit leisten müssen, während G-Sync weitgehend transparent funktioniert. Ob da etwas dran ist, werden wir wissen, wenn wir die beiden Methoden direkt vergleichen können.
 
Herdware schrieb:
Kannst du diesen "Fakt" belegen?

Davon lese ich das allererste mal.
Nun das liegt wohl daran, dass du diesen Thread nicht gelesen hast. Das habe ich hier einige Seiten vorher exakt auf den Punkt vorgerechnet inkl. Belege. Das gilt auch für vieles anderes das du hier schreibst zu dem Thema. Da ein GSync-Scaler ausschließlich mit Displayport funktioniert, ist dieser Anschluß zwingend. 2/3 aller Nvidia Grafikkarten haben diesen nicht und 1/3 aller AMD Grafikkarten haben den nicht und es existieren lediglich 33 Mainboard für Intels aktuellen Sockel, sowie 5 für AMDs FM2+ Sockel die einen DP verbaut haben für die iGPU (Quelle geizhals).

Monitore mit VESA-Scaler können jedoch jeden gewünschten anderen Monitoranschluß anbinden. HDMI, VGA, DVI - whatever.

Also warum soll ein Monitor Hersteller den GSync-Scaler verbauen um somit die anschließbaren System A) auf Displayport zu beschränken und B) für eine Funktion die nur mit 14% der Marktes laufen (Nvidia) wovon auch nur 1/3 (-> ca. 5% des Marktes) überhaupt den richtigen Port verbaut haben, und davon auch noch einige älter sind als DP 1.2 das für GSync Mindestvoraussetzung ist. Und von denen das Thema vielleicht 1% überhaupt wichtig ist.

Der GSync Scaler im Monitor funktioniert mit 5% der im Umlauf befindlichen Systeme und ich rede von der einfachen Bildausgabe. Jetzt rechne dir aus wie hoch noch der Anteil ist der Zocker-Zielgruppe dafür und setz das in Relation zu den höheren Kosten die Nvidia für ihr Modul verlangt. Na so blöd müsste jemand sein bei einem Hersteller. Mit dem D.P 1.3 Standard wurde GSync beerdigt von den Monitor-Herstellern.

Übrigens ist in DP 1.3 das Tuneling über HDMI 2.0 definiert - hier müsste mal recherchiert werden ob darüber auch AdaptiveSync möglich ist - damit wäre das auf einen Schlag auch für die Konsolen nutzbar und TV-Hersteller hätten ein neues Feature für 24p Cineasten und auch für Zocker.
 
Zuletzt bearbeitet:
Zurück
Oben