News Zehn FreeSync-Monitore machen den Anfang

der Unzensierte schrieb:
Na, dann warten wir doch mal auf die ersten Vergleichstests G-Sync vs. Freesync mit käuflich erwerbbarer hardware hier auf CB. Bis dahin ist zumindest der Monitorkauf aufgeschoben. Ich fände es allerdings besser NV würde sich von diesem proprietären Gedöns verabschieden. Hab keine Lust mich mit dem Monitorkauf an einen GPU-Hersteller zu binden.

Laut techpowerup http://www.techpowerup.com/205656/n...ve-sync-tech-to-rake-in-g-sync-royalties.html ist NV mit der aktuellen Generation nicht in der Lage Freesync zu bedienen, der dazu notwendige Display Port 1.2a ist nicht vorhanden, nur Display Port 1.2.
+1 zum ersten Teil.

Zu dem was Techpowerup hier gern mal schreibt - wage ich aber mal zu bezweifeln. Sie behaupten es liegt an DP1.2a das nVidia nicht hat - aber - großer Trommelwirbel: AMD hat auch kein DP1.2a (alle Modelle bei AMD sind auch Monate vor Veröffentlichung der Spec rausgekommen). Nunja, Vesa hat erst auf bitten von AMD Adaptive Sync in den Standard optional aufgenommen (1.2a besteht aber nicht nur daraus), wurde also wohl schon lange überlegt. Und es wäre nicht das erste mal, dass AMD mit etwas überrascht, dass nVidia nicht kann.

Ich würde hier aber wirklich abwarten ob das der Fall ist. DP1.2a ist GPU-Seitig was die HW betrifft sicher nicht nötig. Es liegt eher in der Software, ev. aber auch der Firmware. Darüber wird grad andernorts heftig diskutiert und ich stimme dem Post zu. Grade die Firmware könnte ein Indiz sein warum nur manche AMD GPU's vollen Support bekommen und nVidia sich noch so bedeckt hält. Andererseits sind entsprechende Monitore noch nicht auf dem Markt und auch nVidia hat es drauf Infos genau dann wenn benötigt rauszuhauen und nicht früher. Also mal abwarten.
(Falls jetzt jemand meint, dass nVidia das einfach per Firmwareupdate nachbringen kann - nun sie können die Änderung an die GPU-Hersteller weiterleiten aber letztendlich muss jeder Hersteller das eig. selbst rausbringen. Zudem übernimmt niemand die Haftung bei einem GPU-Firmware-Update - erst recht wenn man meint das einer anderen GPU zu verwenden (weil die ja beide Referenzdesign sind - aber es braucht nur eine kleine undokumentierte Änderung geben .... - also nicht Risikolos))

Palmdale schrieb:
Es ist schön, wie alle auf Nvidia eintreten. Doch sollte man nicht vergessen, dass dieses "Schauspiel" auch umgekehrt auf einem anderen Schauplatz stattfand.
.....
Welche Lösung sich durchsetzt und wie sich der Markt entwickelt, keine Ahnung. Auf Nvidia einseitig und populistisch rum zuhacken ist der richtungsweisenden Technologie mehr als entwürdigend. Manche sehen börsennotierte Halbleiterhersteller echt wie einen Eishockeyclub -.-
+1 du sagst es.

SavageSkull schrieb:
Niemand muss hier irgendetwas. AdaptivSync ist freiwillige Option im 1.2a Standard. Weder ein Monitor mit 1.2a DP noch eine Grafiklösung mit 1.2a muss auf Basis von AdaptivSync eine Lösung wie AMDs FreeSync oder Nvidias G-Sync bringen.
FreeSync ist übrigens auch nur eine proprietäre Lösung. Und das man für die Technik andere Hardware braucht (nämlich einen besonderen Scaler) macht AdaptivSync auch nicht "kostenlos" wie AMD Jünger das gerne sehen würden. Das Nvidia Modul ist wahrscheinlich auch nichts anderes als genau dieser Scaler. ....
Abzuwarten ist dann ob es sich so entwickelt dass auf lange Sicht die nicht AdaptiveSync fähigen Monitore aussterben oder ob der Geiz-ist-Geil Kunde den Markt bestimmt und es bei schrottigen 100€ Monitoren im ich-bin-blöd-Markt ohne AdaptivSync Funktion bleiben wird.
Richtig, es ist ein optionaler Teil des 1.2a Standards. Wie manche hier behaupten dass nVidia sich nicht an Standards hält ist einfach falsch. Selbst wenn es ein verpflichtender Teil ist - könnte nVidia theor. erstmal bei dp1.2 bleiben, würden sie aber denke ich nicht machen. Davon abgesehen ist noch gar nicht klar ob nVidia den Standard beherrscht und nur per Treiber was ähnliches wie FreeSync aufziehen könnte. Ja Freesync ist propritär, muss ja auch nicht offen liegen. Auf Scaler & Co ist ja schon PiPaPa eingegangen.
Bez. der "langen Sicht" ich denke schon, dass es Einzug erhalten wird. Es sind ja nur mal die ersten Entwicklungskosten die jetzt bei nem neuen Kauf-anregenden Feature sicher zu ein wenig höheren Preisen führen. Sind die mal drin und gibt es für Adaptive Sync Frameworks & Co wird das ganze bei der Herstellung insgesamt kaum mehr Einfluss haben. Das ganze natürlich nur bei Monitoren mit DP - es gibt ja auch jetzt genug ohne.

PiPaPa schrieb:
.... Daher sind Entwicklungskosten für den Scaler kein Argument im Gegensatz zum G-Sync Modul.

@Pappschuber
Es ist ein offener VESA Standard den jedes Mitglied der VESA kostenlos ohne Lizenzgebühren nutzen kann - sollte also nvidia keine Unterstützung bieten, so musst du den schwarzen Peter bei nvidia suchen, welche lieber ihre proprietäre Sch.... durchpressen wollen, und sich gegen einen Standard stellen.
Wie man auf solche Firmen als Konsument reagieren sollte, muss jeder für sich selber entscheiden. Aber sie wollen schließlich dein Geld, also sollte man genau da ansetzen.
Und du meinst für das Projekt Freesync reicht es wenn man mal iwo so nen Scaler einbaut und es ist gut? Hier ist schon noch was beim Monitor zu tun und es wäre ne echte Überraschung wenn das umsonst käme (zumindest bis die Entwicklungskosten hier wieder eingespielt sind). Sicher wird es nicht so ein großer Aufpreis sein wie zu G-Sync (bei dem es auch Entwicklungskosten - sogar sicher größere gab auf denen sei dem zu erwartenden Absatz wohl sitzen bleiben), aber du tust so als wäre das gar nichts.

Wenn sich Freesync durchsetzt (was zu erwarten ist, unabhängig davon ob es qualitativ gleichwertig ist, einfach weil günstiger) werden sie es schon unterstützen - es würde mich aber auch nicht wundern wenn vl. erst mit nächster Generation (selbst wenn es jetzt bereits machbar ist). Und da ist nichts dabei - nVidia wollte ja Urspünglich den gleichen Weg wie AMD gehen - das hat aber laut nV nicht so gut funktioniert wie jetzt G-Sync. Also kann man durchaus mal versuchen das zu pushen (die Frage ist eig. nur wann hier welche Management-Entscheidung getroffen wird). Immer dieser Shitstorm weil man sich jetzt was wünscht das nun mal Zeit braucht ....

XCPTNL schrieb:
Ui der BenQ könnte nice sein, wenn er tatsächlich kein TN Panel hat. Bin mal gespannt. Dann bitte noch eine Variante mit G-Sync davon :)
Die G-Sync Variante wird es wohl nie geben. Es sollte ja eig. der XL2720G kommen - der wurde aber offenbar (aufgrund von Problem und/oder?) zu Gunsten dieses Modells aufgegeben.
 
SavageSkull schrieb:
Warum immer alle die Preise auf den Materialwert von einem Bauteil beschränken...
Der Scaler plant sich von alleine in den Monitor und als neues Bauteil sind seine Entwicklungskosten auch schon lange bezahlt? etc..
Peter Nixeus (vom gleichnamigen Monitorhersteller) hat auf overclock.net bestätigt, dass der auf der Computex eingesetzte Demo-Monitor ein Nixeus VUE-27D war. Also ein Gerät welches sich bereits auf dem Markt befindet, und wo nur die Firmware angepasst wurde. Im gleichen Thread hat er auch AMDs Angaben bestätigt, dass die Demo tatsächlich variable refresh gezeigt hat und nicht wie von manchen behauptet eine feste Wiederholrate.

Peter Nixeus schrieb:
The one at Computex was a real Freesync Demo with variable refresh rates - which journalists who have seen it in person can verify that Freesync is real and working.

Wenn man also mit null zusätzlichen Hardwarekosten schon FreeSync machen kann mit Monitoren, die ursprünglich gar nicht dafür gebaut worden sind, dann kann ich mir nicht vorstellen, dass das auf einmal so teuer sein soll.

SavageSkull schrieb:
Ich will damit Nvidia gar nicht in Schutz nehmen, aber wenn ich mir hier manche Kommentare durchlese wird mir echt schlecht.
Ich fand die NVidia Forumtrolle um einiges übler, vor allem die, die AMD der Lüge in Bezug auf die Computex-Demo bezichtigt hatten.

Palmdale schrieb:
Das ist - mit Verlaub - Quark. Klar gibt es kein exklusives Mantle Spiel, wie es auch kein exklusives G-Sync Spiel gibt. DX geht immer, Mantle bei AMD Karte und Unterstützung im Spiel. Normaler Monitorbetrieb geht immer, G-Sync bei Nvidia Karte und Unterstützung durch Monitor :rolleyes:
noxon schrieb:
Du kannst aber trotzdem mit deiner AMD Karte einen G-Sync Monitor betreiben. Du musst dann halt nur auf das Sync Feature verzichten. Damit hast du die gleiche Situation wie mit deinem DirectX/Mantle Vergleich.
Wie gesagt, Mantle bringt ein paar fps. Was variable refresh angeht, drückt es dieses Zitat ganz gut aus:
Palmdale schrieb:
Es macht halt schon einen drastischen Unterschied.
 
engineer123 schrieb:
Was nützt mir ein OFFENER Standard, wenn er nur halb so gut ist wie die geschlossene Konkurrenz?!?

Wenn du treuer Nvidia-Käufer (GPU+Monitor) bist: Herzlich wenig. Außer, dass Nvidia nun mit mehr Dampf optimieren wird, was dir wieder zugute kommt.

Ansonsten einiges, denn Freesync gibts GPU-seitig gratis (für Käufer bis runter zur 260X, für diese Video-Framerate-Geschichte afaik auch ältere, bei Intel bin ich nicht informiert), in Sachen Monitor-Zusatzkosten können wir uns in nem Jahr nochmal unterhalten. Genug Leuten ist die G-Sync-Geschichte nicht so viel wert, als dass sie einen derartigen Monitor kaufen würden und ggf. ihre Grafikkarte passend dazu wechseln. Mit Adaptive Sync bekommen die dann die "halb so gut" funktionierende Lösung Vendorlock-frei für schmales Geld bei ihrem nächsten Monitorkauf dazu. Und wie schon bemerkt wurde: Nvidia ist kein Monopolist, es gibt mehr Leute, die KEINE Nvidia-Grafik haben, als welche, die eine solche Karte nutzen. All diesen Leuten kann die Standardisierung von Adaptive Sync künftig nützen. Und seis nur bei der Wiedergabe von Videomaterial mit amerikanisch-krummen 23.976 fps.
 
NVidia-Käufer haben auch natürlich auch etwas davon. Die bisher recht happigen Aufpreise für G-Sync werden sicher unter Druck geraten, so dass man günstiger an G-Sync-Monitore kommen kann.
 
Kartenlehrling schrieb:
Das glaube ich nicht, der HD7790 ist zwar auch als Bonaire bezeichend,
aber er hat genauso wie die anderen HD7xxx nur 2xACE und ich glaube für Gaming-Freesync brauchen sie mehr,
die neuen Grafikkarten haben davon 8x.
Woher hast du den Unsinn aufgeschnappt?
Das denkst du/behauptest du schließlich nicht zum ersten mal.
Irgendwo musst du ja den Quatsch gelesen haben.
 
Naja ich finde die Überschrift nicht passend, es ist nicht "nur" AMD es ist die Komplette VESA minus NVIDIA natürlich. Jeder kann es Theoretisch übernehmen, dank DP 1.2a. Aber AMD macht natürlich feintuning.

PS: Ich erinnere mich vor Einem Jahr, als in den ganzen Foren MANTLE Thema war, dann die Kiddies so, Ja Nivea wird AMD MANTLE mit G SYNC plattmachen :D Äpfel und Birnen.
 
tm0975 schrieb:
genau mein gedanke. der BenQ XL2730Z springt mich direkt an und möchte bleiben.:evillol:

Oh ja :D
Wobei mich ein 21:9er auch reizen würde :/
Ergänzung ()

blackiwid schrieb:
Versteh nicht so ganz warum hier so viel ueber amd geredet wird. Ja vielleicht hatten sie mit der etnwicklung von dp 1.2a einiges zu tun, aber in wirklichkeit ists doch in erster linie nvidia vs intel... dann kommt lange nix dann noch amd und vielleicht noch andere.

Das arugment koennte sein das man mit intel maschinenen eh nicht spielen kann, das halte ich fuer sehr falsch, wenn ich mir die gpu leistung von den 2 konsolen an schaue ist da intel in nem 1.5 jahren sicher auch so weit und viele leute spielen mit intel boxen, einfach weil sie so scheiss verbreitet sind, ich zock mit meinem x220 thinkpad (sandy bridge) hin und wieder xonotic, viele werden mit auch minecraft und aehnliches zocken...

Weil sich AMD für die Implementierung in den VESA Standard eingesetzt hat und der erste Hersteller ist, der dafür die Treiber angepasst hat.

Die GPU-Leistung der APUs von AMD ist ein ganzes Stück höher. Bis Intel auf den Leistungsstand von AMD heute kommt, ist AMD sowohl in der GPU- als auch ein wenig in der CPU-Entwicklung weiter als jetzt.
 
DaBzzz schrieb:
Ansonsten einiges, denn Freesync gibts GPU-seitig gratis (für Käufer bis runter zur 260X, für diese Video-Framerate-Geschichte afaik auch ältere, bei Intel bin ich nicht informiert), in Sachen Monitor-Zusatzkosten können wir uns in nem Jahr nochmal unterhalten.

Ich würde nicht sagen gratis. Irgendwo muss AMD das Geld, das sie in die Entwicklung von Freesync gesteckt haben und weiterhin stecken, auch wieder reinholen. Ohne Freesync wäre diese Entwicklungsarbeit in andere Bereiche geflossen (z.B. noch schnellere Weiterentwicklung von Mantle oder generell andere Optimierungen an GPU und Treiber) und/oder die Grafikarten wären inzwischen noch etwas günstiger.

Und wie schon bemerkt wurde: Nvidia ist kein Monopolist, es gibt mehr Leute, die KEINE Nvidia-Grafik haben, als welche, die eine solche Karte nutzen. All diesen Leuten kann die Standardisierung von Adaptive Sync künftig nützen.

Unter den Gaming-GPUs hat Nivida schon noch den größten Marktanteil und genau darauf zielen diese Features ja. Insgesamt führt natürlich Intel den GPU-Markt an, aber ich fürchte, die haben wenig bis gar kein Interesse an mit Freesync und G-Sync vergleichbaren Technologien, einfach weil anspruchsvolleres Gaming nicht im Fokus von Intel liegt. Selbst wenn Intel die Prioritäten neu setzen würde, müssten sie für einen Einstieg in die gehobene Gaming-Liga erstmal ganz andere Herausforderungen schultern. Vor allem was rohe GPU-Leistung angeht. Das hat Intel schon ein paar mal versucht, ist aber immer auf die Nase gefallen bzw. hat schon im Vorfeld aufgegeben.

Für Intel-GPU-Besitzer wird Adaptive Sync, VESA-Standard hin oder her, wohl ein Feature des (Desktop-)Monitors bleiben, das einfach ungenutzt brach liegt.
Saubere 23.976 fps klappen ja bei den aktuellen Intel-GPUs inzwischen auch so, ganz ohne speziellen Monitor (und bei AMD und Nvidia sowieso schon lange).

Was Freesync gegen G-Sync angeht, freue ich mich auf den Wettbewerb in diesem Bereich, den AMD und Nvidia sich in den nächsten Monaten und hoffentlich Jahren liefern werden. Erste Vergleichstest werden demnächst zeigen, wo die beiden Lösungen ihre Stärken und Schwächen haben und beide Seiten werden sich bemühen, das zu optimieren. So wird z.B. der G-Sync-Aufpreis zukünftig sicher deutlich niedriger werden. Davon kann jeder Kunde nur profitieren.

Den für den Kunden optimalen Fall, dass Nvidia G-Sync ganz aufgibt und nochmal was eigenes neues bringt, was auf standardisierte Adaptive Sync aufsetzt und damit monitorseitig zu AMDs Freesync kompatibel ist, halte ich für sehr unwahrscheinlich. Der Aufwand und die Kosten wären für Nvidia zu groß und sie würden so oder so erstmal um viele Monate, vielleicht Jahre zurückgeworfen, wenn sie nochmal fast bei Null anfangen müssten. Das wäre nichts anderes als eine Kapitulation gegenüber der Konkurrenz.
Eher würde Nvidia G-Sync (falls es floppt) ersatzlos einstampfen und sich in einem anderen Bereich mit einem ganz neuen Feature versuchen.

Es ist ja nicht so, als müsse man einfach nur dem lizenzfreien VESA-Standard Adaptive Sync nutzen und schon hätte man dynamisch synchronisierte Refreshraten in Spielen. Die eigentliche Arbeit steckt in der GPU- und treiberseitigen Umsetzung. Die ist sowohl bei Freesync als auch bei G-Sync alles andere als trivial. Nicht umsonst liegen auch bei AMD so viele Monate zwischen der ersten Ankündigung und Demonstration von Freesync, und der Markteinführung (nach der es garantiert auch noch lange weiter gehen wird, mit weiteren Optimierungen).

Wir müssen uns also damit abfinden, dass wir auf absehbare Zeit auf der einen Seite AMD mit Freesync und auf der anderen Seite Nvidia mit G-Sync haben werden. (Und Intel ist ganz außen vor.) Wer so ein Feature nutzen will, legt sich bei der Anschaffung von Grafikkarte und Monitor auf eine Seite fest und muss dann dabei bleiben, bzw. beiden austauschen, wenn er wechselt.

Das beste, was ich mir vorstellen könnte, wäre dass Nvidia in zukünftigen G-Sync-Scalern zusätzlich auch Adaptive Sync unterstützt. Das ist nicht ganz so unwahrscheinlich, wie es auf den ersten blick scheint. Schließlich haben die Monitorhersteller auch ein Wörtchen mitzureden und auch Nvidia und G-Sync könnte es helfen, wenn sich so insgesamt mehr G-Sync-kompatible Monitore verbreiten.
 
Bei dieser Diskussion sieht man schön, wer Fanboy welcher Marke ist und sie bis aufs Blut verteidigt.

Beide Systeme haben Vor- und Nachteile. Der Hauptnachteil von Nvidia sind der teure Chip und die Lizenzkosten, denn Nvidia lässt sich ihre Entwicklung versilbern. Schon daher wird sie wohl sonst niemand in seiner Grafiklösung einsetzen.

AdaptiveSync, oder FreeSync steht jedem Grafikkartenanbieter ohne jegliche Lizenzgebühr zur Verfügung und ist Standars bei Displayport 1.2, dessen Spezifikationen festgeschrieben sind.

Dass es angeblich AMD-only ist liegt in der Hauptsache daran, dass Intel sich bislang für Nichts entschieden hat und es im Großen und Ganzen nur noch zwei Anbieter gibt, Nvidia und AMD. Und Adaptive-Synch einzusetzen wäre das Eingeständnis, dass man die Sache auch wesentlich billiger hätte haben können und das Ende der Lizenzgebühren für GSync, weil dann keiner mehr die teuren Monitore kaufen würde.

Im Übrigen: Es hindert Niemand Nvidia daran Mantle einzusetzen. Die API ist da, sie müsste nur angepasst und genutzt werden
 
BernardSheyan schrieb:
Im Übrigen: Es hindert Niemand Nvidia daran Mantle einzusetzen. Die API ist da, sie müsste nur angepasst und genutzt werden
Es hindert auch niemanden AMD daran einen CUDA Compiler für ihre GCN Architektur zu schreiben. CUDA ist vollkommen Open Source und damit wäre es letztendich auch kein Problem PhysX auf AMD Karten zu implementieren.

Theoretisch ist also alles möglich. Praktisch ist das aber unrealistisch, weil natürlich niemand etwas bei sich implementieren möchte worüber er selbst nicht die Kontrolle hat.
Meinst du nVidia möchte eine API implemnentieren, die von AMD jederzeit geändert werden kann und zudem auf nVidia Karten noch suboptimal läuft?

Jetzt hört doch endlich mit dem dämlichen Argument auf nVidia könnte auch Mantle implementieren, wenn sie wollten.
 
Kartenlehrling schrieb:
Das glaube ich nicht, der HD7790 ist zwar auch als Bonaire bezeichend,
aber er hat genauso wie die anderen HD7xxx nur 2xACE und ich glaube für Gaming-Freesync brauchen sie mehr,
die neuen Grafikkarten haben davon 8x.

https://pics.computerbase.de/4/8/2/3/5/2-1080.4237614602.jpg
HD7790
https://pics.computerbase.de/5/9/6/4/4/7-1080.2299042336.png
R9285

Hi

Der einzige Unterschied zur 260er ist die Taktung, ansonsten alles gleich.
(Also was anderes ist mir halt nicht bekannt.)
Die Frage ist ob AMD die 7790er mit einbezieht.

Gruss Labberlippe
 
Nur weil Cuda OpenSource ist, bedeutet es nicht das jeder auch einfach Treiber etc dafür schreiben darf.
Man muss bei nvidia sich die Erlaubnis holen als kommerziell agierendes Unternehmen.
Nvidia wird wohl kaum einer Softwareschmiede , bsp Videobearbeitung, die Lizenz verweigern. Der Hardware Konkurrenz aber schon.
Ich glaube Daedal hatte dazu bereits mehrfach Links präsentiert.
Nur weil man also Code einsehen kann, bedeutet es bei Open Source nicht das man lustig wie man will es auch nutzen darf.
 
Wunderbar. Schon 75 Hz bei den LGs sind eine Genugtuung im Vergleich zu 60 Hz. :)
Ergänzung ()

Labberlippe schrieb:
Hi

Der einzige Unterschied zur 260er ist die Taktung, ansonsten alles gleich.
(Also was anderes ist mir halt nicht bekannt.)
Die Frage ist ob AMD die 7790er mit einbezieht.

Gruss Labberlippe

Bin mir nicht mehr sicher, ob alles gleich ist. Wenn ich mich richtig erinnere, gab es diese Diskussion bei planet3dnow bereits um die Audio-Funktionen des Chips, die der 260er Serie vorenthalten blieben. Ich finde das Ausschließen der 7790 allerdings schade, gleichwohl es anscheinend minimale Änderungen am Chip gab.
 
BernardSheyan schrieb:
Und Adaptive-Synch einzusetzen wäre das Eingeständnis, dass man die Sache auch wesentlich billiger hätte haben können und das Ende der Lizenzgebühren für GSync, weil dann keiner mehr die teuren Monitore kaufen würde.

Der Hauptgrund dürfte wie gesagt sein, dass Nvidia beim nachträglichen Umsatteln auf Adaptive Sync ja erstmal gar keine mit G-Sync vergleichbare Lösung mehr hätte. Die müssten sie erstmal ganz neu entwickeln und quasi bei Null anfangen. Sie würden viele Monate Zeit verlieren. Wie viel Know How, das in G-Sync steckt, mal eben auf eine ganz neue, auf Adaptive Sync aufsetzende Lösung übertragbar wäre, ist zumindest fraglich.
AMD wird ihnen dabei wohl kaum helfen und aus dem Freesync-Nähkästchen plaudern. Selbst wenn sie das wollten, würde wohl auch nicht viel bringen, denn Freesync ist ja auf AMDs GPUs und Treiber zugeschnitten und damit verschmolzen, die grundlegend anders arbeiten, als die von Nvidia (oder Intel).

Dass Nvidia nicht auch von Anfang an auf Adaptive Sync gesetzt hat, wird verschiedene Gründe haben.

Zunächstmal hat Nvidia einfach mit dem gearbeitet, was zu dem Zeitpunkt da war. DP bis 1.2 bietet keine Möglichkeit für dynamische Refreshanpassung. Also hat Nvidia sich entschlossen, das auf eigene Faust mittels propritärer Erweiterung auf der Monitorseite zu ergänzen. Der Vorteil gegenüber dem Weg (von AMD), über VESA eine standardisierte Erweiterung zu etablieren, ist zunächst mal, dass das zeitlich einfach schneller ging. Nvidia hat so immerhin einige Monate vor AMD eine erwiesenermaßen funktionierende Lösung parat.
Außerdem ist Nvidia mit ihrer propriären Erweiterung flexibler. Sie können nicht nur an der Grafikkarten-/Treiberseite nach Herzenslust schrauben, sondern auch beim Monitor/Scaler, ohne sich an irgendwelche Standards halten zu müssen. Und das haben sie in dne vergangenen Monaten wohl auch ausgiebig getan. Dabei hat sich bezahlt gemacht, dass das G-Sync-Modul auf teure, aber flexibel konfigurierbare FPGAs setzt. Deshalb kann es durchaus sein, dass G-Sync Freesync technisch grundsätzlich überlegen ist, einfach weil Nvidia mehr Spielraum bei der Implementierung hat. Das ist aber natürlich abzuwarten, bis es einen direkten Vergleich gibt.

Wie schon geschrieben wurde, beides hat seine Vor- und Nachteile. Die Zeit wird zeigen, was sich durchsetzt oder auch, ob beides dauerhaft parallel nebeneinander exisitiert.
 
Wer sagt denn das nvidia sofort G-Sync einstampfen muss, sodass sie ohne Lösung dastehen würden.
Nvidia kann G-Sync solange anbieten wie sie dann Adaptive Sync auch anbieten können und dann alles parallel am Ende.

Ich wette das nvidia schon an AS Treibern arbeitet, aber sie können es ja schlecht schon ankündigen. Erstens würde man seine bisher am Markt befindlichen GSync Geräte im Wert mindern und potentielle Käufer eben abschrecken.
Zweitens würden sie dann werbewirksam eben bringen das sie sowohl G-Sync und Adaptive Sync unterstützen. Was Marketing angeht kann nvidia den Leuten sonst was verkaufen
 
Zuletzt bearbeitet:
Nachdem ich mit meinem BenQ XL2410T schon seit längerer Zeit zufrieden bin würde mich der XL2730Z auch interessieren. Die Lösung mit G bzw. FreeSync ist derzeit sehr unbefriedigend, da ich als Nvidia Käufer nun keine Möglichkeit habe von FreeSync bzw. dem neuen Monitor zu profitieren. Ich hoffe doch, dass sich da in den nächsten Monaten etwas ändert!
 
Ich steh im Moment vor dem Kauf eines Gaming-PC. Einen neuen Monitor bräuchte ich dann schon gegen Ende Januar.
Hat irgendjemand aufgeschnappt, wann die Markteinführung in Europa stattfinden wird bzw. wann mit den ersten Monitoren zu rechnen ist ?

Gruß
 
Hm, hat bissl was von der Geschichte mit + und - DVD-Brennern; ich würd darauf tippen, dass früher oder später alle als Gaming-Monitore beworbenen Produkte beides unterstützen, G-Sync und Freesync. Der VESA Standard wurde ja erst nachträglich ergänzt wie Towelie und Herdware schon angerissen haben.

We will see
 
-Ps-Y-cO- schrieb:
Wie? Wie soll der BenQ denn 144Hz,1ms und ips haben?
Als ob? Da muss was schief sein!
Der LCD-Hersteller AU Optronics produziert AHVA-Panels (IPS-ähnlichen) mit 144 Hertz und 2.560 × 1.440 Bildpunkten.
 
Jan schrieb:
Nvidia könnte in Zukunft ebenfalls Adaptive Sync ansprechen (und das dann weiterhin G-Sync nennen), hat diesen Schritt bisher aber noch nicht angekündigt.

nVidia könnte auch einfach beides unterstützen. G-Sync wäre dann vielleicht Adaptive Sync und G-Sync Pro wäre das heutige G-Sync. Oder man nennt die Adaptive Sync basierte Lösung G-Sync legacy oder G-Sync Lite.

Sollte dann die Qualität von nVidias Modullösung besser sein, hätte man wieder die Nase vorn weil man eben doch wieder ein bißchen mehr bietet als die Konkurrenz. Ich hoffe die im Text angesprochenen Tests kommen bald :)
 
Zurück
Oben