News FreeSync-Monitore zum Jahreswechsel im Handel

Herdware schrieb:
Da es noch keinen anderen GPU-Hersteller gibt, der ebenfalls eine auf Adaptive Sync aufsetzende Technik anbieten will, legt man sich mit diesen Monitoren faktisch leider doch auf AMD fest. Zumindest nach derzeitigem Stand.

Mit jedem verkauftem/gekauftem G-Sync Monitor wird das verhalten von NV bestärkt..! Dass sie Free-Sync unterstützen werden wird immer unwahrscheinlicher.

Werden ab der Verfügbarkeit der ersten Free-Sync Monitore kaum noch G-Sync Monitore verkauft kann NV den Herstellern gar nicht genug bezahlen damit die G-Sync Monitore nicht vom Markt verschwinden! Und was macht man dann? Free-Sync unterstützen? Ohne Sync leben? Oder mit doppelt so teuren G-Sync Monitore gegen Free-Sync antreten?
 
Zuletzt bearbeitet:
Ist doch mit Appel nicht anders wie bei NVidia. Wer erst einmal sich alles zusammengekauft und gebunden hat der wird diese Bindung auch noch verteiligen weil alles ja so doll miteinander harmoniert. Das es auch anders geht ist irrelevant da nicht kompatibel. Ich bezweifle das Nv auch auf den Adaptive Sync Zug aufspringt. Damit wäre ihre Technologie, die ja nicht besser ist im ganzen, ja vorbei.
 
Unyu schrieb:
Und schon ist Tahiti aka 7900/280 veraltet.
AMD verdient am Verauf neuer Radeons. nvidia verdient an den neuen Monitore.
Klasse wie die Konkurrenz das Geschäft "belebt" hat. :rolleyes:
Am Ende wird mein neuer Zielmonitor nichts von beiden unterstützen.

Sie reden ja noch von VideoMode, schliesslich heist "Adaptive" ja nur anpassen.
Mir würde es schon reichen wenn ich jede Hz zwischen 24 und 120Hz schnell über einen Schieberegler im CCC einstellen könnte.
So könnte ich für jedes Spiel "meine" bevorzuge min. FPS/Hz einstellen und
der rest macht mein virtual Vsync von Lucid.

Momentan habe ich feste Profile 48, 60, 72hz und es funktioniert bestens und
ich habe auch nur eine HD7970, eine stufenfreier Regler wär noch besser.
 
Numrollen schrieb:
Damit wäre ihre Technologie, die ja nicht besser ist im ganzen, ja vorbei.
Nun ich denke dafür werden alleine die Monitorhersteller sorgen. Fraglich ob man in Gsync irgendeinen Merhwert zukünftig erwartet um da noch weiter Mittel einzusetzen. Ich schrieb es damals als AMD mit Freesync gekontert hat. Mit einem offenen Standard direkt als Konkurrent ist Gsync Dead on arrival - und das nur weil sie auf zusätzliche Hardware gebaut haben. Wäre das ganze in die GPU gewandert wie es AMD gemacht hat mit Hilfe von VESA, hätte es ja weiter exisitiert. So muss aber jemand die Hardware kaufen und das in seine Produkte verbauen für einen deutlich zu kleinen Käuferkreis. Ohne Subvention von Nvidia sicher nicht, doch wofür hier noch subventionieren?
 
Zuletzt bearbeitet:
Nitschi66 schrieb:
Nochmal nebenbei:
In einem etwas größeren Bericht hier auf CB über freesync/gsyn wurde gesagt, das eine vergleichbare Technik schon seit jahren bei Laptops bzw deren Monitor Anwendung findet. Stimmt das so? Diese sind ja nicht über HDMI oder DP angeschlossen sondern proprietär.

Adaptive Sync gibt es schon länger in einigen Notebooks. Aber wie schon gesagt, ist das nicht gleichzusetzen mit FreeSync oder G-Sync. Adaptive Sync ist nur eine Erweiterung von Displayport, die es erlaubt, die Refreshrate des Displays anzupassen. (Man kann es sich als eine Art zusätzliche Signalleitung im DP-Anschluss vorstellen, über die dem Display gesagt werden kann: "Warte mit dem nächsten Refresh X Millisekunden.".) Aber damit hat man sie ja noch lange nicht mit der ständig schwankenden Bildfrequenz der Grafikausgabe z.B. in einem Spiel synchronisiert. Das ist der wesentlich komplexere Teil.

Adaptive Sync in Notebooks wurde bisher deshalb nur benutzt, um die Refreshrate des Displays in Idle runterzuregeln, damit weniger Strom verbraucht wird. Es ist ein eher unspektakuläres Energiesparfeature.

AMDs ältere GPUs, die noch kein FreeSync unterstützen, werden Adaptive Sync z.B. nutzen können, um automatisch eine passende Bildfrequenz bei der Wiedergabe von Videos (z.B. 24Hz, 30Hz usw.) einzustellen. Aber eben nicht dynamisch für Spiele.

Daedal schrieb:
Ebenso sollte man klar stellen, dass wer sich einen Monitor mit AdaptiveSync kauft, es jederzeit von jedem Hersteller mittels offenem Standard im Treiber integriert werden kann, und auch wird. Wer sich einen GSync-Monitor kauft, der kann sicher sein, dass er zukünftig ausschließlich mit Nvidia GPUs darauf die Funktion nutzen können wird und dafür auch noch einen Aufpreis von 100$ bezahlt hat.

Du bist ja ziemlich optimistisch. :)

Ich gehe stark davon aus, dass Intel, als größter GPU-Hersteller, überhaupt kein Interesse daran hat, irgendeine mit FreeSync oder G-Sync vergleichbare Technologie zu entwickeln. Weder eine auf Adaptive Sync aussetzende, noch irgendwas auch monitorseitig propritäres wie G-Sync. Die haben einfach nicht genug Priorität auf Gaming.

Nvidia hingegen hat schon eine eigene Technologie, die im Gegensatz zu FreeSync schon jetzt funktioniert und für die es auch schon Monitore zu kaufen gibt (wenn auch noch nur wenige und ziemlich teuer). Solange nicht klar ist, dass G-Sync komplett floppt, werden die lieber daran festhalten, statt von Null neu anzufangen. Ist ja auch gut möglich, dass auch die G-Sync-Module für Monitore mit der Zeit (und steigender Stückzahl) günstiger werden, so dass der PReisunterschied zu Adaptive-Sync-Monitoren keine Rolle mehr spielt.

Aber selbst wenn G-Sync floppt, dann wird es noch viele Jahre dauern, bis Nvidia eine neue, auf Adaptive-Sync aussetzende Technik entwickelt und kompatible GPUs auf dem Markt hat. Bis dahin wird die erste Generation der Adaptive-Sync-Monitore wahrscheinloch bei vielen schon wieder ausgemustert und ersetzt sein, weil es längst technisch bessere Monitore gibt.

Bis auf weiteres heißt es also:"Kaufe ich meinem nächsten Monitor für AMD oder Nvidia."
Und mit der Entscheidung sollte man vielleicht auch erstmal warten, bis wir einen direkten Vergleich zwischen FreeSync und G-Sync haben und wissen, ob die gleich gut funktionieren bzw. welches besser oder schlechter.
Das würde ich als wichtigeres Entscheidungs-Kriterium ansehen, als die bloße theoretische Chance, dass vielleicht irgendwann mal auch irgendwer anderes als nur AMD eine auf Adaptive-Sync aufsetzende Synchronsisierungstechnik entwickelt.
 
Frage: Wird es einen Monitor geben, der G-Sync, Adaptive Sync oder Freesync *von sich aus* kann - also nicht nach einer entsprechenden GraKa verlangt?

Und dass dann auch noch dieses Feature per DVI-Anschluss unterstützt?
 
DisplayPort ist im Vergleich zu HDMI auch kostenlos ... wird es häufiger benutzt ? Nein
FreeSync ist im Vergleich zu GSync auch kostenlos ... wird es häufiger benutzt werden? Ich bezweifel es ja da viele es nur nutzen werden, weil Nvidia draufsteht
 
Randalmaker schrieb:
Konkurrenz belebt das Geschäft. Wenn FreeSync erstmal am Markt ankommt, werden hoffentlich die Preise für G-Sync auch entsprechend fallen.

Viel wird da nicht rauszuholen sein. Im Gegensatz zu FreeSync benötigt G-Sync ja ein entsprechendes Hardware Modul, welches sich im Preis niederchlägt.
 
Ich hoffe Sony und Samsung bauen das auch in Ihre TVs rein. Möchte das gern in einem 46" oder 55" Fernseher sehen!! Hoffentlich zur CES Las Vegas 2015.
 
Numrollen schrieb:
Aber selbst wenn G-Sync floppt, dann wird es noch viele Jahre dauern, bis Nvidia eine neue, auf Adaptive-Sync aussetzende Technik entwickelt und kompatible GPUs auf dem Markt hat. Bis dahin wird die erste Generation der Adaptive-Sync-Monitore wahrscheinloch bei vielen schon wieder ausgemustert und ersetzt sein, weil es längst technisch bessere Monitore gibt.

Bis auf weiteres heißt es also:"Kaufe ich meinem nächsten Monitor für AMD oder Nvidia."
Nvidia soll Jahre brauchen um einen VESA Standard zu implementieren? Wer sagt dir, dass er nicht schon in den selben GPUs mit enthalten ist die auch nachträglich alle DX12 unterstützen werden? Jedenfalls hat AMD nicht so lange gebraucht nachdem sie von Gsync gehört haben um einen kompletten Standard zu entwickeln und auch bei der VESA durchzusetzen. Ich vertraue auf Nvidia es dann auch in einigen Monaten in einen Treiber integrieren zu können. die haben doch so tolle Treiberteams lese ich immer wieder.

Es heisst eher bis auf weiteres "Kaufe ich einen Monitor mit Standard, den jede GPU unterstützen kann? Oder kaufe ich einen 100$ teureren Monitor den ganz sicher nur ein GPU Hersteller unterstützen kann?"

Nur weil Nvidia offene Standards nicht unterstützen WILL heisst es nicht, dass es nicht kann. Als Kunde muss ich auch mal bei einer solchen Wahl überlegen welcher Hersteller mir später mehr Optionen bietet oder welcher mir andere Optionen aktiv verschließen will und mich dafür auch noch extra bezahlen lässt. Ich denke da ist nun wirklich die Grenze des schön redens erreicht das man betreiben kann über Gsync.

Fatal wäre natürlich wenn Gsync Monitore gar ein AdaptivSync können wegen Nvidias Modul.
Ergänzung ()

Toms schrieb:
DisplayPort ist im Vergleich zu HDMI auch kostenlos ... wird es häufiger benutzt ? Nein
Bei PC-Monitoren ganz sicher. TVs bieten ja kein DP und daher auch kaum ein Notebook.
 
Zuletzt bearbeitet:
Erstmal abwarten welche Technologie die bessere ist. FreeSync ist jedenfalls die günstigere.

Ich bin mir sicher, dass NVIDIA auch eine Lösung wie AMDs FreeSync in Planung hatte, sich aber warum auch immer dagegen entschieden haben.
 
@Herdware
Kann deiner Argumentation nicht folgen. Inwieweit ist FreeSync mehr als die softwareseitige Implementierung von AdaptiveSync im Treiber von AMD?
 
Anficht schrieb:
Frage: Wird es einen Monitor geben, der G-Sync, Adaptive Sync oder Freesync *von sich aus* kann - also nicht nach einer entsprechenden GraKa verlangt?
Wie soll das gehen? Woher soll ein Monitor ein VBLANK bekommen das er verarbeitet wenn nicht von einer GPU? Woher weiss der Monitor, dass der Frame fertig ist und jetzt das Bild refresht werden soll?
 
Morrich schrieb:
Viel wird da nicht rauszuholen sein. Im Gegensatz zu FreeSync benötigt G-Sync ja ein entsprechendes Hardware Modul, welches sich im Preis niederchlägt.

Beides ist letztlich nur ein (Scaler-)Chip. Die typische Entwicklung bei solchen ICs ist, dass man immer mehr Leistung in immer kleineren/sparsameren Format für immer weniger Geld bekommt. Wobei die ersten G-Sync-Module ja obendrein noch FPGAs waren. Also nicht mal speziell für den Zweck gefertigte Bauteile, sondern nur entsprechend programmierte, universelle Controller.

Der Unterschied in den Anforderungen an die Rechenleistung der jeweiligen ICs so gering sein, dass er nicht mehr ins Gewicht fällt.

Vorrausgesetzt G-Sync hält sich so lange am Markt, bis der technische Fortschritt den Kostennachteil aufholt.
 
Und warum sollte da JETZT irgendein Monitorhersteller mitmachen und Nvidias Scaler verbauen mit deutlichem Aufpreis? Vor allem wenn es diese günstigen Scaler schon lange gibt und nun verbaut werden.
 
Ich versteh das nicht.

-Wir haben G-Sync, das garantiert niemals auf AMD Hardware laufen wird.

-Wir haben Freesync, das jedem frei zur Verfügung steht der es nutzen will.

Warum sollte ich nun einen G-Sync Monitor kaufen?

Daedal schrieb:
Und warum sollte da JETZT irgendein Monitorhersteller mitmachen und Nvidias Scaler verbauen mit deutlichem Aufpreis? Vor allem wenn es diese günstigen Scaler schon lange gibt und nun verbaut werden.

Gute Frage. Die Logik dahinter verstehe ich nicht.
 
Daedal schrieb:
Wie soll das gehen? Woher soll ein Monitor ein VBLANK bekommen das er verarbeitet wenn nicht von einer GPU? Woher weiss der Monitor, dass der Frame fertig ist und jetzt das Bild refresht werden soll?

Ich meine, dass er das Signal von einer anderen Quelle als einem PC erhält.
Z.B. ein Amiga, der per DVI out 49,8Hz Bilder ausgibt.

Würde eines dieser Verfahren damit funktionieren?
 
man kann nur Freesync unterstützen, etwas kaufen wofür man einen unnützen Zusatzchip braucht das Gerät um 100€ verteuert!? Wer hat sich denn das ausgedacht...
 
Es fehlt in der News ein wichtiges Detail das Richard Huddy erwähnt hat. Und zwar soll die SDK der Mantle API noch dieses Jahr ohne Lizenzgebühren und anderen Einschränkungen veröffentlicht werden. Das bedeutet Nvidia und Intel dürfen damit Arbeiten.
 
Zurück
Oben