News FreeSync-Monitore zum Jahreswechsel im Handel

Früher oder später werden Wahrscheinlichkeiten auch in Kraft treten & dies ist ein ganz gewöhnlicher Vorgang. Es gibt aber auch Menschen, die auf Wahrscheinlichkeiten pfeifen & handeln dann folglich auch dementsprechend.^^
 
BlauX schrieb:
Adaptive Sync ist offen worauf FreeSync aufbaut.

Man sollte schon zwischen diesen beiden Dingen unterscheiden.

BlauX schrieb:
Mantle ist im Dez offen. SDK wird freigegeben für alle. Aber CB Kastriert ja gerne die News ;-)

SDK (Software Development Kit) ist nicht gleich offener Standard.
Ein SDK ist nur die Entwicklungsumgebung. Damit kann dann jeder Mantle Programme schreiben.
Um Treiber zu schreiben braucht es ein DDK (driver development kit) (die vollständigen Schnittstellenspezifikationen zur Hardware hin).
 
Dai6oro schrieb:
Die Frage ist wird es über kurz oder lang nicht jeder Monitor haben? Displayport 1.2a hat A-Sync ja nur optional. Was ist eigentlich mit Displayport 1.3 ist A-Sync da als Standard dabei. Wenn ja wird jeder Monitor mit Displayport 1.3 aufwärts den A-Sync fähigen Scaler verbaut haben.

BlauX schrieb:
Ja, ist Standard dabei @1.3
1.2a nur Optional. Asus hat 1 Gerät, LG sogar 3 Modelle.
Via Update halt auch.

BlauX, du erzählst Unsinn!
Auch bei DP1.3 ist "Adaptive Sync" noch optional und das wird sich auf unbestimmte Zeit nicht ändern.

Grund ist der Aufstand der Industrie. Viele Mitgileder in der VESA, vor allem angehörige der Unterhaltungsbranche haben sich über Adaptive Sync beschwert. Hersteller von Multimedia-Technik wie z.B. Camcordern oder Receivern werden ihre Geräte niemals an eine Grafikkarte anschließen, geschweige dem sich davon steuern lassen wie es Adaptive-Sync vorsieht.

Wäre Adaptive Sync im Pflichtteil, müsste es jedes Gerät mit Displayport "zwingend" unterstützen. Da man lieber auf DP1.3 hinarbeiten wegen zwingender Neuerungen in 4k hinarbeiten wollte, hat man AMD den eigenen Willen gelassen und den Vorschlag optional aufgenommen. Jeder Hersteller kann nun Adaptive Sync unterstützen, muss es aber nicht. Auch ohne Unterstützung ist das Gerät dann immer noch konform mit der DP-Spezifikation.

Aus diesem Grund wird Freesync bis auf weiteres auf Computermonitore und Kleinstgeräte beschränkt sein. Die Zielgruppe sind erstmal die Gamer. Die Frage ist wie viele Hersteller auf diesen Zug aufspringen und was es letztendlich kostet.

Ich glaube dem Termin für FreeSync nicht. Erst wenn passende Monitore am Markt sind, Preise feststehen und die Technik nachvollziehbar testbar ist, fangen wir an zu reden!
 
Multithread schrieb:
Also ICH bin nicht bereit auf 120Hz oder Freesync oder WQHD beim nächsten Monitorkauf zu verzichten. Ein dünner Rand ist dann schon fast nebensächlich (Eyefinity):freak:
Ich auch nicht.... und Ja.... ich hab nicht vor in den Nächsten 3-5 Jahren neue Monitore zu kaufen :(
 
Hardware_Hoshi schrieb:
BlauX, du erzählst Unsinn!
Auch bei DP1.3 ist "Adaptive Sync" noch optional und das wird sich auf unbestimmte Zeit nicht ändern.

Grund ist der Aufstand der Industrie. Viele Mitgileder in der VESA, vor allem angehörige der Unterhaltungsbranche haben sich über Adaptive Sync beschwert. Hersteller von Multimedia-Technik wie z.B. Camcordern oder Receivern werden ihre Geräte niemals an eine Grafikkarte anschließen, geschweige dem sich davon steuern lassen wie es Adaptive-Sync vorsieht.
Also das musst du mir erklären. Worüber sollten sich denn Camcoder und Receiver Hersteller beschweren bei der Implementierung von AdaptiveSync?
 
nach der katastrophe von assassins creed will doch keiner mehr was von AMD. auch keine freesync monitore.
 
Daedal schrieb:
Also das musst du mir erklären. Worüber sollten sich denn Camcoder und Receiver Hersteller beschweren bei der Implementierung von AdaptiveSync?

Weil es da keinen Sinn macht?

epfoot schrieb:
nach der katastrophe von assassins creed will doch keiner mehr was von AMD. auch keine freesync monitore.

Welche Katastrophe?

Edit: Ich hoffe wirklich du meinst nicht die PR Lüge...
Aber halt, die Konsolen haben ja auch AMD Hardware, muss wohl AMD dran Schuld sein :freak:
 
Zuletzt bearbeitet:
smilefaker schrieb:
Offenbar suchst du selektiv Punkte bei denen du AMD angreifen kannst, schäm dich was.
Offenbar suchst du selektiv Aussagen, um auf Andere rumzuhacken.
Im Gegensatz zu dir finde ich Teilung des Marktes nicht schön. Ebensowenig, wie AMD zum Neukauf einer 200 Radeon außer 270, 280 zwingt. Ja nvidia zwingt zum Kauf (heutiger Stand) teurer Monitore. So und jetzt wirst du natürlich den vorherigen Satz ignorieren, der ist ok, der Rest nicht. Das habe ich übrigens schon im ersten Post festgestellt, was du brav ignorierst.

Deine Schlussfolgerung Nvidia verkauft Monitore und AMD Grafikkarten, ist wohl eher als Satire zu werten.
Es gibt aktuell gerade einmal 3 G-sync Modelle die verfügbar sind, obwohl Nvidia damals ankündigte dass die Monitore anfang des Jahres 2014 kommen sollten.
Offenbar willst du nicht verstehen. nvidias Ansatz zwingt NICHT zum Kauf einer neuen Grafikkarte, sondern zum Kauf eines bestimmten, heute noch teureren, Monitors.
AMD hingegen zwingt zum Kauf einer kompatiblen Grafikkarte und eines Monitors der möglicherweise (!) nicht viel teurer als normale Modelle werden. Über die preislichen Details können wir uns unterhalten wenn es soweit ist.

Es gab bereits Gerüchte einer Aussage eines Nvidia Mitarbeiters, der bestätigte dass Nvidia auch diesen Displayportstandard unterstützen wird.
Selbstverständlich. Die Frage ist WANN?

Darauf hast du natürlich keine Antwort und solange haben wir das Problem einer Neuentwicklung gepaart mit einem geteilten Markt. Ganz schlechte Vorraussetzungen für eine schnelle Marktdurchdringung.

Ein offener Vesa Standard mit deutlich günstigeren Scalern vs. einen FPGA ( immernoch ohne Asic ) und eine proprietäre Auslegung des ganzen.
Intel und AMD können hier also keine Treiber für G-sync stellen, oder es nutzen.
Was heißt hier vs? Mein jetztiger Monitor kann beides nicht. Mein nächster vermutlich ebenso.
Denn sobald es etwas teurer wird, wird die Geschichte nur in Spielzeugmonitoren verwendet.
 
Daedal schrieb:
Also das musst du mir erklären. Worüber sollten sich denn Camcoder und Receiver Hersteller beschweren bei der Implementierung von AdaptiveSync?

coolmodi schrieb:
Weil es da keinen Sinn macht?

Danke, coolmodi! Die Antwort war kurz, aber dennoch richtig.
Ich erkläre es ein wenig technischer, damit wir hier auch wirklich klar antworten:

Daedal, Geräte wie Camcorder oder Receiver haben von Grund auf schon eine Hürde, nämlich wie sollen sie der Grafikkarte ihre Daten übermitteln. Displayport kann zwar Datenübertragung, aber hier kommt schon das große Problem:

"Grafikkarten haben keinen Displayport-IN, da sie nur zur Ausgabe gedacht sind!"

Die einzige Gerätegattung die normalerweise Displayport-IN hat, sind nun einmal Displays. Aktuell handelt es sich hier meist Computermonitore, da diese für Grafikkarten in Frage kommen. Wir brauchen gar nicht darüber zu diskutieren, warum die Camcorder- und Receiverhersteller blocken, wenn die Infrastruktur schon nicht vorhanden ist.

Es gibt sicher irgendwie Möglichkeiten und Sonderlösungen. Allerdings bezieht sich die VESA nur auf den Displayport. Genau hier scheitert es an allerlei Faktoren. Bevor diese Punkte nicht ausgemerzt und behoben sind, wird Adaptive-Sync niemals fester Bestandteil einer Displayport-Spezifikation.
 
Zuletzt bearbeitet:
Dennoch verstehe ich nicht was der Unterschied in dem Szenario sein soll ob die Monitore das AdaptiveSync Feature im Scaler verbaut haben oder nicht. Welche zusätzlichen Probleme sollen denn enstehen wenn ein Camcoder oder Receiver kein VBLANK Signal versenden. Es ändert sich doch nichts zu dem jetzigen Status. Alles bleibt wie es ist für diese Geräte. Was muss da denn ausgemerzt werden?
Ergänzung ()

Wobei jetzt wo du es sagst, bei GSync muss tatsächlich erst mal gesehen werden ob das Nvidia Modul die Leistung der bisherigen Scaler bringt für die Videogeräteklasse. Bei AdaptiveSync sind es ja die Scaler die sowieso verbaut werden und von etablierten Herstellern kommen.
 
Unyu schrieb:
Offenbar willst du nicht verstehen. nvidias Ansatz zwingt NICHT zum Kauf einer neuen Grafikkarte, sondern zum Kauf eines bestimmten, heute noch teureren, Monitors.
AMD hingegen zwingt zum Kauf einer kompatiblen Grafikkarte und eines Monitors der möglicherweise (!) nicht viel teurer als normale Modelle werden. Über die preislichen Details können wir uns unterhalten wenn es soweit ist.

Sag mal, gehts eigentlich noch? Hast du überhaupt minimal Ahnung was du schreibst?
Bei AMD braucht man eine "neue" GPU die GCN hat, aber bei Nvidia für G-Sync braucht man auch Kepler ab 650ti!
Und ja, G-Sync ist lächerlich überteuert! Ich glaube kaum, dass Adaptive Sync fähige Geräte so teuer werden, vor allem da ja schon welche vorhanden sein sollen, und nur ein Firmwareupdate brauchen.

PiPaPa schrieb:
Adaptive Sync und FreeSync funktionieren nicht nur bei Spielen, sondern können auch bei Videos angewandt werden.

Und wo wird der Camcorder als Monitor verwendet? Genau, gar nicht.
Zudem gibt es bei Videos das Tearing Problem schlicht nicht. Noch keinen TV gesehen der das hat, und auch noch nie ein Video am PC.

Edit: Adaptive Sync muss der Monitor beherrschen, die Signalquelle muss es dann natürlich auch verwenden.
Was für einen Sinn hätte ein Adaptive Sync fähiger Scaler also in einer Kamera?
 
Zuletzt bearbeitet:
coolmodi schrieb:
Bei AMD braucht man eine "neue" GPU die GCN hat, aber bei Nvidia braucht man auch Kepler ab 650ti!
GCN ist keine Eigenschaft. :lol:

Und ja, G-Sync ist lächerlich überteuert! Ich glaube kaum, dass Adaptive Sync fähige Geräte so teuer werden, vor allem da ja schon welche vorhanden sind, und nur ein Firmwareupdate brauchen.
Kann mich nicht erinnern gerade G-Sync belobt zu haben. :rolleyes: Aber bitte, ich lass dir die Illusion, das ein geteilter Markt zu einer schnellen Marktdurchdringung führen wird und allen Kunden von Vorteil ist.

Aber bitte du bestätigst mich mit deinem "Glauben". AS Geräte werden teuerer und damit wird die Marktdurchdringung nunmal schwerer!
Was genau hat das nun mit nvidia zu tun? NULL! Das die dort erstmal nicht mitmachen wissen wir. Das G-Sync deutlich billiger wird ist anzunehmen. Das G-Sync min. die selben Probleme haben wird auch. So, der Erkenntnisgewinn ist nun weiterhin NULL, aber wir haben uns über den bösen IHV ausgekotzt.

Sag mal, gehts eigentlich noch? Hast du überhaupt minimal Ahnung was du schreibst? Fanboys...
Liest du überhaupt was du zitierst? Da du hier AMD in Schutz nimmst bist du wohl der Fanboy. Kleiner Tipp, ein Fanboy kritisiert nicht seine Firma.

Warum findest du es gut, das nvidia nicht auf AS setzt?
 
Daedal schrieb:
Welche zusätzlichen Probleme sollen denn enstehen wenn ein Camcoder oder Receiver kein VBLANK Signal versenden. Es ändert sich doch nichts zu dem jetzigen Status. Alles bleibt wie es ist für diese Geräte. Was muss da denn ausgemerzt werden?

Die Hersteller von Digicams und Receivern müssten Adaptive Sync aber dennoch unterstützen ... lies doch meinen Text.

Adaptive-Sync sieht vor, dass der Monitor sich der Grafikkarte unterordnet und auf dessen VBLANK-Befehle wartet. Auf diese reagiert er dann und passt die Hertzzahlfrequenz (-> FPS) an. Die Kette funktioniert nicht, wenn du noch andere Stellen dazwischen hast, sonst kommt das Bild nicht zum richtigen Zeitpunkt.


Freesync unterstützt nur:
-Radeon R7 260/260X
-Radeon R9 285
-Radeon R9 290/290X/295X2

Quelle:
http://www.3dcenter.org/news/amds-freesync-funktioniert-nur-mit-neueren-amd-grafikchips


Daedal schrieb:
Wobei jetzt wo du es sagst, bei GSync muss tatsächlich erst mal gesehen werden ob das Nvidia Modul die Leistung der bisherigen Scaler bringt für die Videogeräteklasse. Bei AdaptiveSync sind es ja die Scaler die sowieso verbaut werden und von etablierten Herstellern kommen.

Langsam, die Scaler für Adaptive-Sync sind noch in der Entwicklung. Was das für Scaler sind und für welche Reihen sie sich eigenen, ist noch nicht genau bekannt. Die Dinger werden möglicherweise nur in Computermonitoren sein, aber nicht zwangsweise in großen Fernsehern.

Nvidia nutzt das Modul auch um die Transportkette vollständig zu kontrollieren. Damit gewährleisten sie eine möglichst niedrige Latenz. Bei FreeSync ist darüber noch kein Wort gefallen, sondern nur Tearing. Die Technik sieht auf den ersten Blick nicht so aus als hätte sie Maßnahmen gegen Lags.


PiPaPa schrieb:
Adaptive Sync und FreeSync funktionieren nicht nur bei Spielen, sondern können auch bei Videos angewandt werden.

Dafür macht es keinen Sinn, da Videos / Filme prinzipiell auf 24Hz gelockt sind. Die Bildfrequenz ändert sich nicht, sondern bleibt immer gleich. Hier werden weder Free- noch G-Sync wirklich Vorteile haben.
 
zum Thema Camcorder (und Nvidia): wenn Adaptive Sync Pflicht wäre im DP 1.2a oder 1.3, dann müssten Nvidia und Camcorder es auch in ihren jeweiligen DP-Ausgang unterstützen, sprich die Camcorder müssten ein entsprechendes Signal mit schicken und Nvidia natürlich auch, was die natürlich nicht wollen...(das wäre der sofortige Tot für G-Sync)
 
Hardware_Hoshi schrieb:
Dafür macht es keinen Sinn, da Videos / Filme prinzipiell auf 24Hz gelockt sind. Die Bildfrequenz ändert sich nicht, sondern bleibt immer gleich. Hier werden weder Free- noch G-Sync wirklich Vorteile haben.
Und wieso nicht? Normale Monitore hanben 60/100/120/144/200 Hz, keines davon ist ein vielfaches von 24/48.
Sprich durch die reduzierung der Bildwiederholungsrate auf 48/24 wird das Video ebenfalls flüssiger dargestellt;)
Und DAS ist genau das was Adaptiv Sync macht, die Zeitspanne zwischen 2 Bildern vergrössern.
 
Gnodab schrieb:
Vorallem wird es nur auf Nvidia GPUs laufen.

Ich habe jetzt eine gtx 780 und meine nächste GPU wird vielleicht ein von AMD. Freesync kann auf allen GPUs laufen. Warum sollte ich mich also auf eine Einbahnstraße mit G-Sync bewegen?

Wie kommst Du darauf? Was heißt denn es wird auf allen GPUs laufen? Wenn Nvidia Freesynch nicht unterstützt dann läuft es auch nur mit AMD GPUs, oder glaubst Du Intel steigt jetzt in das Geschäft mit Gaming GPUs ein?
 
epfoot schrieb:
nach der katastrophe von assassins creed will doch keiner mehr was von amd. Auch keine freesync monitore.


ein schlechtes spiel wird zu AMDs sargnagel.
sowohl im gameplay als auch technisch sinne, uhm nein....:freak:
 
Zuletzt bearbeitet von einem Moderator:
Hardware_Hoshi schrieb:
Dafür macht es keinen Sinn, da Videos / Filme prinzipiell auf 24Hz gelockt sind. Die Bildfrequenz ändert sich nicht, sondern bleibt immer gleich. Hier werden weder Free- noch G-Sync wirklich Vorteile haben.
Achso, es gibt also keine 1080p Filme mit 23,976fps und 24fps und 1080i mit 50fps + progressiven Frames und der Ruckelproblematik?
Dabei kämpft bsp Intel mit dem 24p Problem und den alle 40 Sekunden auftretenden Rucklern teils noch immer.

Und einen Camcorder kann man schließlich auch an einen Monitor zur Ausgabe verwenden.

Ebenso fehlt eine Quelle, welche Hersteller haben denn gegen AS votiert? Oder einfach mal so behauptet?
 
PiPaPa schrieb:
Das ist dann aber nicht die Schuld der VESA oder gar von AMD. Das sollten wir hier mal auch festhalten. Adaptive Sync ist nicht herstellerabhängig! Und FreeSync lediglich AMDs Marketingname für den offenen VESA Standard.

Sollte Adaptive Sync gleichwertig zu G-Sync sein, und nvidia jahrelang Adaptive Sync ignorieren/blockieren usw so sollte der Konsument gewillt sein mal sein Gehirn zu benutzen und sich hinterfragen ob man denn so ein Geschäftsgebahren unterstützen möchte. Spätestens dann wird nvidia wohl einlenken, was uns allen zu gute kommt.
Aber stattdessen gibt es immer wieder Foristen, welche auch noch sowas unterstützen, gar bejubeln.

Nvidia ist eine Unternehmung. Ihr Auftrag ist es ertmal primär im Eigeninteresse zu handeln. Und nochmal. Nvidia's Marktanteil bei Gaming GPUs ist fast 2/3. Wenn sie Adaptive Synch nicht unterstützen, dann kannst Dir halt die Freesynch Monitore in die Haare schmieren. Dann heißt es halt Abhängigkeit zu AMD. Zudem ist es ja durchaus denkbar, dass Nvidia es nicht bei der jetzigen G-Sync Funktion belässt. Mit dem G-Synch Modul hat Nvidia erstmal einen tieferen Einblick und auch Zugriff auf Funktionen des Monitors. Es kann also sein, dass sie den Weg weitergehen um zusätzliche Features einzubauen. Wenn sie da was finden und es schaffen weitere Mehrwerte für den Nvidia Kunden zu finden, dann sind sie wieder einen Schritt vorraus. Die Schnarchnasen bei der VESA werden dafür alleine schon mit Diskussionen ordentlich Zeit verballern.

Es kann also durchaus auch mal Sinn machen seinen eigenen Weg zu gehen.
 
Zurück
Oben