News AMD sieht FreeSync bei den Kosten vor G-Sync

Hardware_Hoshi schrieb:
Suboptimale Aufrüstung ist nicht die Lösung. Ewig auf ein Produkt zu warten aber auch nicht. Das ist irgendwie ein Henne-Ei-Problem.
Laut Aussage von AMD und diversen Monitorherstellern ist ab dem 1. Quartal 2015 mit fertigen Produkten zu rechnen. Das ist nicht "ewig", und nur 2 Quartale später als NVidia. In Anbetracht von NVidias Entwicklungsvorsprung und der Tatsache, dass NVidia nur zu sich selbst kompatibel sein muss anstatt eine Standardisierung zu durchlaufen, ist das keine schlechte Leistung von AMD.
Hardware_Hoshi schrieb:
Damit FreeSync funktioniert, muss erst eine hohe Summe in Forschung & Entwicklung gesteckt werden.

--> Kosten für F&E = unbekannt
Aha, die Kosten sind unbekannt aber hoch? Wie hoch im Vergleich zur ohnehin notwendigen DisplayPort-Zertifizierung?

Hardware_Hoshi schrieb:
Im Artikel heißt es "AMD sieht FreeSync bei den Kosten vor G-Sync". Wessen Kosten meinen sie eigentlich?
-Die eigenen Kosten?
-Die Entwicklungskosten?
-Kosten des Kaufpreises?

Da das nicht klar definiert ist, muss AMD wohl noch ein wenig hin- und her rudern. Für mich sieht da eher nach raten ins Blaue aus anstelle von Fakten! Jeder vernünftige Kaufmann wird mit ähnichen Argumenten kommen.
Kaufmännisch unterscheidet man häufig zwischen irreversiblen Kosten, Fixkosten und Grenzkosten.

Irreversible (oder versunkene) Kosten entstehen bei der Entwicklung und Validierung. Fixkosten sind Kosten, die unabhängig von der Menge produzierter Einheiten anfallen (etwa Kosten für Personal, Unterhalt von Maschinen und Gebäuden), Grenzkosten sind Kosten, die für jede Einheit anfallen.

Bei den irreversiblen Kosten ist G-Sync im Vorteil, weil NVidia für die Entwicklung von G-Sync in Vorleistung tritt. Bei den Grenzkosten ist Adaptive-Sync im Vorteil, worauf sich die AMD-Meldung wohl bezog. Du hast dann ins Blaue geraten, dass der Vorteil bei den irreversiblen Kosten jeglichen Vorteil bei den Grenzkosten zunichte machen würde?

Hardware_Hoshi schrieb:
Besonders Glücklich scheinen die Hersteller jedenfalls nicht zu sein. Daher wohl auch die Zurückhaltung!
Für G-Sync haben bisher Acer, AOC, ASUS, Benq und Philips Monitore angekündigt. Bei Adaptive-Sync sind bislang AOC, ASUS, Iiyama, Philips und neuerdings auch Samsung dabei. Eine größere Zurückhaltung kann ich nicht erkennen.
 
chithanh schrieb:
Laut Aussage von AMD und diversen Monitorherstellern ist ab dem 1. Quartal 2015 mit fertigen Produkten zu rechnen. Das ist nicht "ewig", und nur 2 Quartale später als NVidia.

Du hast vergessen, dass die Termine mit einem ein "frühestens" versehen ist. In der Regel heißt es FreeSync käme in 6-12 Monaten. Bei dem aktuellen Stand eher später als früher. Gerade kamen Meldungen herein, dass die neuen Monitore für G-Sync innerhalb von 60 Tagen den Markt erreichen.

Sobald die FreeSync-Modelle irgendwann in 2015 endlich am Markt sind, befinden sie sich immer noch in der Beta-Phase. Kein Gerät ist bei Release perfekt. Das hat man ja an G-Sync gesehen. Nennt sich Fluch des Erstrelease. Die Techniken sind einfach noch zu neu.


chithanh schrieb:
In Anbetracht von NVidias Entwicklungsvorsprung und der Tatsache, dass NVidia nur zu sich selbst kompatibel sein muss anstatt eine Standardisierung zu durchlaufen, ist das keine schlechte Leistung von AMD.

Das kann man sehen wie man will. Aus Nvidia-Sicht braucht man keine extra Standardisierung, weil laut Tom Peterson alles bereits in DP1.2 vorhanden war. Einzig bei der Hardware in den Monitoren musst man nachhelfen. Sie haben dann ein komplettes Pakte mit Kontrolle über die Technik gebaut.

AMD hingegen vertraut wieder einmal auf die Hilfe Dritter. Die Standardisierung von DP1.2 ist zwar nett, der optionale Part hingegen macht diesen Vorteil jedoch komplett nichtig. AMD ist zu 100% vom Wohlwollen der Display-Hersteller abhängig und hat keine direkte Kontrolle über die Vorgänge. Direkter finanzielle Hilfe von AMD können die Hersteller jedenfalls nicht erwarten, da es dem Unternehmen noch nicht so rosig geht.

Hier sind Beispiele für verschiedene Führungsstile.


chithanh schrieb:
Aha, die Kosten sind unbekannt aber hoch? Wie hoch im Vergleich zur ohnehin notwendigen DisplayPort-Zertifizierung?

Wenn Kosten unbekannt sind, ist die Höhe auch theoretisch unendlich. Es kann ein Fass ohne Boden sein oder eben das Gegenteil. Das Risiko daran haben in jedem Fall die Hersteller. Wenn wir schon bei BWL sind, sollte dir ROI ein Begriff sein.

In jedem Fall ist die zusätzliche Zertifizierung teurer anzusetzen als die DP1.2a-Standard. Nur für Adaptive-Sync muss die komplette Entwicklung durchlaufen werden. Der Markt dafür ist leider nur eine Nische. Solange Intel nicht an Bord ist, bleibt das Feature "AMD-only". Nvidia hat ja eine andere Lösung dafür.

Es macht eher Sinn als Hersteller noch zu warten bis die Kosten final eingeschätzt werden können. So minimiert man das Risiko und bleibt nicht auf seinen Investitionen sitzen.


chithanh schrieb:
Für G-Sync haben bisher Acer, AOC, ASUS, Benq und Philips Monitore angekündigt. Bei Adaptive-Sync sind bislang AOC, ASUS, Iiyama, Philips und neuerdings auch Samsung dabei. Eine größere Zurückhaltung kann ich nicht erkennen.

Seit wann denn das?

In deiner Quelle heißt es:
"Die Display-Sparten von Samsung und LG erklärten wiederum einstimmig, dass bei ihnen derzeit keine Geräte mit Adaptive Sync geplant seien. Dass sich dies ändern kann, deutete zumindest Samsung mit einem „noch“ an."

ASUS fährt bekanntermaßen Mehrgleisig, aber für Adaptive-Sync sind nur wenige Modelle geplant. Die frühesten Termine nennt ASUS auf Q1 bis Q2-2015. Das sind die bestmöglichen Termine, aber manche Poster hier machen sofort den tatsächlichen Release daraus.

Die Angaben von Philipps und AOC widersprechen sich je nach Meldung. Sie sprechen teilweise von Q1-2015. Es ist die Frage wie realistisch diese Angaben sind, denn beide Firmen sind nicht unbedingt stark im Markt für Gaming-Monitore vertreten.

BenQ und ACER haben sich aktuell noch nicht geäußert. Du kannst aber Gift darauf nehmen, dass vorallem BenQ bei G-Sync bleiben wird. Der Grund wäre, sie sind offizieller Sponsor im Pro-Gaming segment. Beispielsweise auf jeder Intel Extreme Masters (IEM) werden die Monitore von BenQ verwendet. Die Pro-Gamer setzten besonderen Wert auf geringe Latenzen bzw. Inputlag. Hier dürfte G-Sync die erste Wahl sein, weil das die Hauptargumenite neben weniger Tearing von Nvidia ist.

-Diese Art von Spielern ist auch betucht genug, um sich den Premiumaufschlag für die G-Sync-Module leisten zu können. Es geht hier auch um ein gewisses Prestige, so unsinnig das für den 0815-Gamer auch sein mag.

Bleibt noch iiyama, einer der Billighersteller. Einer der wenigen Anbieter, die sowohl G-Sync als auch FreeSync unterstützen werden.

Für mich sieht das noch alles andere als überzeugend aus. Die Hersteller geben dafür noch zu ungenaue Aussagen ab. Wenn FreeSync (Adaptive-Sync) dann endlich auf dem Markt ist, muss es immer noch beweisen wie es sich gegen die Konkurrenz schlägt. Mit den bisher gezeigten Demos sollte man sich aber nicht all zu viele Hoffnungen machen.
 
Zuletzt bearbeitet:
chithanh schrieb:
In Anbetracht von NVidias Entwicklungsvorsprung und der Tatsache, dass NVidia nur zu sich selbst kompatibel sein muss anstatt eine Standardisierung zu durchlaufen, ist das keine schlechte Leistung von AMD.

Lolwut.
Laut VESA existiert "Adaptive-Sync" schon seit 4 Jahren als eDP und wäre sehr erprobt. Muss man wirklich sagen, da hat AMD ganze Arbeit geleistet nach 4 Jahren nichts vorweisen zu können. :lol:
 
Ist natürlich nicht repräsentativ, aber trotzdem deutlich:

Umfrage-Auswertung-G-Sync-vs-Adaptive-Sync.png

Quelle 3DCenter
 
Pilstrinker schrieb:
Ist natürlich nicht repräsentativ, aber trotzdem deutlich:

Anhang anzeigen 420566

Quelle 3DCenter

Liegt wohl eher an der manipulativen Fragestellung. Die Optionen sind alles andere als ideal.

Der Witz an dieser Umfrage ist ja, dass dieselben Teilnehmer in der blauen Mehrheit sich bei Release sofort ein neues Apple-Produkt kaufen werden. Im Walled-Garden spielt dann der freie Standard plötzlich keine Rolle mehr ;)
 
Ich sehe da keine manipulative Fragestellung.

Und eine Glaskugel bzgl. der Kaufvorlieben der Teilnehmer habe ich auch nicht.
 
Hardware_Hoshi schrieb:
Das kann man sehen wie man will. Aus Nvidia-Sicht braucht man keine extra Standardisierung, weil laut Tom Peterson alles bereits in DP1.2 vorhanden war. Einzig bei der Hardware in den Monitoren musst man nachhelfen. Sie haben dann ein komplettes Pakte mit Kontrolle über die Technik gebaut.

AMD hingegen vertraut wieder einmal auf die Hilfe Dritter. Die Standardisierung von DP1.2 ist zwar nett, der optionale Part hingegen macht diesen Vorteil jedoch komplett nichtig. AMD ist zu 100% vom Wohlwollen der Display-Hersteller abhängig und hat keine direkte Kontrolle über die Vorgänge. Direkter finanzielle Hilfe von AMD können die Hersteller jedenfalls nicht erwarten, da es dem Unternehmen noch nicht so rosig geht.
Sorry, aber das ist Schwachsinn. Deinen Ausführungen zufolge wäre nVidias G-Sync Modul auf magische Art und Weise in der Lage, jedes LCD-Panel anzusteuern, das es gibt bzw. geben wird. Genau das müsste es nämlich tun, da es die bislang vorhandene Steuerung komplett ersetzt. Ich sehe zwei mögliche Szenarien:

Szenario 1:

G-Sync benötigt weiterhin ein, hauptsächlich aus einem teuren FPGA bestehendes, Modul, dass die gesamte Steuerung des LCDs übernimmt. Dieses Modul müsste für jedes neue Monitor Modell , jedes neue LCD-Panel programmiert werden. Nvidia wird wohl kaum diese Programmierung übernehmen können, also müssten es die Monitor Hersteller selbst tun. Diese müssten dann nicht nur das teure Modul bezahlen, sondern auf noch die Kosten für Programmierung des G-Sync Moduls übernehmen.

Szenario 2:

nVidia lizenziert die G-Sync Technologie an die Monitor Hersteller, und diese erweitern damit ihre (im Vergleich zu FPGAs) günstigen anwendungsspezifische Schaltungen (LCD-Driver / Scaler). Diese Schaltungen werden von nVidia auf die Einhaltung der G-Sync Spezifikationen überprüft, und der Monitor darf nach bestandener Prüfung das G-Sync Logo tragen.

Welches der beiden Szenarien dürfte wohl das betriebswirtschaftlich bessere sein und welches entspricht praktisch haargenau deinen Ausführungen zu FreeSync? ;)

PS: Ich würde wetten, dass die später im Jahr erscheinenden G-Sync Monitore Szenario 2 folgen werden.
 
Zuletzt bearbeitet:
Sontin schrieb:
chithanh schrieb:
In Anbetracht von NVidias Entwicklungsvorsprung und der Tatsache, dass NVidia nur zu sich selbst kompatibel sein muss anstatt eine Standardisierung zu durchlaufen, ist das keine schlechte Leistung von AMD.
Lolwut.
Laut VESA existiert "Adaptive-Sync" schon seit 4 Jahren als eDP und wäre sehr erprobt. Muss man wirklich sagen, da hat AMD ganze Arbeit geleistet nach 4 Jahren nichts vorweisen zu können. :lol:
Adaptive-Sync im eDP-Standard gibt es seit 2009, aber wie jeder verständige Leser weiß, war der Zweck ein ganz anderer: nämlich Strom sparen, indem die Bildwiederholfrequenz bei statischen Bildinhalten gesenkt wird. Außerdem ist es halt eDP, was zwar ähnlich aber nicht identisch zu DP ist. Die notwendigen Anpassungen an den neuen Einsatzzweck sind halt nicht in Nullzeit zu schaffen, ganz zu schweigen von der Verabschiedung durch das Standardisierungsgremium.

Marc_N schrieb:
Szenario 1:

G-Sync benötigt weiterhin ein, hauptsächlich aus einem teuren FPGA bestehendes, Modul, dass die gesamte Steuerung des LCDs übernimmt. Dieses Modul müsste für jedes neue Monitor Modell , jedes neue LCD-Panel programmiert werden. Nvidia wird wohl kaum diese Programmierung übernehmen können, also müssten es die Monitor Hersteller selbst tun. Diese müssten dann nicht nur das teure Modul bezahlen, sondern auf noch die Kosten für Programmierung des G-Sync Moduls übernehmen.
Genau das Szenario 1 macht NVidia momentan, und übernimmt auch die Kosten dafür. Ein Problem (und mutmaßlich auch der Grund für die wiederholten Verzögerungen) ist, dass NVidia nicht genug Entwicklerresourcen bereit gestellt hat um allen Anfragen zeitnah nachzukommen. NVidia scheint auch auf absehbare Zeit der einzige Lieferant von G-Sync-Modulen bleiben zu wollen und will wohl die vorgestreckten Entwicklungskosten über den Verkaufspreis refinanzieren.
Ergänzung ()

Hardware_Hoshi schrieb:
Sobald die FreeSync-Modelle irgendwann in 2015 endlich am Markt sind, befinden sie sich immer noch in der Beta-Phase. Kein Gerät ist bei Release perfekt. Das hat man ja an G-Sync gesehen. Nennt sich Fluch des Erstrelease. Die Techniken sind einfach noch zu neu.
Die Technik des variable refresh ist nicht neu, sondern existiert bereits und ist erprobt. Was neu ist, ist die Integration mit dem DisplayPort, um in 3D-Spielen Ruckeln, input-Lag und tearing abzustellen.

Die Verzögerung lag auch nicht an der Neuheit der Technologie, sondern mutmaßlich daran, dass NVidia nicht mit dem Entwickeln von G-Sync-Modulen für die ganzen Monitorhersteller hinterhergekommen ist. Beim bislang einzigen zu G-Sync aufrüstbaren Monitor von ASUS läuft die Technik einwandfrei.

Hardware_Hoshi schrieb:
Wenn Kosten unbekannt sind, ist die Höhe auch theoretisch unendlich. Es kann ein Fass ohne Boden sein oder eben das Gegenteil. Das Risiko daran haben in jedem Fall die Hersteller. Wenn wir schon bei BWL sind, sollte dir ROI ein Begriff sein.

In jedem Fall ist die zusätzliche Zertifizierung teurer anzusetzen als die DP1.2a-Standard. Nur für Adaptive-Sync muss die komplette Entwicklung durchlaufen werden. Der Markt dafür ist leider nur eine Nische. Solange Intel nicht an Bord ist, bleibt das Feature "AMD-only". Nvidia hat ja eine andere Lösung dafür.

Es macht eher Sinn als Hersteller noch zu warten bis die Kosten final eingeschätzt werden können. So minimiert man das Risiko und bleibt nicht auf seinen Investitionen sitzen.
Diese Aussage halte ich für nicht glaubhaft. Die Kosten sind bereits bei eDP bekannt, und haben meines Wissens dort auch keinen Hersteller in den Ruin getrieben. Wieso sollte das jetzt bei DP großartig anders sein?

Hardware_Hoshi schrieb:
chithanh schrieb:
Für G-Sync haben bisher Acer, AOC, ASUS, Benq und Philips Monitore angekündigt. Bei Adaptive-Sync sind bislang AOC, ASUS, Iiyama, Philips und neuerdings auch Samsung dabei. Eine größere Zurückhaltung kann ich nicht erkennen.
Seit wann denn das?

In deiner Quelle heißt es:
"Die Display-Sparten von Samsung und LG erklärten wiederum einstimmig, dass bei ihnen derzeit keine Geräte mit Adaptive Sync geplant seien. Dass sich dies ändern kann, deutete zumindest Samsung mit einem „noch“ an."

Klick mal auf "Samsung", dann findest du einen PCGH-Artikel wo drinsteht, dass Samsung mindestens einen 27"-Monitor anbieten will. Im älteren Computerbase-Artikel war Samsung noch unentschlossen. Ich habe darauf extra mit der Formulierung "neuerdings" hingewiesen.

PCGH schrieb:
Samsung hat sich dagegen noch nicht entschieden, solche Monitore zu produzieren: "Wir haben uns noch nicht final entschieden, aber wir werden im ersten Schritt wenigstens ein Consumer-Gerät in der 27-Zoll-Klasse anbieten". Ein möglicher Release findet aber nicht "vor 2015" statt.

Hardware_Hoshi schrieb:
Bleibt noch iiyama, einer der Billighersteller. Einer der wenigen Anbieter, die sowohl G-Sync als auch FreeSync unterstützen werden.
Falsch. Weder ist Iiyama ein Billighersteller, noch wollen sie einen G-Sync-Monitor anbieten.

Hardware_Hoshi schrieb:
Für mich sieht das noch alles andere als überzeugend aus. Die Hersteller geben dafür noch zu ungenaue Aussagen ab. Wenn FreeSync (Adaptive-Sync) dann endlich auf dem Markt ist, muss es immer noch beweisen wie es sich gegen die Konkurrenz schlägt. Mit den bisher gezeigten Demos sollte man sich aber nicht all zu viele Hoffnungen machen.
G-Sync-Monitore sollen im kommenden Quartal erhältlich sein, aber erste Adaptive-Sync-Monitore erst 2 Quartale später. Ist doch kein Wunder, dass die Aussagen der Hersteller zu G-Sync konkreter sind. Daraus abzuleiten, dass die Hersteller zurückhaltender sind, ist schon sehr gewagt.
 
Marc_N schrieb:
Sorry, aber das ist Schwachsinn. Deinen Ausführungen zufolge wäre nVidias G-Sync Modul auf magische Art und Weise in der Lage, jedes LCD-Panel anzusteuern, das es gibt bzw. geben wird. Genau das müsste es nämlich tun, da es die bislang vorhandene Steuerung komplett ersetzt.

Aha?! Wieso können dann viele Unterschiedliche Modelle mit demselben Modul betrieben werden? Die Antwort ist der verbaute SCALER im G-Sync-Modul. Dieser macht es egal ob der Display mit 1080P (Full-HD), 1440P oder 2160P (UHD) läuft. Solange die Rahmenbedingunng dieselben sind, macht es absolut keinen Unterschied.

Die Hersteller können sich einfach nur auf den Display und die Integration ihrer eigenen Bildschirmtechniken kümmern.


Marc_N schrieb:
Szenario 1:

G-Sync benötigt weiterhin ein, hauptsächlich aus einem teuren FPGA bestehendes, Modul, dass die gesamte Steuerung des LCDs übernimmt. Dieses Modul müsste für jedes neue Monitor Modell , jedes neue LCD-Panel programmiert werden. Nvidia wird wohl kaum diese Programmierung übernehmen können, also müssten es die Monitor Hersteller selbst tun. Diese müssten dann nicht nur das teure Modul bezahlen, sondern auf noch die Kosten für Programmierung des G-Sync Moduls übernehmen.

Erstens wird das Modul nicht ewig auf FPGA-Status bleiben und zweitens bestehen Partnerschaften zwischen Nvidia und den Herstellern. Das ist ein geben und nehmen. Du solltest beachten, dass nicht jeder Display-Hersteller die Steuerungseinheiten selbst fertigt. Meistens werden die extern dazu gekauft wie die von G-Sync. Wichtig sind nur der Display und die jeweils patentierten Techniken und Technologien.


Marc_N schrieb:
Szenario 2:

nVidia lizenziert die G-Sync Technologie an die Monitor Hersteller, und diese erweitern damit ihre (im Vergleich zu FPGAs) günstigen anwendungsspezifische Schaltungen (LCD-Driver / Scaler). Diese Schaltungen werden von nVidia auf die Einhaltung der G-Sync Spezifikationen überprüft, und der Monitor darf nach bestandener Prüfung das G-Sync Logo tragen.

Dazu müssten die Hersteller erst einmal passende Hardware entwickeln. Könnte irgendwann so kommen. Aber bis Ende 2015 rechne ich nicht damit. Nvidia wird sich den neuen Geschäftsbereich nicht von heute auf morgen absägen. Eher werden sie den Funktionsumfang stetig ausbauen.

Wer weiß welche Möglichkeiten noch in der Technik stecken. Stell dir nur einmal vor, wenn das Modul bessere AA oder MSAA-Modi im Bildschirm direkt verarbeiten könnte. Das wäre ein gravierender Vorteil. Ein Boost für die GPU sozusagen. Sollte irgendwann Denver in die GPU einziehen, wären hier unendliche Möglichkeiten.


Marc_N schrieb:
Welches der beiden Szenarien dürfte wohl das betriebswirtschaftlich bessere sein und welches entspricht praktisch haargenau deinen Ausführungen zu FreeSync? ;)

Deine Szenarien sind nicht zu Ende gedacht. Hinter G-Sync steckt sicher eine Langzeitstrategie. Diese wird Nvidia den Partnern vorgelegt haben. Wenn man sieht in welche Richtung sich eine Technik entwickelt, kann man auch frühzeitig planen. Kalkulierbare Kosten sind wirtschaftlicher als die große Unbekannte.

Solange die Kunden bereit sind den Aufpreis zu zahlen, schließt sich der Kreis. Nvidia verspricht ja ständig die Kosten zu senken. Bei einem Aufpreis von 50-100€ tut es nicht mehr so sehr weh. Der jetzige Preis ist der Early-Adopter-Aufschlag.


chithanh schrieb:
Diese Aussage halte ich für nicht glaubhaft. Die Kosten sind bereits bei eDP bekannt, und haben meines Wissens dort auch keinen Hersteller in den Ruin getrieben. Wieso sollte das jetzt bei DP großartig anders sein?

Man kann die Kosten von einer Technologie nicht von auf eine andere übertragen. Die Technik muss komplett neu entwickelt werden. Bei eDP hat man ganz andere interne Schaltungen und Elektrik. Das passt sich nicht magisch an. Die Entwicklungsabeitlung muss das Baby quasi von Grund auf neu hochziehen.

Mit steigender Displaygröße wird das zumehmend schwerer. Ein Grund warum AMOLED-Dispalys nicht in größeren Diagonalen finden lassen. Es gibt einfach viele technische Hürden.


chithanh schrieb:
Falsch. Weder ist Iiyama ein Billighersteller, noch wollen sie einen G-Sync-Monitor anbieten.

Ok, über das "billig" kann man streiten. Premium sind sie jedenfalls nicht! Ein G-Sync-Modul würde sie in eine andere Preisklasse hieven, für die sie dann nicht mehr unbedingt geeignet sind.

Allerdings wird Iiyama keine Wahl haben, wenn die gesamte Konkurrenz ein Produkt wie G-Sync ins Sortiment nimmt. Außer Dell / Alienware sind fast alle namhaften Hersteller im Boot.


chithanh schrieb:
G-Sync-Monitore sollen im kommenden Quartal erhältlich sein, aber erste Adaptive-Sync-Monitore erst 2 Quartale später. Ist doch kein Wunder, dass die Aussagen der Hersteller zu G-Sync konkreter sind. Daraus abzuleiten, dass die Hersteller zurückhaltender sind, ist schon sehr gewagt.

Ist es nicht! Die Hersteller sind nicht energisch genug um sichere Entscheidungen zu suggerieren. Im Gegenteil, bis auf wenige Ausnahmen sind sie sehr zurückhaltend.
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Erstens wird das Modul nicht ewig auf FPGA-Status bleiben und zweitens bestehen Partnerschaften zwischen Nvidia und den Herstellern.

Und da ist für mich persönlich die Frage wie es mit der Abwärtskompatibilität aussieht auf Dauer. Einen Monitor besitzt man recht lang (bei guter Qualität oftmals 5-10 Jahre). NVidia wird GSync sicher noch weiter entwickeln, verbessern, auch Hardwareseitig. Bleibt die Frage: werde ich den gleichen Funktionsumfang mit einem GSync-Monitor der ersten Stunde bei NV-Karten in 5-10 Jahren haben?
 
Relaxo32 schrieb:
Und da ist für mich persönlich die Frage wie es mit der Abwärtskompatibilität aussieht auf Dauer. Einen Monitor besitzt man recht lang (bei guter Qualität oftmals 5-10 Jahre). NVidia wird GSync sicher noch weiter entwickeln, verbessern, auch Hardwareseitig.

Abwärtskompatibilität sicher nicht. Wenn dann sprechen wir eher von Aufwärtskompatibilität! Nvidia wird sicher neue Revisionen des Moduls herausbringen. In erster Linie werden die Nachfolgegenerationen kleiner und günstiger werden.

Relaxo32 schrieb:
Bleibt die Frage: werde ich den gleichen Funktionsumfang mit einem GSync-Monitor der ersten Stunde bei NV-Karten in 5-10 Jahren haben?

Die G-Sync-Monitore werden ihren Funktionsumfang auch in Zukunft nicht verlieren. Du erhälst die Features, die beim Kauf angepriesen werden. Laut verschiedenen Tests ist G-Sync ideal für 4k-Gaming. Damit ist der Käufer für die nächsten Jahre locker versorgt.

Erst wenn dann 8k-HD irgendwann zwischen 2018 bis 2020 erscheint, könnten sich die Bedingungen eventuell ändern. Ich vermute eine Speicherexplosion und möglicherweise sogar neue Anschlüsse. Nvidia wird bis dahin noch so viel aus den alten Modulen quetschen wie möglich. Eine neue Generation macht die alte ja nicht gleich obsolet. Im Gegenteil: Es würde die alten Modelle günstiger machen und ermöglich unter Umständen einen Zweit- oder gar Drittmonitor, wer weiß.

In der IT sind 10 Jahre eine lange Zeit. Überleg doch einmal, vor gut 10 Jahren hatten wir nicht einmal Full-HD. Die heutigen Next-Gen-Konsolen beherrschen immer noch nicht 1080p sicher. Darüber würde ich mir keine Sorgen machen. Full-HD und 4k-UHD werden uns noch eine lange Zeit begleiten.
 
Naja, mir gehts darum das die Zusatzhardware beim PC (Maus, Tastatur, Soundkarte, Festplatten, Monitor) möglichst lange nutzbar sind (Minimum 5 Jahre) Hardware wie Softwaretechnisch.
Durch die Weiterentwicklung des Hardwaremoduls für die Monitore ist halt die Frage, ob zukünftige Karten dann vllt. ältere Module nicht mehr unterstützen.

Naja, vllt erbarmt sich ein Monitorhersteller einen Monitor zubringen mit beiden Funktionen, AdaptiveSync + GSync drinne. Am besten LG oder EIZO, beides Hersteller mit denen ich bisher sehr zufriden bin, mein alter LG Flatron 22" von 2008 funktioniert immer noch ohne Probleme, trotz das er schon einiges mitmachen musste (steht im Spielzimmer für die Nichten/Neffen meiner Freundin).
 
Relaxo32 schrieb:
Naja, mir gehts darum das die Zusatzhardware beim PC (Maus, Tastatur, Soundkarte, Festplatten, Monitor) möglichst lange nutzbar sind (Minimum 5 Jahre) Hardware wie Softwaretechnisch.
Durch die Weiterentwicklung des Hardwaremoduls für die Monitore ist halt die Frage, ob zukünftige Karten dann vllt. ältere Module nicht mehr unterstützen.

Offiziell funktioniert G-Sync laut Nvidia ab der GF-700er Generation aufwärts. Das heißt für GTX800 aka Maxwell und GTX900 Maxwell-Refresh sollte dasselbe Modul auch weiter funktionieren. Danach sind wir schon mindestens 3-5 Jahre in der Zukunft. Der Monitor würde dann weiter funktionieren und könnte notfalls als Zweitgerät verwendet werden.

Eventuell funktionieren ältere Karten in der Zukunft auch noch, nur könnten diese dann nicht die zustäzlichen Features darstellen. Damit kann man sicher leben.


Relaxo32 schrieb:
Naja, vllt erbarmt sich ein Monitorhersteller einen Monitor zubringen mit beiden Funktionen, AdaptiveSync + GSync drinne.

Das halte ich technisch für nahezu unmöglich. Immerhin ersetzt das G-Sync-Modul stellenweise die intern verbaute Technik. Sowohl Nvidia als auch die Displayhersteller müsste dann bei der VESA ihre Geräte für Adaptive-Sync bzw. bei AMD FreeSync testen und lizensieren. G-Sync läuft aktuell noch auf Displayport-Spezifikation 1.2. Ich weiß nicht wie kompatibel die beiden Techniken sind.

Manche Hersteller könnten zwei Steuerungseinheiten verbauen, was aber den Preis wesentlich höher treiben würde.

Bevor wir aber zu sehr spekulieren, warten wir erst einmal fertige FreeSync-Geräte ab. In einem Jahr kann sich viel ändern.
 
Manche Hersteller könnten zwei Steuerungseinheiten verbauen, was aber den Preis wesentlich höher treiben würde.

Das wäre mir persönlich in ca 5 Jahren das Geld dann wert, wenn sich beides gleichgut durchsetzt. Solange keine Bindung an eine Firmentechnologie, ist mir alles egal. Jede Firma kann mal Pech habe bezüglich Hardwareentwicklung (NV = Geforce FX, AMD = HD 2900er Serie). Da eben der Monitor recht lange bei einem bleibt, aber Grafikkarten im Schnitt alle 2-3 Jahre getauscht werden, ja, da hätte ich gerne eine Sicherheit. Aber sowas gibts ja in der Technik-Branche eh nicht. xD

Abwarten, Tee trinken, joa.
 
Sontin schrieb:
Lolwut.
Laut VESA existiert "Adaptive-Sync" schon seit 4 Jahren als eDP und wäre sehr erprobt. Muss man wirklich sagen, da hat AMD ganze Arbeit geleistet nach 4 Jahren nichts vorweisen zu können. :lol:

Genauso muss man auch sagen, tolle Leistung von Nvidia etwas offenes von VESA zu klauen und sich daraus (mal wieder) einen eigenen proprietären Misthaufen zu basteln. Dem es am Ende genauso ergehen wird wie Cuda und PhysX. Warum also? Ich verstehe Nvidia nicht. Noch weniger verstehe ich Leute wie dich, die das auch noch gut finden.
 
Es gab keinen Standard, der diese Technik in Spielen ermöglicht.
Der Standard wurde erst mit Adaptive-Sync auch für's Gaming erweitert.

Aber hey, du kannst nVidia auch kritisieren, dass sie DP benutzen und nicht ihren eigenen Kommunikationskanal. :evillol:
 
Du redest einfach nur Blödsinn und bist ein Nvidia Troll, du hst scheinbar nicht mal eine eigene Meinung, denn deine Meinung entspringt direkt den halbgaren Aussagen der Nvidia Marketingabteilung.
 
Zehkul schrieb:
Genauso muss man auch sagen, tolle Leistung von Nvidia etwas offenes von VESA zu klauen und sich daraus (mal wieder) einen eigenen proprietären Misthaufen zu basteln. Dem es am Ende genauso ergehen wird wie Cuda und PhysX. Warum also?

So einfach ist es auch wieder nicht! Die VESA hat erst kürzlich die DP1.2a-Spezifikation beschlossen. Damit hat man nur eine grobe Grundlage geschaffen. Nvidia wollte anscheinend weiter gehen und ihre eigenen Ideen umsetzen. Dafür mussten sie eine gleiche Hardwaregrundlage schaffen.

Die ersten Tester / Reviews der G-Sync-Module datieren auf Ende 2013 bis Anfang 2014. Das ist im Vergleich zu dem Release von FreeSync locker 1 bis 1,5 Jahre früher.

Von klauen würde ich auch nicht unbedingt sprechen, denn die VESA hat nur Manipulation der Hz/Frames im Sinn gehabt. Bei Nvidia wurden aber weitere Gamerleiden angeegangen. Die Problematik mit (Input-)Lag ist mit Free- und Adaptive-Sync nach momentanem Informationsstand nicht entgegen gewirkt worden.

Das ist der Hauptnachteil vom bisherigen V-Sync, den jeder Pro-Gamer im kompetitiven Bereich hasst. Selbige Fraktion ist auch bereit für etwas wie G-Sync mehr zu zahlen, wenn dieser Nachteil aufgehoben wird. Der Kostenfaktor spielt dabei keine Rolle!


Zehkul schrieb:
Ich verstehe Nvidia nicht. Noch weniger verstehe ich Leute wie dich, die das auch noch gut finden.

Es gibt Leute mit gewissen Qualitätsprinzipien. Nvidia hat einen relativ hohen bzw. gleichbleibenden Qualitätsstandard. Darauf kann man sich verlassen! AMD ist leider zu wankelmütig und nicht immer konsistent. Die Berechenbarkeit eines Herstellers ist für viele ein wichtiges Qualitätsmerkmal.

Darüber kannst du jetzt Gift und Galle spucken, aber es ist einfach so!


smilefaker schrieb:
Du redest einfach nur Blödsinn und bist ein Nvidia Troll, du hst scheinbar nicht mal eine eigene Meinung, denn deine Meinung entspringt direkt den halbgaren Aussagen der Nvidia Marketingabteilung.

Das Gleiche könnte man an dich zurück geben. Warum machst du dich selbst zum AMD-Marketingopfer? Davon hast du doch nichts!
Wo ist die Skepsis oder zumindest eine einfache Nachfrage? Du glaubst AMD blind ohne eine Widerrede. Das tust du nicht weil du es nicht besser weißt, sondern weil du es so glauben willst.


Sontin schrieb:
Es gab keinen Standard, der diese Technik in Spielen ermöglicht.
Der Standard wurde erst mit Adaptive-Sync auch für's Gaming erweitert.

Der Witz an der Sache ist ja, dass DP1.2a eigentlich nur ein Schnellschuss war. Die Medien- und Displayindustrie brauchte schleunigst diese Finalisierung, weil man dringendst 4K-UHD voran treiben will und muss. Adaptive-Sync wurde da nur mehr oder weniger in den optionalen Teil gequetscht.

Ich erwähne das immer wieder, weil eine nicht verpflichtende Unterstützung eigentlich keinen Cent wert ist. Erst wenn die Technik fest in Displayport 1.3 eingebunden ist ---und zwar in den Pflichtteil-- muss jeder Hersteller es einbauen. Erst dann kann man von einem wirklichen Standard sprechen.
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Man kann die Kosten von einer Technologie nicht von auf eine andere übertragen. Die Technik muss komplett neu entwickelt werden. Bei eDP hat man ganz andere interne Schaltungen und Elektrik. Das passt sich nicht magisch an. Die Entwicklungsabeitlung muss das Baby quasi von Grund auf neu hochziehen.
Die AMD-Demo wurde mit einem seit 2013 auf dem Markt befindlichen Monitor mit angepasster Firmware aufgebaut. "komplett neu entwickelt" wurde da nichts. Einige auf dem Markt befindliche Hardware ist bereits variable-refresh-fähig. Es geht hier nicht um komplette Neuentwicklungen, sondern nur um die Anpassung des Hz-Bereichs an 3D-Spiele und um die Spezifikation eines Standardprotokolls, damit das Ganze auch herstellerübergreifend funktioniert.

Hardware_Hoshi schrieb:
Außer Dell / Alienware sind fast alle namhaften Hersteller im Boot.
Auch dem stimme ich nicht zu. Wie ich bereits schrieb, sind für G-Sync und Adaptive-Sync jeweils 5 Hersteller dabei. Zwei (Acer und Benq) planen bislang nur G-Sync-Monitore, und zwei andere (Iiyama und Samsung) bislang nur Adaptive-Sync.
Mehrere andere namhafte Hersteller (Apple. Eizo, HP, LG, Lenovo, NEC, ...) haben weder für das eine noch für das andere etwas angekündigt.

Hardware_Hoshi schrieb:
Die Hersteller sind nicht energisch genug um sichere Entscheidungen zu suggerieren.
Diese Aussage halte ich für Unsinn. Für Produkte, die 3 (oder mehr) Quartale in der Zukunft liegen, bekommt man oft keine konkreteren Herstelleraussagen.
 
Hardware_Hoshi schrieb:
Es gibt Leute mit gewissen Qualitätsprinzipien. Nvidia hat einen relativ hohen bzw. gleichbleibenden Qualitätsstandard. Darauf kann man sich verlassen! AMD ist leider zu wankelmütig und nicht immer konsistent. Die Berechenbarkeit eines Herstellers ist für viele ein wichtiges Qualitätsmerkmal.

Darüber kannst du jetzt Gift und Galle spucken, aber es ist einfach so!

Ich spucke weder Gift noch Galle und falsch ist das obendrein, allzu qualitativ ist das für den Endbenutzer nicht, wenn die Techniken so schnell wieder verschwinden. Wo sind denn die Massen an PhysX Titeln?
Mag ja sein, dass Nvidia Sachen entwickelt, die sich in der Theorie immer wunderbar anhören, wenn es aber niemand verwendet, hilft das herzlich wenig.

Wie gesagt, ich verstehe weder Nvidia noch euch verblendete Fanboys. Man hätte ja eine offene Physikbibliothek schaffen können, einfache Physikimplementation für ne Menge Engines, das hätte die ganze Industrie nach vorn gebracht, stattdessen gab es hübsche Partikeleffekte in ein paar Spielen, und für einige Verrückte war dieser Unfug offenbar auch noch Kaufentscheidend. Na ja, gut dass wenigstens der Zug heute abgefahren ist, aber Nvidia findet natürlich sofort das nächste Steckenpferd. Diesmal aber immerhin etwas halbwegs nützliches, treibt die Konkurrenz an und behindert auch den Kunden nicht, von daher, gibt schlimmeres. Ich hab wirklich nichts gegen G-Sync. AMD braucht ab und an nen guten Tritt in den Hintern, damit Sachen schneller vorangehen, sonst wird das bei denen nie was.
 
Zurück
Oben