Der Grund warum Nvidia ein eigenes Modul verbaut ist einfach dass die GPU das VBLANK Signal nicht sendet. AMDs GPUs haben das schon seit 3 Generationen integriert und nutzen den eDP im mobilen Bereich um mit dieser Technik Strom zu sparen bei Paneln mit Selfrefresh. Nvidia musst diese Funktion eben extern irgendwo unterbringen. Somit können aktuelle Nvidia GPUs auch kein AdaptiveSync nutzen und Nvidia müsste da etwas grundlegendes ändern in den kommenden GPU Generationen...nur wird selbst der Maxwell Nachfolger schon zu weit fortgeschritten sein um da noch etwas in der Richtung zu ändern.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News FreeSync bei Nvidia ist „sehr unwahrscheinlich“
- Ersteller MichaG
- Erstellt am
- Zur News: FreeSync bei Nvidia ist „sehr unwahrscheinlich“
Dan Kirpan
Banned
- Registriert
- Dez. 2008
- Beiträge
- 1.333
Dann sollen sie halt nicht Adaptive Sync unterstützen, wen interssiert das schon. Nvidia Käufer sollten lieber 200 Euro mehr bezahlen um das selbe zu bekommen. Dann können sie G-Sync mit ihrer kastrierten GTX 970 nutzen.
Nvidia ist so ein komischer Laden. Merkwürdig, dass die sich in den Zeiten von Freier Marktwirtschaft, auch nur in einem Mindestmaß am Markt behaupten können.
Nvidia ist so ein komischer Laden. Merkwürdig, dass die sich in den Zeiten von Freier Marktwirtschaft, auch nur in einem Mindestmaß am Markt behaupten können.
UltraWurst
Banned
- Registriert
- Aug. 2014
- Beiträge
- 2.269
Oh Mann ... dieser Tom Petersen geht echt gar nicht.
Jedes Mal, wenn der den Mund aufmacht, überlege ich ernsthaft, NVidia in Zukunft komplett zu meiden.
Jedes Mal, wenn der den Mund aufmacht, überlege ich ernsthaft, NVidia in Zukunft komplett zu meiden.
noxon
Admiral
- Registriert
- Sep. 2004
- Beiträge
- 7.570
PiPaPa schrieb:Bekannte Infos:
G-Sync Vorteile:G-Sync Nachteile:
- auf dem Markt (Funktionsfähigkeit sollte man voraussetzen)
- Laut Marketing besser - was man davon zu halten hat wird man sehen
- teuer, aufgrund des FPGA
- funktioniert ausschließlich mit nvidia Karten (und wird niemals für Dritte geöffnet werden)
- verbraucht mehr Energie als Adaptive Sync fähige Scaler
- ca. 7 Geräte auf dem Markt, gerade mal ein neuer Monitor angekündigt
- Bisher nur TN Panel
- Nur 1 DP Anschluss verfügbar, HDMI, DVI, VGA etc nicht vorhanden!
Adaptive Sync Vorteile
- günstiger in der Anschaffung
- (freiwilliger) VESA Standard, daher jedes VESA Mitglied kann ohne zusätzliche Lizenzgebühren AS verwenden, also auch Konsolen, Fernseher, Beamer usw
- Schon jetzt mehr Monitore angekündigt als für G-Sync auf dem Markt
- verwendete Scaler sind Massenware
- IPS Panel werden unterstützt, vermutlich alle Panel Typen auf dem Markt
Adaptive Sync Nachteile
- muss sich noch beweisen
- nvidia unterstützt es aus eigennützigen Gründen nicht, sprich um sich nicht selber Konkurrenz zu machen.
Das hast du dir ja schön zusammengestellt.
1. Das mit der Energie kannst du ja wohl vergessen. Zeig mir mal wie viel das sein soll. Beim Monitor mit 40 Watt im Betrieb kann dass ja wohl keine große Rolle spielen und selbst wenn das 10 Watt mehr sind, dann kostet dich das im Dauerbetrieb im Jahr nur ein paar Euro. Im Vergleich zu den Kosten des Monitors fällt das überhaupt nichts in's Gewicht.
2. 144 Hz IPS-Panel gibts auch bald. Du glaubst doch nicht, dass Monitorhersteller G-Sync Monitore nur mit niedrig qualitativen Paneln anbieten und die guten Panel für Freesync Monitore vorbehalten oder was willst du mir hier erzählen?
3. G-Sync funktioniert nur über DP. Das heißt aber nicht, dass die Monitore nicht auch andere Anschlüsse besitzen können. Das ist dort nicht anders als bei einem Freesync Monitor.
4. Die Scaler sind im Übrigen auch nicht gerade Massenware. Die werden auch von einem von drei Unternehmen speziell gefertigt um Freesync unterstützen zu können. Die stink normalen Scaler aus einem Standard-Monitor kannst du dafür nicht verwenden.
Das G-Sync Modul ist sicherlich teurer und wie hoch die Lizenzgebühren an nVidia dabei sind ist auch unbekannt, aber einen Aufpreis zahlst du in beiden Fällen.
Entscheiden muss letztendlich der Kunde über das Preis/Leistungsverhältnis. Ich bin jedenfall jemand den es praktisch gar nicht auf's Geld ankommt, solange die Qualität dahinter stimmt. Dann bezahl ich auch vierstellige Beträge für den Monitor. Das war damals zu CRT Zeiten ohnehin Standard. Erst seit es die TFTs gibt sind auf einmal alle so knauserig geworden und jeder will auf einmal einen Monitor für 100€ haben.
Das werden die ersten Tests zeigen. Ich fälle vorher jedenfalls kein Urteil wie die Meisten hier und verteufle G-Sync bloß weil's kein offener Standard ist.Ich wüßte jetzt nicht wirklich was außer der puren Verfügbarkeit auch nur für nvidia spricht.
Mir persönlich ist das vollkommen egal, wenn sich später rausstellt, dass G-Sync geringere Input Lags verursacht als FreeSync oder solche Dinge.
Ein Nachteil von Freesync ist mir auch jetzt schon bekannt, der mich auf jedenfall bei 60 Hz Monitoren stören würde. Sobald man bei Freesync Frameraten über 60 fps erreicht schaltet Freesync auf VSync um und man hat wieder die typischen Input Lags die durch VSync verursacht werden.
G-Sync hat das Problem hingegen nicht. G-Sync kann aufgrund seines Puffers das Tearing weiterhin verhindern indem der Monitor nur 60 Mal pro Sekunden refresht wird und dennoch wird der Input Lag so minimal wie möglich gehalten indem das Spiel mit seiner maximalen Framerate abläuft.
Bei einem 144 Hz Monitor spielt das Ganze sicherlich schon nicht mehr so eine wichtige Rolle, da es wohl sehr wenige gibt, die mit mehr als 144 fps spielen.
Das G-Sync Modul kann übrigens auch im ULMB Modus betrieben werden, wenn man möchte. Dann muss man allerdings auf die Sync Funktion verzichten. Ich hoffe, dass es irgendwann vielleicht auch mal ein Update oder sowas gibt, dass ein gleichzeitigen Betrieb beider Modi zulässt. Ich hoffe das ist technisch möglich.
G-Sync ist also etwas vielseitiger als Freesync und ich wäre gerne bereit ein paar Euro mehr dafür zu bezahlen, wenn es mir ein paar Vorteile bieten würde obwohl mir letztendlich eh nichts anderes übrig bleibt, da ich mir eh nie wieder eine AMD Graka kaufen werden. Seit meiner X800 sind jegliche Wechselversuche von nVidia zurück zu AMD die reinste Katastrophe gewesen und ich habe es immer wieder bereut. Seit dem kommen bei mir nur noch nVidia Karten in den Rechner. Von daher ist für mich eigentich egal, was besser oder schlechter ist. Hoffen wir mal, dass beide Verfahren gut funktionieren.
Könntest du eine Quelle verlinken die belegt, dass Freesync ab 60 FPS zwingend VSync einschaltet? Und warum bei GSync der inputlag trotz zusätzlichen Puffers kleiner sein soll und wie das technisch gelöst wurde.
Und das GSync vielseitiger sein soll höre ich gerade das erste mal. Stand heute gibt es kein IPS mit GSync Modul und ebenfalls keine DVI, VGA oder HDMI. Und bisher gibt es auch kein Technisches Dokument das zeigt wie ein GSync Modul diese anbindet. Der Frequenzbereich ist deutlich eingeschränkter als bei AdaptivSync.
30-144 Hz anstatt 9-260 Hz
Ob bei höheren Monitorfrequenzen VSync aktiv wird, hängt ausschließlich von der max. Frequenz des Monitors ab und führt bei GSync ebenfalls zum selben Effekt wenn ein Panel nur 60 oder 75 Hz kann. Nur dass ASync im Gegensatz zu Nvidias Lösung auch 24 oder 23,94 FPS kann wenn die Flüssigkristalle des Panels hochwertig genug sind.
Und das GSync vielseitiger sein soll höre ich gerade das erste mal. Stand heute gibt es kein IPS mit GSync Modul und ebenfalls keine DVI, VGA oder HDMI. Und bisher gibt es auch kein Technisches Dokument das zeigt wie ein GSync Modul diese anbindet. Der Frequenzbereich ist deutlich eingeschränkter als bei AdaptivSync.
30-144 Hz anstatt 9-260 Hz
Ob bei höheren Monitorfrequenzen VSync aktiv wird, hängt ausschließlich von der max. Frequenz des Monitors ab und führt bei GSync ebenfalls zum selben Effekt wenn ein Panel nur 60 oder 75 Hz kann. Nur dass ASync im Gegensatz zu Nvidias Lösung auch 24 oder 23,94 FPS kann wenn die Flüssigkristalle des Panels hochwertig genug sind.
Zuletzt bearbeitet:
Ginko
Ensign
- Registriert
- Feb. 2007
- Beiträge
- 203
Daedal schrieb:Könntest du eine Quelle verlinken die belegt, dass Freesync ab 60 FPS zwingend VSync einschaltet?
Hatte da letztens auch ein Video von der CES gesehen, in dem das von einem Reporter gesagt wurde. Aber sollte man das nicht einfach durch einen FPS-Limiter umgehen können? Naja, man wird's sehen
fanatiXalpha
Fleet Admiral
- Registriert
- Aug. 2011
- Beiträge
- 13.689
naja, Free-Sync ist ja eh noch nicht ganz fertig so wie ich das verstanden hatte
zum Zeitpunkt der CES war das so
aber wenn die von größeren Bildwiederholraten als 60Hz reden, dann ist das nachher auch drin
zum Zeitpunkt der CES war das so
aber wenn die von größeren Bildwiederholraten als 60Hz reden, dann ist das nachher auch drin
IXI_HADES_IXI
Commodore
- Registriert
- Apr. 2006
- Beiträge
- 4.252
Wenn ich das richtig verstehe heißt das seitens Nvidia kurz und knapp eigentlich nicht anderes als, sollte sich das hausinterne Gsync nicht durchsetzen können gibts eben Free-sync...
noxon
Admiral
- Registriert
- Sep. 2004
- Beiträge
- 7.570
Ich weiß nicht mehr genau wo ich es her habe, aber hier steht's auch.Daedal schrieb:Könntest du eine Quelle verlinken die belegt, dass Freesync ab 60 FPS zwingend VSync einschaltet? Und warum bei GSync der inputlag trotz zusätzlichen Puffers kleiner sein soll und wie das technisch gelöst wurde.
For FreeSync (and the Adaptive Sync standard as a whole), when a game renders at a frame rate above or below this VRR window, the V-Sync setting is enforced
Die Funktionseise ist auch recht einfach zu erklären. Nehmen wir mal an dein Spiel läuft mit 180 fps und dein Monitor schafft nur 60 Hz. Damit könnte dein Spiel drei Mal so viel Bilder rendern wie dein Monitor sie darstellen könnte.
FreeSync kann nichts anderes machen als die Engine des Spiels auf die Geschwindigkeit des Monitors zu drosseln, damit nicht wieder ein Tearing Effekt entsteht. Deswegen wird VSync aktiviert. Das Spiel läuft also maximal mit 60 fps und damit erhöht sich auch der Input Lag für Maus und Keyboard Eingaben im Vergleich zu den theoretisch möglichen 180 fps. Die Input Devices können eben immer nur alle 16 ms abgefragt werden anstatt alle 5 ms.
Wo liegt nun der Unterschied zu G-Sync?
Ein G-Sync Monitor akzeptiert von der Grafikkarte so viele Bilder wie möglich und speichert sie immer wieder in dem Puffer des G-Sync Moduls. Das Spiel läuft also mit vollen 180 fps und liefert auch 180 Bilder pro Sekunde an das G-Sync Modul.
Allerdings holt sich der Monitor immer nur jedes dritte Bild aus dem G-Sync Puffer da der Monitor eben nur mit 60 Hz aktualisiert.
So verhindert G-Sync auch Tearing und trotzdem läuft das Spiel immer noch mit Frameraten über der Refreshrate des Monitors.
So etwas geht eben nur mit zusätzlicher Hardware und nicht durch einfaches synchronisieren von Monitor und Grafikkarte.
Bei 60 Hz Monitoren würde mir wegen diesem kleinen Unterschied noch ein klein wenig Gedanken machen. Bei 144 Hz Monitoren hingegen nicht mehr. Wer spielt seine Spiele schon mit mehr als 144 fps?
Probleme gibt es allerdings auch an der Untergrenze. Wenn es geht sollte das Spiel schon konstant über 30 fps liegen.
Zuletzt bearbeitet:
HightechNick
Cadet 4th Year
- Registriert
- Dez. 2014
- Beiträge
- 70
So lange nVidia den größeren Marktanteil bei Gamer-Grafikkarten hat, zieht das auch entsprechende Gamer-Monitore nach sich und so lange kann es sich nVidia problemlos leisten FreeSync/AdaptiveSync nicht zu unterstützen.smilefaker schrieb:Lächerlich einen offenen Standard nicht zu supporten, das können die sich mMn imho nicht auf Dauer leisten.
Im Gegenteil kann man sich damit den aktuellen Vorsprung beim Marktanteil für die Zukunft sichern. Denn wer jetzt z.B. eine GTX9xx mit G-Sync-Monitor kauft, wird zwangsläufig in 2-3 Jahren wieder eine nVidia Grafikkarte kaufen, selbst wenn diese in dieser Grafikkartengeneration vielleicht minimal schlechter als eine AMD-Karte sein sollte.
smilefaker schrieb:Ich gehe jede Wette ein, dass Nvidia das unterstützen wird. Die Bewegen sich bis jetz nur nicht, weil sie keine Lust haben. Wird der Druck zu groß machen sie was.
Wenn sich die Notwendigkeit ergibt, wird nVidia sicher entsprechend handeln. Im Gegensatz zu AMD haben sie diese Möglichkeit ja jederzeit. Ich sehe aber nicht, dass jetzt hunderte spieletaugliche FreeSync/AdapativeSync-Monitore kurzfristig auf uns zukommen, so lange diese nur an Grafikkarten des zurückliegenden Herstellers nutzbar sind. Das wird sehr viel länger dauern und auch nur, wenn sich nVidia bei den Grafikkarten einen längeren Durchhänger erlaubt.
Rein über die Anzahl der Monitore wird sich das nicht lösen lassen. So lange es nVidia gelingt jede Zielgruppe (4k, 1440p, Ultra-Wide, TN/VA/IPS) mit entsprechenden Monitoren zu versorgen ist es relativ egal ob es jetzt AMD ein paar Monitore mehr im FreeSync-Sortiment anbieten kann.
Sollte sich nVidia die Zusammenarbeit von mind. einen hochwertigen Hersteller (z.B. Eizo oder NEC) sichern können, sieht es sogar noch besser aus.
Naja, FreeSync Monitore gibt es noch gar nicht. Und ein IPS-Gerät mit G-Sync ist für März angekündigt. Inwiefern ist das also ein Nachteil/Kritikpunkt?Daedal schrieb:Zudem gibt es GSync-Monitore nicht mit DVI, VGA, HDMI oder IPS-Panel.
Weitere Anschlüsse wie VGA, HDMI, DVI braucht man am PC nicht - dort ist DP-Port aktuell klar der beste Anschlusstyp. HDMI und DVI zusätzlich einzubauen steht jedem Hersteller frei - die müssen dann auch nicht unbedingt über das G-Sync Modul laufen, da man sie ohnehin nur für Konsolen & Co. braucht, die mangels nVidia Grafikkarte G-Sync nicht nutzen können.
In welcher Form fliege ich aufs Maul? Mein G-Sync-Monitor wird nicht aus der Ferne deaktiviert und unbrauchbar, nur weil ein anderer Standard evtl. größere Verbreitung findet oder nVidia diesen irgendwann ebenfalls unterstützt.supergulu schrieb:Jetzt kaufen sich alle gsync monitore dann wird nvidia doch adaptive sync unterstützen dann fliegen genau die personen aufs maul. Und die adaptive sync besitzer freuen sich.
Der einzige Nachteil ist, dass ich während der Nutzungszeit nicht zu AMD wechseln kann. Dafür sehe ich aber auf absehbare Zeit auch keine Notwendigkeit. Rein von der Performance werden die beiden Hersteller auf Grund von technische Rahmenbedingungen (Fertigungsmethoden) immer eng zusammenliegen - und bei den Features hat AMD in den letzten 10 Jahren nichts hervorgebracht was ich haben wollte (im Gegensatz zu nVidia).
@noxon
1. Ein FPGA ist nicht besonders effektiv. Er ist ein frei programmierbarer Chip dem man beibringen muss was er zu machen hat und nicht auf diese Aufgabe optimiert ist.
Dazu gesellen sich zu dem FPGA noch 768MB DDR3 Speicher. Dieser muss genauso mit Energie versorgt werden.
Die AS fähigen Scaler hingegen sind genau darauf ausgelegte Bausteine, die ursprünglich für den mobilen Bereich (beinhaltet Notebooks, Tablets, Smartphones) entwickelt wurden und dort Anwendung finden.
Was wird wohl also mehr Energie verbrauchen. Ein für mobile Geräte optimiertes Bauteil oder ein "Alleskönner" mit 768MB DDR 3 Speicher!?
Und was heißt hier "wenn es nur 10W mehr sind"
Sonst wird doch immer darauf gepocht und wenn bei einem Monitor mit 40W 25% der Energie nur für das G-Sync Modul drauf geht.
Ebenso hat man zB beim AoC Monitor im StandBy gemessen das dieser (min. 15min lang noch) 13,x Watt gezogen hat.
2. Der Monitor wurde angekündigt. Gut.
3. Keiner der G-Sync Monitore hat mehr als den DP Anschluss. Auch nicht der neu angekündigte. Auf dem G-Sync Modul / der Plstine gibt es keine Leiterbahnen o.ä. oder irgendwelche Hinweise das andere Anschlüsse irgendwie möglich sein können.
4. Die AS Scaler sind Massenware, sie werden seit Jahren in Notebooks, Tablets und Smartphones zum Energiesparen verbaut und werden nicht extra für Adaptive Sync hergestellt.
AMD hat sich die Fähigkeiten der bereits existierenden Scaler zu Nutze gemacht.
Das ist nichts was neu entwickelt werden musste oder sonstwas.
Es ist ein seit Jahren verfügbares und funktionierendes Bauteil.
@HighTechNick
G-Sync stellt sich gegen AdaptiveSync, einen für alle VESA Mitglieder lizenzfreien (noch? freiwilligen) Standard.
Und je mehr Monitore mit AdaptiveSync Unterstützung in den Handel kommen und verkauft werden, desto mehr Druck wird auf nvidia ausgeübt.
1. Ein FPGA ist nicht besonders effektiv. Er ist ein frei programmierbarer Chip dem man beibringen muss was er zu machen hat und nicht auf diese Aufgabe optimiert ist.
Dazu gesellen sich zu dem FPGA noch 768MB DDR3 Speicher. Dieser muss genauso mit Energie versorgt werden.
Die AS fähigen Scaler hingegen sind genau darauf ausgelegte Bausteine, die ursprünglich für den mobilen Bereich (beinhaltet Notebooks, Tablets, Smartphones) entwickelt wurden und dort Anwendung finden.
Was wird wohl also mehr Energie verbrauchen. Ein für mobile Geräte optimiertes Bauteil oder ein "Alleskönner" mit 768MB DDR 3 Speicher!?
Und was heißt hier "wenn es nur 10W mehr sind"
Sonst wird doch immer darauf gepocht und wenn bei einem Monitor mit 40W 25% der Energie nur für das G-Sync Modul drauf geht.
Ebenso hat man zB beim AoC Monitor im StandBy gemessen das dieser (min. 15min lang noch) 13,x Watt gezogen hat.
2. Der Monitor wurde angekündigt. Gut.
3. Keiner der G-Sync Monitore hat mehr als den DP Anschluss. Auch nicht der neu angekündigte. Auf dem G-Sync Modul / der Plstine gibt es keine Leiterbahnen o.ä. oder irgendwelche Hinweise das andere Anschlüsse irgendwie möglich sein können.
4. Die AS Scaler sind Massenware, sie werden seit Jahren in Notebooks, Tablets und Smartphones zum Energiesparen verbaut und werden nicht extra für Adaptive Sync hergestellt.
AMD hat sich die Fähigkeiten der bereits existierenden Scaler zu Nutze gemacht.
Das ist nichts was neu entwickelt werden musste oder sonstwas.
Es ist ein seit Jahren verfügbares und funktionierendes Bauteil.
@HighTechNick
nvidia muss nicht mit AMD konkurrieren. Nicht im eigentlichen Sinne. nvidia muss mit einer Vielzahl an Monitorherstellern konkurrieren.So lange nVidia den größeren Marktanteil bei Gamer-Grafikkarten hat, zieht das auch entsprechende Gamer-Monitore nach sich und so lange kann es sich nVidia problemlos leisten FreeSync/AdaptiveSync nicht zu unterstützen.
G-Sync stellt sich gegen AdaptiveSync, einen für alle VESA Mitglieder lizenzfreien (noch? freiwilligen) Standard.
Und je mehr Monitore mit AdaptiveSync Unterstützung in den Handel kommen und verkauft werden, desto mehr Druck wird auf nvidia ausgeübt.
Zuletzt bearbeitet:
noxon
Admiral
- Registriert
- Sep. 2004
- Beiträge
- 7.570
Die FPGAs enthalten aber auch dedizierte Komponenten für die Signalverarbeitung. Nicht alles in dem Chip ist handgeschrieben. Es gibt natürlich auch FPGAs, die speziell für Videosignalverarbeitung ausgelegt sind und dementsprechend auch optimierte Schnittstellen dafür bereitstellen. Abgesehen davon. Was spielt das für eine Rolle, wenn der Chip schnell genug für seine Aufgabe ist?PiPaPa schrieb:1. Ein FPGA ist nicht besonders effektiv. Er ist ein frei programmierbarer Chip dem man beibringen muss was er zu machen hat und nicht auf diese Aufgabe optimiert ist.
Der Vorteil eines FPGAs ist allerdings, dass nVidia jetzt noch jederzeit Änderungen am Chip vornehmen kann ohne die Hardware ersetzen zu müssen. So könnte es tatsächlich einmal Updates geben, die neue Features bereitstellen. FreeSync hingegen wird auf alle Ewigkeit nur das Sync Feature unterstützen.
G-Sync unterstützt heute schon ULMB, was man hoffentlich irgendwann in Kombination zum Sync Feature nutzen kann. Technisch dürfte eigentlich nichts dagegen sprechen.
Na und? Was hast du denn mit deinem Stromverbrauch?Dazu gesellen sich zu dem FPGA noch 768MB DDR3 Speicher. Dieser muss genauso mit Energie versorgt werden.
Mal angenommen der Speicher verballert tatsächlich 1 Watt und der Monitor läuft 24/7, dann würden folgende Zusatzkosten auf die zukommen.
pro Tag: 0,02 kWh 0,01 €
in der Woche: 0,17 kWh 0,05 €
in 4 Wochen: 0,67 kWh 0,19 €
in einem Jahr: 8,74 kWh 2,45 €
in 5 Jahren: 43,68 kWh 12,23 €
in 10 Jahren: 87,36 kWh 24,46 €
Wird ja echt sau teuer.
Also ich hab nur mal ne kleine Google Suche durchgeführt und sofort den BenQ gefunden. Specs3. Keiner der G-Sync Monitore hat mehr als den DP Anschluss. Auch nicht der neu angekündigte. Auf dem G-Sync Modul / der Plstine gibt es keine Leiterbahnen o.ä. oder irgendwelche Hinweise das andere Anschlüsse irgendwie möglich sein können.
Der hat HDMI, DVI und DP Anschlüsse. Natürlich gehen die HDMI und DVI Anschlüsse nicht über das G-Sync Modul, aber möglich ist das allemal zusätzliche Anschlüsse zu implementieren.
AMD hat sich die Fähigkeiten der bereits existierenden Scaler zu Nutze gemacht.
Das ist nichts was neu entwickelt werden musste oder sonstwas.
Es ist ein seit Jahren verfügbares und funktionierendes Bauteil.
Na dann verstehe ich die Pressemitteilung von AMD nicht.
Klingt für mich so, als ob sie sich erst mit den Herstellern in Kontakt gesetzt haben um diese neuen Adaptivesync-ready Scalers zu fertigen. Es ist nicht so, als ob es die schon immer gegeben hätte und man die alten Scaler ohne weitere Änderungen einfach übernehmen könnte. Es handelt sich hierbei also nicht um Massenware sondern um spezielle Scaler die momentan noch speziell für FreeSync Monitore hergestellt werden.Under the technology partnerships, MStar, Novatek and Realtek each will develop a range of DisplayPort™ Adaptive-Sync-ready scalers to complement the new monitor product cycle in 1Q15.
PS: Ich habe gerade noch folgenden Artikel entdeckt
Echtzeit-Videoverarbeitung besser über FPGA betreiben
Wie es aussieht macht nVidia das also schon ganz richtig so. Ich denke auch mal, dass die etwas mehr Ahnung von dem haben, was sie dort machen, als wir Beide, meinst du nicht?
Zuletzt bearbeitet:
cvzone
Fleet Admiral
- Registriert
- Okt. 2004
- Beiträge
- 18.546
Necareor schrieb:Warum sollen sie sich das denn nicht leisten können? Nicht in Mantle zu supporten, konnten sich Nvidia und Intel ja auch leisten.
Was jetzt nicht verwundert bei einer Low-Level API. Die können ja nicht einfach von jetzt auf gleich ihre Hardware umzaubern.
AndyMutz
Commander
- Registriert
- Dez. 2007
- Beiträge
- 2.966
hier behauptet einer, dass er g-sync auf monitoren ohne g-sync modul zum laufen bekommen hat:
http://gamenab.net/2015/01/24/nvidia-g-sync-hack-working-on-every-monitor/
http://gamenab.net/2015/01/26/truth...using-vesa-adaptive-sync-technology-freesync/
-andy-
http://gamenab.net/2015/01/24/nvidia-g-sync-hack-working-on-every-monitor/
http://gamenab.net/2015/01/26/truth...using-vesa-adaptive-sync-technology-freesync/
-andy-
noxon
Admiral
- Registriert
- Sep. 2004
- Beiträge
- 7.570
Wer soll das denn glauben? Dafür braucht man auch nen dicken FPGA und 768 MB Speicher oder was? Die Komponenten da drauf sind alle nur Fake?Basically the NVIDIA drivers control everything between the G-sync Module and the Geforce GPU. The truth is that the G-sync Module does nothing else than confirm that the module is right here.
Wer die Kommentarfunktion in seinen YouTube Videos deaktiviert kommt mir sowie so schon immer sehr suspekt vor. Das sind die, die immer nur Bullshit verbreiten und sich keiner Kritik stellen können.
Alleine seine Erklärung die zeigen soll, wie G-Sync funktioniert zeigt doch schon, dass er nicht weiß wie es funktioniert. G-Sync schaltet eben nicht in den V-Sync Modus um wie Adaptive-Sync, wenn die Framerate die Refreshrate des Monitors übersteigt.
Zuletzt bearbeitet:
Hab von der G-sync Technik nicht wirklich Ahnung, aber für mich hört sich das so an, als würde G-Sync in dem Fall einfach intern im Monitor V-Sync +Tripple Buffer aktivieren. Worin da jetzt der Vorteil gegenüber dem gleichen Vorgehen in der Graka sein soll ist mir nicht wirklich klar.noxon schrieb:G-Sync schaltet eben nicht in den V-Sync Modus um wie Adaptive-Sync, wenn die Framerate die Refreshrate des Monitors übersteigt.
ich bin mir nicht sicher aber die ganze diskussion könnte! hinfällig sein
http://gamenab.net/2015/01/26/truth...using-vesa-adaptive-sync-technology-freesync/
http://gamenab.net/2015/01/26/truth...using-vesa-adaptive-sync-technology-freesync/
Natürlich ist sie hinfällig. GSync auf einem Laptop der mit eDP angebunden ist und kein GSync Modul verbaut hat. Der Treiberhack hat die DRM Abfrage nach dem GSync-Modul raus genommen und schwups läuft die Nvidia GPU mit AdaptiveSync im VESA-kompatiblen Modus=Freesync.
Damit ist bewiesen, das dieses Modul keinerlei Funktion hat. Ich vermutete ja immer, dass Nvidias GPUs kein Vblank senden können und daher dieser umständliche Weg nötig ist - das hier ist ja noch eine Nummer schärfer.
Den Treiber kann jeder runterladen und es testen.
@noxon
Und zudem hast du die Funktionsweise dir aus der Nase gezogen, denn das GSyn Modul kann max. 3 frames puffern und das ist auch nichts anders als ein herkömmlicher triple-buffer. Du redest davon 120 Frames vorzuhalten wenn nur 60Hz beim Bildschirm anliegen...und wenn jeder dritte ausgegeben wird ist das ja die größte Ruckelorgie die man haben kann, zusätzlich zu 2 ganzen Frames Inputlag!
Damit ist bewiesen, das dieses Modul keinerlei Funktion hat. Ich vermutete ja immer, dass Nvidias GPUs kein Vblank senden können und daher dieser umständliche Weg nötig ist - das hier ist ja noch eine Nummer schärfer.
Den Treiber kann jeder runterladen und es testen.
@noxon
Und zudem hast du die Funktionsweise dir aus der Nase gezogen, denn das GSyn Modul kann max. 3 frames puffern und das ist auch nichts anders als ein herkömmlicher triple-buffer. Du redest davon 120 Frames vorzuhalten wenn nur 60Hz beim Bildschirm anliegen...und wenn jeder dritte ausgegeben wird ist das ja die größte Ruckelorgie die man haben kann, zusätzlich zu 2 ganzen Frames Inputlag!
Ähnliche Themen
- Antworten
- 394
- Aufrufe
- 49.241
- Antworten
- 11
- Aufrufe
- 1.132
- Antworten
- 6
- Aufrufe
- 833
0
- Antworten
- 2
- Aufrufe
- 5.875
- Antworten
- 21
- Aufrufe
- 5.804