News Erstes G-Sync-Display von AOC im Juli verfügbar

Er schreibt doch, dass es sicherlich mehr als 20€, aber keine 200€ werden. Nicht, dass das Modul 20€ kostet...

Das "davon lässt sich ausgehen" war bezogen darauf, dass der Preis des Monitors sicherlich nicht nur 20€ über des dem Non-GSync-Modell liegen wird, sondern eher darüber.
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Auf welcher Grundlage lässt sich davon ausgehen? Du glaubst also das ein G-Sync Modul nur 20€ kostet - wenn es eine 0 Nummer (ohne Gewinn) wäre? Ein Adaptive Sync ("FreeSync") fähiger Scaler ist auf jeden Fall günstiger als ein G-Sync Modul, weil im Vergleich zueinander ein echtes Massenprodukt.

vielleicht hast du mein "NICHT" überlesen, ich gehe eben nicht davon aus, dass nur 20€ für das Gsync fällig wird, außer es fallen andere Kosten am Monitor weg wie Schnittstellen. Dann kann es auf ein Delta von 20€ rauslaufen.

Über die Masse fällt der Preis, ganz klar - das ist beim universalen Scaler für Adaptive Sync welcher von NV + AMD + Intel uvw genutzt werden kann, wird dieser sicher kleiner sein als bei einem Gsync Modul kurz nach Release, auch irgendwie logisch oder?!

Es ist auch anzunehmen dass Gsync , sofern es durch Adaptive Sync komplett überflüssig wird, auch bei Nvidia wieder im Sand verläuft bzw Freesync und Nvidias Gsync Funktion einfach Adaptive Sync von DP 1.2 nutzt - heißt du klickst bei Nvidia im Treiber Gsync an und bei AMD die Funktion Freesync - beide nutzen aber Adaptive Sync welcher sich im DP 1.2 Standard findet.
 
PiPaPa schrieb:
Nein, das stimmt eben nicht das dies komplett eliminiert wird wie auch CB in ihrem Test aufgezeigt hat. Es wird eben nur gemindert.


https://www.computerbase.de/2013-12/nvidia-gsync-test/4/ gell?
Nicht immer nur Marketing Sprüchen glauben.
Da wurden aber auch hauptsächlich Ego Shooter getestet. Und da sind 60 FPS egal mit oder ohne GSync Pflicht. Anders sieht es mit Third-Person (Tomb Raider, Batman, Assassins Creed), Strategiespielen (Anno, Sim City), etc. aus
 
zumal weder PhysX, Mantle oder Gsync noch Adaptive Sync der heilige Gral ist oder sein wird. Dass es immer Games mit Rucklern und Tearing geben wird... logisch, genauso wie es immer Engines geben wird die kein Mantle abkönnen oder Mantle zu DY nix bringen würde.
 
Das Genre ist egal! Fakt ist das G-Sync das Tearing nicht komplett eliminiert, demnach ist die Ausage falsch! Und selbst wenn man nach Genre geht, auch da sieht man das Tearing eben nicht komplett eliminiert wurde.

@Kraut
pardon
 
Wo steht da das Gsync Tearing nicht eliminiert?

Tearing ist bei VSYNC ON und GSYNC ON nicht vorhanden!

Und Tearing bitte nicht mit Stottern oder Rucklern vergleichen ich gehe mal davon aus das Du weißt was Tearing ist.
 
So sieht es nämlich aus. Tearing ist schon bei VSync ON nicht mehr vorhanden. Egal welche Grafikkarte oder Monitor man benutzt. Zum Monitor selbst: schön, dass mal Bewegung in die Sache kommt. Die Preise sind am Anfang so einer Entwicklung immer höher, vor allem wenn es nur ein Gerät zu kaufen gibt, aber ich denke das wird sich schon einpendeln.
 
@PiPaPa
Ich glaube du weißt nicht, was Tearing bedeutet. Schau mal bitte bei Google vorbei :)
Ergänzung ()

Außerdem solltest du den Artikel vielleicht mal richtig lesen:

Tearing durch das gleichzeitige Darstellen mehrerer Bilder in einem Refresh-Zyklus und Stottern durch das Aufschieben von Bildern werden durch G-Sync effektiv verhindert.

Mit G-Sync wirkt das Bild aus einem Guss. Es gibt kein Tearing und kein Stottern.

Die optimale Bildqualität gibt es jedoch nur auf einem 144-Hz-Monitor mit G-Sync. Solch stabile und flüssige Bilder haben wir bis jetzt noch nicht gesehen. Es gibt kein Tearing, kein Stottern und selbst mit 40 FPS wirken die Spiele bei jeder Bewegung noch völlig flüssig.

Im Arbeitsbereich von 30 bis 60 FPS behebt G-Sync die von V-Sync bekannten Nachteile Tearing, Input Lag und Stottern effektiv.
 
Zuletzt bearbeitet:
Ja das Fazit wurde von Computerbase bisl blöd geschrieben. Gerade Fanboys lesen meistens immer nur das was Sie lesen wollen.

Aber fakt ist Tearing gibt es bei Vsync und Gsync nicht. Es minimiert halt das Stottern und den Inputlag.
 
Zuletzt bearbeitet:
Hat hier schon jemand solch einen Monitor mit G-Sync in den Händen gehalten und selbst ausgiebig getestet?

Nach den Beiträgen in diesem Thread scheint G-Sync ja trotzdem das Nonplusultra zu sein.

Na dann hoffen wir mal für die Erstkäufer, dass dem auch so ist. ;)
 
Kann ich auch nicht mehr nachvollziehen. Es ist noch nichts bis auf Werbe-BlaBla gekommen. Hier werden aber teilweise schon Fakten erläutert die auf nichts anderes als Marketing beruhen.

Da schreien die ersten schon kaufen kaufen kaufen. Alles wird gut, weil die Werbung es verspricht.

Relase abwarten, die Tests durchlesen, dann entscheiden. Bis dahin Tee trinken. Aber einige sind schon bereit 800€ für eine Katze im Sack auszugeben nur weil G-Sync und ROG draufsteht….

Werbetrommelofper :evillol:
 
Ich denke schon, dass GSync ein Fortschritt sein wird. Dass damit alle Probleme wie Tearing und Ruckler vollständig behoben werden können, ist wohl nicht zu erwarten. Ein großer Schritt in die richtige Richtung jedoch schon. Ich werde es auf jeden Fall testen.
 
Supermoto schrieb:
Hat hier schon jemand solch einen Monitor mit G-Sync in den Händen gehalten und selbst ausgiebig getestet?
Ich hab zwar keinen GSync Monitor, aber durfte vor ein paar Wochen bei einem Kollegen anlegen

Und ja was soll ich sagen.. für meine Verhältnisse ist der Monitor, wiederholt, einfach jeder verfügbaren Methode um gegen Lags oder Tearing vorzugehen die aktuelle beste Lösung.
Es lieferte in dem Zeitraum in der ich durch Städte gelaufen bin, auf See gefahren bin oder einfach nur gegen Soldaten gekämpft habe ein perfekt flüssiges Bild. Man konnte fast meinen man wäre in einem Film

Ich durfte an Assassins Creed Black Flag anlegen. Bei mir auf dem PC mit 3570k + GTX 780, dass auf 4.5Ghz übertaktet und letzteres auf 1200 Mhz übertaktet wurde, lief es immer wieder mit Rucklern, besonders in Seeschlachten und Städten wie Havanna, der wohl schlecht optimierteste Fleck in Black Flag.

Ich hatte zwar nur den Abend bis zum darauf folgenden Mittag Zeit, aber konnte durchgehend ein perfektes Bild in mein Sichtfeld nehmen. Da war einfach nix, keine Ruckler, kein Tearing. Und das mit noch höheren Settings wie bei mir. Und ja, ich bin nicht Blind. Ich bin sogar gegen Lags sehr empfindlich :rolleyes:

In meinen Augen könnte das Feature ohne große Reden zu schwingen der Gamechanger der Zukunft werden. Spiele die miserabel programmiert wurden, mit Framedrops zu kämpfen haben werden mit GSync einfach in den Hintergrund gesteckt.
Mich würde es auch nicht Wundern, wenn jeder Watchdogs mit einem GSync Monitor gespielt hätte, diese ganzen Performance Parolen nicht darbieten würden

PS: Als Monitor wurde übrigens ein gemoddeter Asus Panel verwendet
 
Hört sich fast zu gut an aber andere Reviewer teilen die Begeisterung, vorallem bei kleineren Frameraten unter 60 FPS. Das ermöglicht auch eben mit oftmals weniger FPS auszukommen um flüssiges Bild zu haben, zugunsten der Quali.

Man muss sich nur überlegen was Leutz für ne Diskussion um den 24p Bug bei Intel gemacht haben wegen nen Mikroruckler alle paar Min, während man es im Gaming garnicht anders gewohnt ist als fortlaufend weit schlimmere Microruckler zu haben...

Naja, mich macht es neugierig und ich bin gespannt auf Tests. Für nen guten Monitor gebe ich gern mehr aus als für die GPU. >fullHD muss es sein...IPS wären bei mir auch Pflicht außer es ist ein super TN.
 
Zuletzt bearbeitet:
Ich bin wirklich mal gespannt auf beide dieser Synchronisierungs-techniken!

120Hz Monitor finde ich hat bei mir deutlich was gebracht, natürlich mit ordentlich Graka-Power gepaart, aber eben viel schöner anzusehen.

Ich freue mich jedenfalls drauf und wenn nVidia wie gewohnt weiterhin die besten Grafikkarten baut, dann wird´s logischerweise GSync denn laut dem damaligen CBase-Test, meine ich mich zu erinnern, soll diese Technik wohl die bessere sein und Qualität ist bei mir eben primär. Aber natürlich auch nicht zu jedem Preis!
 
Jup, der ASUS ROG Swift PG278Q funzt beispielsweise nur mit DP 1.2, weil die Bandbreite für ein 1.4 HDMI-Kabel schon gar nicht mehr ausreicht.
 
Naja TN und dann 400€ nää.
Bei dem Asus kommt auch nix tolles raus 8Bit TN jaja erzählen kann man viel aber was am ende wieder raus kommt ist nen 0815 TN Panel.
Wär mal an der zeit paar schnelle IPS Panels zu bringen und sich net immer im kreis zu drehen.
 
Zurück
Oben