News Acer XB280HK kombiniert G-Sync mit 8,3 Mio. Pixeln

Schönes teil, abgesehen von den G-sync/Free-sync streitereien.

aber IMHO müsste das 32" 21:9 sein. Gerade für Games und in der Grösse ist der breitere FoV einfach wundervoll!



hasebaer schrieb:
Mit G-Sync braucht man keine hohen FPS Zahlen für ein flüssiges Bild.
Braucht man sehr wohl! Es wird nur weniger Tearing/schlieren effekte haben! Aber rucklige bildwiedergabe gibts bei zu geringen FPS genau gleich!

Trimx schrieb:
Ähm ihr wisst schon das das auge nur 24 bielder warnehmen kann ?

Bis 60 ist dann nur noch bessere qualie aber bewgungs ablauf ist der selbe ;)

Kenns du das Video mit dem Pinguin ? "Wenn man keine Ahnung hat, einfach mal......


User3000 schrieb:
Nein das mit den 24 stimmt überhaupt nicht informier dich mal lieber:)
Das war ein gerücht lange Zeit hab i wo gelesen das manche noch 140-160sehen können
John Carmack hat in einem Interview mal erwähnt dass das Auge in der lage sei Bewegungen bis zu 250 FPS wahr zu nehmen.
Und der hat sich wegen dem occulus rift schliesslich mit dem Thema befasst!
 
Jo genau. Was passiert wenn die nächste NV-Generation die Erwartungen nciht ganz erfüllt(so wie die aktuelle eigentlich schon - zumindest ist das meine Sicht der Dinge) und/oder AMD/ATi's nächste Generation noch schneller/günstiger ist im direkten Vergleich? Was mach ich dann? Kaufe ich die teuere/langsamere NV-Karte nur weil mein Monitor G-Sync hat oder lebe ich mit TEARING/STUTTERING?

...G-Sync ist nur der klägliche Versuch Kunden zu binden ohne mehr Leistung erbringen zu müssen und damit auch nocht Lizenzgebühren zu verdienen. Ein klassicher Marketing/Managertraum, der dem Kunden nur Nachteile schafft.




soweit ich mich erinenre ist die bildsynchonisation effektiv genug um zu sagen daß sich mit Sync(G- oder A-) sich 40fps genauso/besser anfühlen wie 60-70fps an nem 75Hz Schirm. Lass mich darauf aber nicht festnageln - muss nebenher noch arbeiten - keine Zeit für Linksuche^^



mehr/genaueres sehen wie aber eh erst wenns beide Technologien breit verfügbar oder zumindest zum testen gibt.
 
Zuletzt bearbeitet:
User3000 schrieb:
Die auflösung ist eh zu hoch fürs zocken ich warte noch auf die tests vom Asus rog mit wqhd und 120hz :) das ist mein traum das tn panel ist mir egal Weils ja ein hochwertiges Tb ist:) wenn das stimmt ist der asus mein neuer

gerade bei FPS um 30-50 macht Gsync Sinn.
 
@krautmaster
Aso ja kann sein
Aber wer spielt will doch meistens mehr als 30fps:)

Der asus rog swift wäre perfekt wenn es denn ne graka geben würde die bei wqhd 120fps schafft gsync intressiert mich nicht

Hoffe das noch ne version kommt ohne gsync mit wqhd und 120hz pwm free für 500€
Das wäre was:)
 
Ich frage mich warum die Hersteller nicht kapieren wollen, dass gerade die Besitzer von IPS/VA Panels mit technisch bedingten 60 Hz diejenigen sind, die am meisten unter Tearing und VSYNC leiden und am dringendsten G-Sync oder FreeSync bräuchten. Bei 120/144 Hz Panels sind Tearing-Effekte durch ausgeschaltets VSYNC nicht mehr so störend, da die Risse im Bild ja auch nur noch halb so lang sichtbar sind. Wenn die Hersteller diese neuen Technologien nur in schnelle sogenannte "Gaming-Monitore" mit TN-Panels verbauen, produzieren sie eigentlich an ihrer Kundschaft vorbei.
 
mm mich wirde dann aber mal interssieren warum ich bei einen direkt vergleich keine unterschiede von 25 zu 80 fps warnehmen kann selbes spiel ??
 
Das Ding kostet -selbst von Acer- bestimmt 999,-€. Schließlich kommen nicht nur die Lizenz-Kosten für G-Sync dazu, sondern noch zusätzliche andere Hardware(Fequenzteiler,etc.) und Acer mußte auch noch an der Firmware Änderungen vornehmen und das läßt man sich natürlich ordentlich bezahlen.
Ganz zu schweigen vom wir-sind-die-Ersten-die-sowas-anbieten-Faktor.

Bis die GraKas Leistungsfähig genug sind-und ich meine mehr als 30fps-, um gut mit 4K klar zu kommen, braucht es sicher noch 1 oder 2 Generationen und bis dahin sind G bzw. F-Sync standard.
Wer natürlich eh schon ein SLI aus 2 Geforce Titan Black besitzt, für den macht so ein Teil vielleicht jetzt schon Sinn, wobei ich mir nicht sicher bin, ob sich Gsync und SLI bereits verträgt. Hier dürfte Kohle keine Rolle spielen!
Für Otto-Normal-Zocker, wie ich einer bin, eher nutzlos!( obwohl ich mit meinem Crossfire so um die 30-40fps packen sollte).
 
Rollensatz schrieb:
Wenn man sich einmal einen Monitor mit "G-Sync" angeschafft hat, bedeutet das wohl zumeist im Umkehrschluss, dass man die nächsten Jahre ausschließlich NV Karten kaufen muss. Wie war das noch gleich mit dem einen "G-Sync" sie alle zu knechten und ewig zu binden...

Wie kommst du darauf? Der Monitor funktioniert mit Nvidia Grafikkarten genauso wie mit AMD oder von mir aus Matrox oder S3 Grafikkarten.
Das das Teil Gsync hat heißt nicht das es nur mit Nvidia Grafikkarten läuft. Oder denkst du das jemand der sich ne Nvidia kauft auch ewig 120hz Panels mit 3D Vision kaufen muss? Es ist ein feature das man nutzen kann oder eben nicht. Ich kann gar nicht zählen wie viele Features ich bei meinem PC nicht nutze und so geht es jedem mit einem PC. Das ist ja das tolle am PC nämlich die Flexibilität was im Umkehrschluss dann aber eben auch eine Menge brach liegender Features mit sich bringt.
 
Und was hat das mit meiner Aussage zu tun?
 
Kaese schrieb:
Und mit SLI eben nicht, nach Aussage von Nvidia.

Bist Du Dir da sicher? Link?
Ich meine Nvidia sagte eher, dass 3DVision + G-Sync nicht geht, dagegen SLI + G-Sync soll wunderbar klappen....oder?
 
Trimx schrieb:
mm mich wirde dann aber mal interssieren warum ich bei einen direkt vergleich keine unterschiede von 25 zu 80 fps warnehmen kann selbes spiel ??


Das kannst du mit Sicherheit, verlass' dich drauf.
 
Trimx schrieb:
mm mich wirde dann aber mal interssieren warum ich bei einen direkt vergleich keine unterschiede von 25 zu 80 fps warnehmen kann selbes spiel ??

Dann würde ich dir einen Besuch beim Augenarzt empfehlen, ich denke das jeder gesunde Mensch den Unterschied zwischen 25 und 80 FPS wahrnehmen kann. Ich gehe mal davon aus das der Bildschirm nicht bei 24hz läuft, dann wäre der Unterschied in der Tat nicht sichtbar.

Persönlich kann ich einen deutlichen Unterschied zwischen 60 und 120hz erkennen! Zwischen 90 und 120hz sehe jedoch auch ich keinen sichtbaren Unterschied mehr, alles über 90hz reicht deshalb zumindest für mich aus.
 
Trimx schrieb:
mm mich wirde dann aber mal interssieren warum ich bei einen direkt vergleich keine unterschiede von 25 zu 80 fps warnehmen kann selbes spiel ??

Ich zocke mittlerweile immer mit 144 Hz, letztens habe ich mich gewundert warum das auf einmal so eine Diashow war. Habe dann im Nvidia Gerber geguckt und gesehen das der Bildschirm nur mit 60 Hz lief, das merkt man sofort auch das inputlag geht merkbar in die Höhe.

Tearing stört mich bei 144 Hz auch nicht wirklich, darum finde ich *sync jetzt auch nicht so interessant. Lieber einen stope Mode und 144 Hz statt Sync und 4k.
 
ich_nicht schrieb:
Tearing stört mich bei 144 Hz auch nicht wirklich, darum finde ich *sync jetzt auch nicht so interessant. Lieber einen stope Mode und 144 Hz statt Sync und 4k.

Dafür musste aber auch mit nem TN-Panel leben, anstatt flüssige Wiedergabe auch in 60-75Hz auf nem farbenfroheren IPS/AMVA Panel mit einer der beiden SyncTechnologien zu erleben.

Eigentlich müsste doch endlich mal einer hergehen und ein 150fps-Video aufnehmen mit ein paar Prototypen direkt nebeneinander auf selber Hardware mit dem aktuellen 3DMark laufend, wo die FPS mal bei 15 und aber auch mal bei 60+ sind:
IPS@75Hz vs. IPS@75HzGsync'd vs. IPS@75HzAsync'd
(würde auch mit TN gehen und mehr Hz, aber gegen die IPS stinkt TN ja shcon bei den Farben ab)
 
Rollensatz schrieb:
Wenn man sich einmal einen Monitor mit "G-Sync" angeschafft hat, bedeutet das wohl zumeist im Umkehrschluss, dass man die nächsten Jahre ausschließlich NV Karten kaufen muss. Wie war das noch gleich mit dem einen "G-Sync" sie alle zu knechten und ewig zu binden...

oder du kaufst dir einen neuen Monitor anstatt Graka :)
 
Zurück
Oben