Neuer Monitor weil ich Pro Gamer werden will (Amazon gebraucht kaufen?)

Status
Für weitere Antworten geschlossen.
Lukas6 schrieb:
Ich lese grad , dass es kein Sinn hat einen g Sync Monitor zu haben wenn man immer über 100fps hat und einen 144hz Monitor dann hat .

Es hat einen Sinn: bei passend eingestelltem Framelimit (etwas Sicherheitsabstand unterhalb der 144 Hz) hat man die Tearing-Freiheit von Vsync und den niedrigen Input Lag von Vsync off zusammen.

Siehe hier unter CS:GO:

http://www.blurbusters.com/gsync/preview2/

Außerdem fallen dann Frameratedrops nicht mehr auf. Bei Vsync und 144 Hz führen schon 143 fps zu sichtbaren Holperern. Damit Vsync immer so perfekt aussieht wie G-Sync, darf die Framerate zu keinem Zeitpunkt unter die 144 fps fallen.
 
Zuletzt bearbeitet:
Ich weiß ja nicht, warum jetzt wieder gesplittet wurde. Ein Hinweis ist doch durchaus angebracht, dass man den hochtrabenden Worten der Werbung nicht unbedingt Glauben schenken soll, denn man wird durch diesen Monitor eben nicht unschlagbar.

Auch hat Lukas6 einige Vorschäge bekommen, fragt aber immer wieder nur lapidar, wie wir "den oder den" Mointor finden, dabei kann er doch gut selber die technischen Daten lesen.

Man kommt sich langsam verarscht vor, wenn er schreibt, dass er bei GTA 5 , BF 1 und FIFA immer ca. 150-200 FPS hat!
 
Ähm ich habe dort ganze Zeit 150-200 fps ?

Achja ich spiele immer mit v Sync off .


Ich will ja kein Input lag haben.
Ist doch nur ein Handy cap für mich !
 
Ähm ich habe dort ganze Zeit 150-200 fps ?

bei spielen wie cs und fifa auch net sonderlich schwer oO

mit G-Sync wird das bild weicher und bekommt durch die 144 Hz (FPS) auch viel mehr mit was passiert. Nen Kumpel von mir hatte erst nen 60 Hz Monitor, holte sich den ASUS VG278HE @144hz und seine KD ging bei BF4 auf 2.21 hoch. Vor dem Monitor war er bei 1.8. Ich selbst hab auch schon der Unterschied zwischen 60 Hz und 144 Hz sehen dürfen bei Freunden zu hause. Gerade bei Ego-Shootern ist dies ein immenser Vorteil, da wird man oft als Cheater oder Hacker betitelt. Mein Kumpel mit genannten Monitor wurde von vielen BF4 Servern verbannt, weil die es nicht glauben könnten.

Durch G-Sync wird das ganze Geschehen nochmal auf eine höhere Ebene des Spielvergnügens gehoben, dass man gerade dies sich mMn NICHT entgehen lassen sollte, wenn man wie DU über entsprechende GPU verfügt.

Bei mir steht die Entscheidung zwischen, diesen beiden:

1 Acer Predator XB240HAbpr, 24" (UM.FB0EE.A01)
1 ASUS ROG Swift PG248Q, 24" (90LM02J0-B01370)

144 Hz wird ein muss sein, drüber eher als Luxus. Der Asus ist mit BlackWedding günstiger als der Acer. Somit sollte man bei dem Asus zuschlagen, wenn man:

- auf 1080p bleiben möchte
- G-Sync GPU hat, deine 1080
- 144 Hz (FPS)+ Schafft, der Asus kann bis zu 180 Hz per OC

Dies sind Kriterien die für mich ins Auge stechen beim aktuellen Monitor-Kauf.
 
Also nochmal ...

Wird bei mir Tearing auftreten , wenn ich einen 144hz Monitor nutze OHNE Gsync bei spielen wie Diablo 3 , CS Go, FIFA 17 Battlefield 1 , GTA5?

Ich habe gelesen , dass G Sync sich nur zwischen FPS Zahlen von 30-60 bemerkbar macht.

Wenn ich aber Spiele spiele wo ich konstant über 100 FPS habe , dann lohnt sich G Sync nicht.
 
Du hast immer tearing , egal welche fps du hast und welche refresh rate dein Monitor haben, wenn nicht entweder durch G-sync/freesync die Refreshzyklen des Monitors an die Grafikkarte angepasst, oder du eine der Vsync Implementierungen benutzt, also deine Grafikkarte an die Refresh rate des Monitors anpasst(kann verschiedene Auswirkungen haben, je nachdem ob du V-sync, V sync mit triple buffer etc. benutzt)
 
Es geht mir aber darum , ob g Sync mir was sichtbares bringt bei spielen wo ich über 200fps habe oder zwischen 100-150fps .

Ich spiele immer ohne v Sync !
 
Und nochmal die gleiche Frage und nochmal und nochmal und nochmal...

Wie viel Hz oder FPS du hast ist total egal. Tearing ist immer dann da, wenn Hz und FPS nicht gleicht sind. Immer. Nicht so schwer, oder? Entweder nutzt man dann Hardware. G / Freesync oder Software, VSync. Genau das macht das eben. Hz und FPS gleich schalten. Bei Vsync ist das starr. Bei G / Freesync ist es variabel. Aber immer ist es gleich. Beides sorgt eben dafür, wenn man X Hz hat, dann werden eben genau X FPS gerendert.

Da kannst Du 1000 FPS haben und einen 10000 Hz Monitor. Usw,.
 
Zuletzt bearbeitet:
Ok danke .

Aber mit v Sync an habe ich Input lags .

Habe ich es mit g Sync auch ?

Bzw hat Man mit g Sync keinen Input lag wie man es ohne v Sync hätte ( bei einem Monitor ohne g Sync ? )
 
Gibts keine generelle Antwort drauf. Das kommt dann maßgeblich aufs Spiel und seiner Engine an.
 
Es ist schon schwierig mit Dir. Es gibt keinen GSync Monitor, der 150 FPS/Hz synct. Auch das solltest Du mittlerweile aus dem Thread gelernt haben.

Und ganz Gewiss macht das keinen Pro aus. Jeder guter CS Spieler schlägt Dich auf einem 100€ Monitor mit einer 100€ GPU.
 
Die Bildwiederholrate gibt an wie oft pro Sekunde das Bild auf dem Monitor wechselt.
Angegeben in Hz (Hertz) oder in FPS (Bilder pro Sekunde).

Ein normaler Monitor hat 60Hz, kann 60Hz darstellen und wird mit 60Hz angesteuert.

Nun ist dein Rechner (CPU/Grafikkarte usw.) leistungsstark genug um, sagen wir mal, CounterStrike mit 134 Hz zu rendern.
Die Grafikkarte wäre also in der Lage 134 Bilder pro Sekunde auszugeben.

- Dein Monitor kann aber nur 60Hz, also 60 Bilder pro Sekunde, darstellen. Das bedeutet das Bilder gerendert werden, z.B. eine Bewegung, du aber nicht jedes Bild davon sehen kannst.
Das Bild sieht "unregelmäßig abgehackt" aus. Das nennt man auch Tearing.
Dieses Phänomen ist immer da, wenn die Menge an gerenderten Bildern pro Sekunde nicht mit der Menge an dargestellten Bildern pro Sekunde übereinstimmt.

- Jetzt gibt es VSync. Vertikale Synchronisation. Warum vertikal?
Das stammt aus der Zeit der Röhrenmonitore, die noch mit Halbbildern bzw. Zeilensprungverfahren arbeiteten.

VSync bedeutet das die Grafikkarte künstlich "gedrosselt" wird und maximal nur so viele Bilder berechnet und ausgibt wie der Monitor tatsächlich darstellen kann.
Also z.B. 60 Bilder pro Sekunde. Das sieht dann weniger "abgehackt" aus.
Das führt aber dazu das Bewegungen gleichmäßig "ruckeln".
Seltsamerweise ist man es bei Kinofilmen gewohnt das diese sogar nur mit 24 bzw. 25 Bildern pro Sekunde laufen. Bei Computerspielen wird das aber als störend empfunden...

Achtung, dass kann natürlich trotzdem heißen das ein Spiel mit weniger FPS gerendert wird als der Monitor darstellt.

- Nun gibt es ein verbessertes System: Adaptive VSync.
nVidia nennt es G-Sync, AMD nennt es FreeSync. Beide Systeme sind nicht kompatibel untereinander.
Und sowohl der Monitor als auch die Grafikkarte müssen es beherrschen.

Es gibt nämlich ein weiteres Problem. Die FPS, die gerendert werden, sind nie konstant, sondern schwanken mitunter sehr stark.
Sind nicht viele Objekte usw. im Bild, können mehr Bilder berechnet werden als wenn sehr viel los ist auf dem Bildschirm und du dich auch noch schnell durch diese virtuelle Welt bewegst.

Dieses System sorgt nun dafür das der Monitor genau die Bilder pro Sekunde darstellt, die die Grafikkarte aktuell liefert.
Es gibt also keine feste Bildwiederholrate mehr, sondern sie passt sich kontinuierlich an die FPS, die die Grafikkarte liefert, an.
Natürlich bis zum für den Monitor maximal technisch darstellbaren.

Monitore mit G-Sync oder FreeSync können nämlich mehr als 60 Bilder pro Sekunde darstellen. Diese haben meist 144Hz oder mehr.
Die Monitore, die mit mehr als 144Hz angegeben werden, haben auch nur ein 144Hz Panel, dass aber quasi "übertaktet" wird.

Wird das Spiel konstant mit mehr als 144Hz gerendert, hast du wieder das gleiche Problem wie ohne G-Sync/FreeSync.
Da diese Monitore aber fast immer eine entsprechend hohe Auflösung haben und der Spieler die Einstellungen der Spiele entsprechend höher dreht (weil die Darstellung flüssiger aussieht)
spielt das aber kaum eine Rolle.

- Input Lag ist wieder was anderes und hat nichts mit dem oben genannten zu tun. Da wirfst du einfach Begriffe und Zusammenhänge durcheinander.
Input Lag bedeutet nichts anderes als die Zeit, die vergeht, bis das gerenderte Bild, von der Grafikkarte kommend, im Monitor verarbeitet, dargestellt und in deinen Augen angekommen ist.
Oder anders formuliert, die Latenz zwischen der Mausbewegung und der wahrgenommenen Bewegung auf dem Bildschirm.

- Zusammenfassung:

Kein G-Sync/FreeSync, kein VSync: Feste Bildwiederholrate, variable FPS.
Schnelle Darstellung aber immer Tearing. Je nach Rechner, Bildschirm, Spiel und Einstellung unterschiedlich stark, aber immer da.

Kein G-Sync/FreeSync, VSync: Feste Bildwiederholrate, feste FPS.
Kein Tearing, aber eine scheinbar langsame und gleichmäßig ruckelnde Darstellung. Vor allen bei Monitoren mit nur 60Hz.
Weniger störend als Tearing, aber vor allem bei schnellen Bewegungen wie Shootern usw. durchaus störend, weil Bewegungen langsamer erscheinen.

G-Sync/FreeSync: variable Bildwiederholrate, variable FPS, beide immer gleich laufend bis zum maximal möglichen des Monitors.
Kein Tearing, kein Ruckeln, eine schnelle und flüssige Darstellung.
 
Zuletzt bearbeitet:
KnolleJupp schrieb:
Die Bildwiederholrate gibt an wie oft pro Sekunde das Bild auf dem Monitor wechselt.

Die Grafikkarte wäre also in der Lage 134 Bilder pro Sekunde auszugeben.

Dein Monitor kann aber nur 60Hz, also 60 Bilder pro Sekunde, darstellen. Das bedeutet das Bilder gerendert werden, z.B. eine Bewegung, du aber nicht jedes Bild davon sehen kannst.
Das Bild sieht "unregelmäßig abgehackt" aus. Das nennt man auch Tearing.

Tearing ensteht nicht weil der Monitor zu wenige der von der Grafikkarte gerenderten Bilder darstellt, sondern zu viele (und das kann auch der Fall sein wenn die fps <hz sind ) und hat auch nicht unbedingt mit der Anzahl der fps/hz zu tun sondern damit ob die beiden synchron miteinander sind (Framepacing bzw. mit den Frametimes).

Auch LCDs refreshen vertikal, also von oben nach unten (kann man sich mit einer Highspeed Kamera anschauen).

Der Monitor liest immer aus dem Frontbuffer und fängt zum Beginn eines neuen Refresh das Frame aus eben diesen von oben nach unten zu zeichnen an, wenn aber während dem Zeichnen die Grafikkarte mit einem neuen Frame fertig wird, speichert sie dieses im Backbuffer und vertauscht die Adresse von Back und Frontbuffer und rendert weiter.

Der Monitor ist mitten im Bild zeichnen, sagen wir in der Mitte des Bildschirms, aber nun wurde der Inhalt des Frontbufferes gewechselt, mit einem aktuelleren Frame, er zeichnet einfach bis unten weiter (obere Hälfte altes Frame, ab Mitte neueres Frame).

Tearing zeichnet sich ja gerade dadurch aus, das mehrere zeitlich verschiedene Frames teilweise angezeigt werden.
 
Zuletzt bearbeitet:
Ich wollte es nicht zu kompliziert machen. Lukas6 scheint eh schon massiv überfordert, um es mal freundlich auszudrücken.
Wenn du ihm jetzt mit Frametimes usw. kommst... :)

Ich weiß das der Monitor in dem Fall zwei zeitlich unterschiedliche Bilder gleichzeitig bzw. in einem Bild darstellt, was ziemlich kaputt aussieht und auffällt.
 
Zuletzt bearbeitet:
Pro Spieler in CS: GO werden wollen und dann sich für GTA und BF interessieren. Hier stimmt was nicht
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben