News Acer XR341CK: 34-Zoll-LCD mit FreeSync kommt früher und ist günstiger

vincez schrieb:
Werde überlegen vom Dell auf den Acer zu wechseln.

Ist zwar noch das selbe Panel wie zu 11/2014 im Dell, aber mit Freesync sicherlich zukunftsfähiger!

Ganz wichtig bei diesen Geräten ist das Leuchten an den Bildrändern (oben links und rechts). Das ist nun schon seit einem Jahr immer ein großes Problem. Hoffentlich hat Acer das in Zusammenarbeit mit LG beheben können.

Wozu brauchst du einen zukunftsfähigen Monitor? Offensichtlich kaufst du ja im Schnitt 2 pro Jahr ^^. Also ich persönlich konnte dieses 144 Hz geschnacke noch nie nachvollziehen. Gut, früher auf dem Röhrenmonitor ließ sich mit 1 ms Reaktionszeit oder so recht gut CS zocken, aber ich war auch gut ohne 144 Hz... vlt auch eine Art Modeerscheinung oder der ein oder andere meint eben wirklich, dass es an sowas liegt, wenn er gefragged wird ^^.
 
benneque schrieb:
Das gibt die Bandbreite der Schnittstellen nicht her.

Wieso?

Mit 2 Kanälen (=4 Leitungen) hat man bei DP 1.3 laut wikipedia: "3240 MByte/s (25,92 GBit/s): ausreichend für 5120×2880", bei 60Hz und 3x8bit bzw. TrueColor 24bit: https://de.wikipedia.org/wiki/Displayport#Daten.C3.BCbertragungsraten

5120x2880 = 14,74MP

Der Monitor aus der News hat 3.440x1.440 = 4,95MP

Sollte bei über 66% weniger MP von der Bandbreite doch zumindest mit "nur" 120Hz passen? 144Hz könnte evtl. eng werden, aber selbst da hat man immer noch (platt gerechnet) 0,33-fache MP bei 2,4-facher Bildwiederholrate, entspricht also nur dem 0,33*2,4 = 0,8-fachem der jetzt schon verfügbaren Bandbreite von 5k@60Hz.

Mir ist klar, dass das wegen blanking und so Späßen nicht 100% linear skaliert, aber ich denke, dass 3.440x1.440 @120+Hz mit DP 1.3 hinhaut. Oder hab' ich was übersehen?
 
Das finde ich echt brilliant.
Was denken die sich bei Acer? Möglichst viele Features schaffen, die für den Käufer keinen Nutzwert bringen?

Die freesync Monitor wird mit HDMI 2.0 ausgerüstet, nachdem es bis jetzt keine einzige AMD-Karte mit diesem Standard gibt (inkl. Fury X).
Die G-Sync Variante dagegen mit HDMI 1.4a, nachdem ja bereits die gesamte aktuelle Nvidia-Modellpalette HDMI2.0 unterstützt.
 
Ja und bei nvidia gibt es eine einzige Karte die sinnvoll HDMI 2.0 nutzen kann, die GTX960 die als einzige HDCP 2.2 kann.

G-Sync kann eh nicht über HDMI laufen, und der Rest der 900er Serie hat zwar HDMI 2.0 aber kein HDCP 2.2.
 
Ich hab mich ja bis jetzt zurückgehalten, was die vielen Aussagen über 120 oder 144 Hz angeht ... Weil ich diesbezüglich und beim zocken null Ahnung habe, aber: und da haben die letzten Kommentare sehr vernünftige Sachen gesagt, nervt das langsam. Wenn die Technik , die uns hier Scheibchenweise und fehlerbehaftet serviert wird, richtig funktionieren würde, wären doch 60 bis 100 Hz die funktionieren doch top. Was ist mit er Physik und der Biologie des Auges?

das klingt immer wie " nun, Sie haben jetzt sehr viel Geld bezahlt aber wenn Sie wollen, können ja noch für viel Geld erweitern und dies und jenes einbauen...viel wird das nichts bringen , aber es wird ganz sicher ein wenig besser. Und die neue version soll schon bald kommen, die wird sowas von top! " nach dem Motto, wenn ich unzufrieden bin, versuche ich das Gefühl zu besänftigen, in dem ich irgendwas oder vieles besonders teures oder Neues kaufe.

Auf die gewölbten Displays warte ich schon seit Jahren ( der Traum von vielen Pixeln wurde ja schon erfüllt) weil es der logische Schritt ist und ich als mehrmonitorfreund keinen Bock mehr habe auf 4 oder 5 verschiedene "Kacheln" und das ständige ausrichten der Monitore.
Windowstaste + Pfeiltasten würde natürlich nicht den Erfolg bringen , aber ein paar Fenster zurechtrücken mit Maus geht dann wieder besser.
Ich sehe das alles aus arbeitstechnische Sicht.
Ich wiederhole: für 500 € schmerzgrenze wäre dieser Monitor der erste mir bekannte, der endlich mal sinnvoll ist um wieder aufzurüsten.

Die große Frage sollte aber in diesem Thread aber sein: ersetzt das Teil 2 x 27 Zoll mit 2560 x 1440 ?
 
Zuletzt bearbeitet: (rechtschreibung am iPad)
Camicace schrieb:
Die große Frage sollte aber in diesem Thread aber sein: ersetzt das Teil 2 x 27 Zoll mit 2560 x 1440?
Für mich stellt sich diese Frage nicht, mir persönlich sind zwei Monitore immer ein Dorn im Auge. Ich bin gar kein Fan davon, mich immer für links und rechts entscheiden zu müssen, ich brauche zwingend einen Monitor in der Mitte. Also entweder ein großer Breitbild-Monitor oder 3 kleinere. Aber das ist sicherlich von Mensch zu Mensch unterschiedlich...
 
Galaxytourist schrieb:
Es geht einfach darum das es einen offenen Standard gibt der das gleiche macht wie GSync, bei etwa vergleichbarer Qualität. Das ganze auch noch ohne große Mehrkosten für den Kunden. Hinzu kommt noch das sich ich und viele andere nicht auf einen Hersteller festlegen wollen. Einen Monitor hat man idR länger als eine Grafikkarte. Kauft man sich jetzt eine NVidia oder AMD muss man auch den passenden Monitor kaufen wenn man Freesync bzw. G-sync nutzen will.

Kauft man sich später dann eine Karte vom anderen Hersteller(Ja es gibt Leute die nicht immer vom gleichen Hersteller kaufen egal ob der andere für einen persönlich das beessere Angebot hätte oder nicht), muss man sich gleich wieder einen neuen Monitor holen, was ja nicht unerhebliche Mehrkosten verursacht.


Der größte Witz bei der Geschichte ist aber eben auch schlichtweg, das Nvidia Adaptive sync bei Notebooks nutzt bzw. angekündigt hat es zu nutzen. Nennt sich natürlich bei denen dann auch G-Sync ist aber effectiv Adaptive sync.

D.H. Nvidia behält seinen eignen Standard für den Desktop effektiv nur bei um es den Kunden schwerer zu machen später zu wechseln. Alleine deswegen sollte man momentan schon keine Nvidia-Karte kaufen.

Naja aber eben das glaube ich nicht. Mag sein, das NVIDIA angekündigt hat Adaptive Sync bei Laptops zu nutzen aber ich gehe hier eher davon aus das es mit Laptopdisplays schwieriger wird die G-Sync Hardware zu verbauen wegen dem Platz.

Naja ob G-Sync und Adaptive Sync bzw. Free Sync nun gleichgut sind wie G-Sync mag nun Anssichtssache sein, aber defakto wie auch bei einigen Antworten zu lesen, hat G-Sync Lösungen gefunden auch bei Niedrigerer FPS Zahl das Bild Stabil zu halten und FreeSync zumindest noch nicht. Ggf klappt das mit FreeSync auch in 1-2 Jahren aber ob das dann die jetzt gekauften Monitore mitmachen und können steht ebenfalls auf einem anderen Blatt.

Ich Stimme dir zu das ein Bildschirm eine längerfristige Anschaffung ist und das soll und muss durchaus Gründlich Überlegt werden. Wenn man sich nicht binden will gibt es aber ja auch Modelle mit FreeSync (das zumindest immo und vermutlich auch längerfristig nur mit AMD Funktioniert) mit G-Sync für NVIDIA oder eben ohne einer dieser Technologien in allen Größen.

Wer also Unabhängig bleiben will, der sollte sich dann vermutlich sowieso einen Monitor ohne Beide Techniken kaufen da er sich mit FreeSync genau so an AMD bindet, zumindest im Moment. Den ob NVIDIA FreeSync/Adaptive Sync unterstützen wird oder nicht steht in den Sternen. Oder aber etwas wie den Asus ROG Swift da der entweder mit G-Sync oder mit 144Hz genutzt werden kann.

Klar ist G-Sync eine Methode Kunden zu binden und ja Nvidia macht mit den G-Sync Modulen in den Monitoren sicherlich gewinn, aber das G-Sync Modul hat nunmal einfach auch Entwicklungsaufwand gekostet und ist und bleib eine zusätzlich verbaute Hardware und das sicherlich nicht nur aus jux und tollerei. Die Tatsache das entsprechend viele Tests sehr zufrieden mit G-Sync sind sprechen ebenfalls dafür das das Modul durchaus seinen zweck erfüllt.

Deshalb verstehe ich eben nicht warum nun von vielen hier kommt "haha lol 200euronen nvidia tax wie doof ey" Wer nicht will muss nicht weshalb die Komentare einfach unnütz sind (mMn.).

Das ist alles was ich mit meinem Post sagen wollte. Ansonsten bleibt nur noch zu sagen, das 21:9 ein Super Format ist und das Bild mit dieser Auflösung echt klasse ist und das ich einfach Hoffe das Acer es hinkriegt einen echten Gaming Monitor mit dem XR34XX auf den Markt zu bringen.
 
Bei einem Blindtest zwischen G-Sync und FreeSync würde eh der Großteil, auch diejenigen die hier tönen sie würden es erkennen, eben es nicht erkennen können welche Technik da zum Einsatz kommt.
Ergänzung ()

SlapJack schrieb:
Wer also Unabhängig bleiben will, der sollte sich dann vermutlich sowieso einen Monitor ohne Beide Techniken kaufen
Wenn ich unabhängig bleiben will kaufe ich keinen G-Sync Monitor, der bleibt zu 100% nur nvidia vorbehalten.
Bei einem Adaptive Sync Monitor bin ich unabhängig da VESA Standard und somit für alle VESA Mitglieder, was nvidia ist, ohne weitere Lizenzkosten nutzbar.

Wenn nvidia also den VESA Standard nicht unterstützten will, ist das somit kundenfeindlich.

Wieso ich mich also an einen Hersteller binden lassen, und zusätzlich auch noch einen schmacken Aufpreis dafür zahlen soll entzieht sich meiner Logik aus Kundensicht. Aber das Marketing hat es ja 1A geschafft einigen hier jeden Scheiss anzudrehen.

Jeder der sich einen Adaptibe Sync, d.h. VESA Standard Monitor kauft bindet sich damit nicht an einen Hersteller und ist unabhängig.

Wenn man natürlich eine nvidia Karte nutzen will dann ist es eben Pech wenn nvidia einen festgelegten Standard nicht zu unterstützen will.
Wenn G-Sync soviel besser wäre als Adaptive Sync könnte ja nvidia beides anbieten.
Man könnte natürlich als Kunde auch Druck auf nvidia ausüben und durch Verkaufszahlen sie "motivieren" AS zu unterstützten, aber scheinbar will mancher die Abhängigkeit und findet das sogar Prima.
 
PiPaPa schrieb:
Bei einem Blindtest zwischen G-Sync und FreeSync würde eh der Großteil, auch diejenigen die hier tönen sie würden es erkennen, eben es nicht erkennen können welche Technik da zum Einsatz kommt.
Sobald die FPS unter 40 FPS fallen, erkennt das jeder sehende Mensch auf dieser Welt. Der Unterschied ist gravierend, habe selbst beides schon testen dürfen. Wenn du die FPS in deinem Blindtest darüber hältst, dann hast du natürlich Recht.

PiPaPa schrieb:
Man könnte natürlich als Kunde auch Druck auf nvidia ausüben und durch Verkaufszahlen sie "motivieren" AS zu unterstützten, aber scheinbar will mancher die Abhängigkeit und findet das sogar Prima.
Das hat rein gar nichts mit Abhängigkeit zu tun, komm mal wieder runter. Denn von meinem Standpunkt aus müsste ich somit ein Produkt kaufen, das mich nicht zufrieden stellt. Und das mache ich sicher nicht, nur weil ich Nvidia zum VESA-Standard drängen will.
 
Zuletzt bearbeitet:
Die "Zufriedenheit" kommt durch den Treiber bei G-Sync, da dieser bei unter 40fps die Hz Zahl entsprechend verdoppelt usw.
Das hat nichts mit dem G-Sync Modul oder Adpative Sync zu tun.
Demnach ist es einfach sich in eine Abhängigkeit von nvidia begeben.
Würde nvidia im gleichen Umfang Adaptive Sync unterstützen, so würde auch dort dieser "Treibertrick" es entsprechend umsetzen.

Macht nvidia aber nicht weil sie zugestehen müssten das ihre Technik vermutlich nichts anderes macht, und ihre Technik nicht besser ist als der VESA Standard.
 
Die Untergrenze hat doch nichts mit dem Treiber zu tun, bei Monitoren mit GSync-Modul liegt die bei 30Hz, bei AMD mindestens bei 40Hz. Und erst darunter kommt dann der Treiber, auch wenn ich mich Frage, warum AMD es nicht einfach genauso macht wie Nvidia, wenn es denn "nur" am Treiber liegt. Irgendetwas scheint an der Technik von Nvidia wohl doch dran zu sein, von der geringeren Untergrenze mal abgesehen...
 
Senvo schrieb:
Schöner Monitor, von mir aus ohne dieses sync gedöns (früher hat man das auch ohne überlebt) und dann um die 700-800€, das wäre super :daumen:

Nimm doch den hübschen AOC - oder muss es gekrümmt sein? Dann gäbs noch nen Dell leicht über deinem Budget...
 
Necareor schrieb:
Die Untergrenze hat doch nichts mit dem Treiber zu tun, bei Monitoren mit GSync-Modul liegt die bei 30Hz, bei AMD mindestens bei 40Hz. Und erst darunter kommt dann der Treiber, auch wenn ich mich Frage, warum AMD es nicht einfach genauso macht wie Nvidia, wenn es denn "nur" am Treiber liegt. Irgendetwas scheint an der Technik von Nvidia wohl doch dran zu sein, von der geringeren Untergrenze mal abgesehen...
Nein die Untergrenze bestimmt das verbaute Panel und die G-Sync Monitore haben keine besonderen Panel die 30Hz ohne Tricks problemlos darstellen können. Also greift hier der Treiber.

Wie da ein frei programmierbarer ASIC mit 768 MB DDR3 Speicher irgendwie die physikalischen Eigenschaften eines Panels beeinflussen kann/soll muss mir dann auch mal erklärt werden.
 
DrToxic schrieb:
Mir ist klar, dass das wegen blanking und so Späßen nicht 100% linear skaliert, aber ich denke, dass 3.440x1.440 @120+Hz mit DP 1.3 hinhaut. Oder hab' ich was übersehen?

3440x1440 (Auflösung) x 3x8Bit (Farbkanäle) x 144 Hz = 17,11 GBit/s (=15,94 GiBit/s)
Mit Displayport 1.3 sollte die Auflösung bei 144Hz auf alle Fälle laufen. Mit Displayport 1.2 könnte es mit 144Hz theoretisch laufen, jedoch weiß ich nicht wie viel Overhead man bei Displayport einplanen muss. Mit 120 Hz sollte es selbst mit DP 1.2 laufen, denn es werden für die Daten eine Bandbreite von 14,26 GBit/s benötigt.
 
DaBzzz schrieb:
Nimm doch den hübschen AOC - oder muss es gekrümmt sein? Dann gäbs noch nen Dell leicht über deinem Budget...

Stimmt, keine Schlechte Idee, danke :)
 
Zurück
Oben