News LG UltraGear-Monitore: UWQHD mit 144 Hz & FreeSync 2 oder 120 Hz & G-Sync

G-Sync kommt für mich aus Prinzip nicht in Frage. Zudem werde ich spätestens beim nächsten GPU-Upgrade eh wieder ins rote Lager wechseln.
 
Aus Prinzip nicht und dann lieber ein Schlierenmonster zum fast gleichen Preis kaufen. Macht Sinn.

Und GPUs von AMD taugen leider nichts. Fressen nur ohne Ende Strom, werden sehr heiß, haben lautes Spulenfiepen ihnen fehlen zudem viele relevante Grafikfeatures (raytracing und GameWorks) und haben weniger Leistung als vergleichbare Nvidia GPUs.

Und das hat nichts mit Fanboy zu tun. Es ist leider Fakt. Hatte schon zig AMD GPUs, zu letzt sogar eine Vega Frontier Liquid. Und die neue Vega 7 hat genau die gleichen Fehler o.g. . Schon wieder. Würde diese AMD Grakas nicht mehr anrühren. Da Nvidia FS supported auch von dem Faktor her, absoluter Unsinn.
 
Zuletzt bearbeitet:
Dir sei deine Meinung vergönnt. Und ich will hier auch gar nicht erst Groß das Diskutieren anfangen, weil das hier nicht hingehört. Nimm einfach hin, dass ich dir da hinten und vorne nicht zustimmen kann.

Was das "Schlieren" angeht: Tja, keine Ahnung, da ich keinen der beiden bisher gesehen habe. Wäre mir das aber besonders wichtig, würde ich wohl eh auf einen anderen Monitor schielen. Mir ist jedoch v.a. auch der Office-Einsatz wichtig, und da macht der LG hier mit seiner Farbtreue eine echt gute Figur, im Gegensatz zu vielen anderen 120/144Hz Monitoren.
 
Wenn Du keinen der beiden nicht gesehen
Wie kannst Du da dann eine Meinung haben
 
Wie meinen? Ich hab nichts zu den Monitoren geschrieben.
 
Fluffy82 schrieb:
Und GPUs von AMD taugen leider nichts. Fressen nur ohne Ende Strom, werden sehr heiß, haben lautes Spulenfiepen ihnen fehlen zudem viele relevante Grafikfeatures (raytracing und GameWorks) und haben weniger Leistung als vergleichbare Nvidia GPUs.
Hm, hattest du in einem früheren Leben einen Accountnamen, der mit a anfängt und mit einer Zahl endet?

Davon abgesehen, das ist nur zum Facepalmen, lauter Logik-Fehler.
"weniger Leistung als vergleichbare" -> nope, dann sind sie eben nicht vergleichbar.
"haben lautes Spulenfiepen" -> nope, die GPUs haben gar keine Spulen. Was ein Graka-Produzent damit anstellt, ist eine andere Frage, das kann eine Nvidia-Karte genauso treffen. Wer natürlich immer die billigste Graka kauft, der wird vermutlich eine mit billigsten Spulen abbekommen, und mit einer billigeren GPU, welche dann AMD sein wird (weil NVIDIA abzockt). Diese Leute maulen dann über das, was auf der Schachtel steht, AMD!!! (kleiner Tipp: auch bei AMD mindestens die zweitbilligste Baureihe des Herstellers kaufen, damit kommt man idR. besser weg.)
"Fressen nur ohne Ende Strom" -> nope. Mag vielleicht bezüglich Leistung pro Watt etwas schlechter sein, aber "ohne Ende" ist das bei weitem nicht.
"fehlen zudem viele relevante Grafikfeatures (raytracing und GameWorks)" -> komisch, habe ich noch nicht vermisst. Wird schon nicht so relevant sein.

Und wenn wir schon beim Thema sind -> können die "normalen" Nvidia-GPUs mittlerweile 10bit ausgeben, oder werden die Nvidia-Opfer weiterhin gezwungen, teuere Quadros zu kaufen?

Und kann ich endlich Linux-Treiber bekommen, die immer sauber kompilieren und nicht mit jeder zweiten Kernel-Version zusammenbrechen?

Und wo bleibt AdaptiveSync über HDMI, hält NVIDIA wohl für nicht so wichtig bei ihren tollen Teilen?
 
Ich kenne AMD Grafikkarten sehr gut, die sind im Oberklassebereich meist Referenz und haben Spulenfiepen, weil sie billige Spulen verwenden.

Ich meine vom Preis her vergleichbare ;).

Natürlich fressen Sie viel mehr Strom als viel schnellere Nvidia GPUs und werden sehr heiß.

Nvidia supported schon seit Ewigkeiten 10 Bit im Treiber bei GeForce GPUs. Kommt davon wenn man ewig auf dem billigen AMD Zeug festhängt. Bekommt man so einiges nicht mit.

Linux interessiert niemanden. Braucht kein Mensch. Und HDMI auch nicht. Ich habe 4 x DP an meiner 2080 Ti.
 
Fluffy82 schrieb:
Ich kenne AMD Grafikkarten sehr gut, die sind im Oberklassebereich meist Referenz und haben Spulenfiepen, weil sie billige Spulen verwenden.

Ich meine vom Preis her vergleichbare ;).
Tja, kann ich nicht bestätigen. Ich fahre seit Jahren gut mit nicht-die-billigsten-Karten-kaufen und kenne kein nennenswertes Spulenfiepen, höchstens wenn der Rechner im Testaufbau vor der Nase liegt.
Verstehe nicht, wie du zu dieser Aussage kommst.
Fluffy82 schrieb:
Nvidia supported schon seit Ewigkeiten 10 Bit im Treiber bei GeForce GPUs. Kommt davon wenn man ewig auf dem billigen AMD Zeug festhängt. Bekommt man so einiges nicht mit.
Ach, weißt du, auf diese Information bin ich gar nicht scharf. Hatte vorletztes Jahr einen Laptop mit NVidia Quadro Mobile, da konnte ich auch keinen 10bit-Modus aktivieren. Hab dann gegooglet, irgendwas von künstlichen Nvidia-Beschränkungen gefunden und aufgegeben. Ich meine, danke, Nvidia, ihr hab's mir wieder bewiesen.
Eigentlich habe ich einen Groll gegen die Firma, seit man mir vor ca. fünfzehn Jahren eine "Geforce 4 Mobile" verkauft hat, die in Wirklichkeit quasi eine umgetaufte Geforce 2 war. Aber sowas wollen die Nvidia-Fanboys ja nicht hören, so wie meine Kollegen vor ein paar Jahren (brave Käufer der 3.5GB-Grafikkarte) "alles kein Problem, KAPIERT (faustzeig)" sagten.
Fluffy82 schrieb:
Linux interessiert niemanden. Braucht kein Mensch. Und HDMI auch nicht. Ich habe 4 x DP an meiner 2080 Ti.
Oh ja, ganz klar (lol), das würde ich mir gern einrahmen und aufs Regal stellen.

(und ich habe noch noch immer den Verdacht: Fluffy == Backup-Account vom asus..., beide stehen auf Zahlen im Nick und auf debile Smileys und auf logikbefreite "Argumentation")
 
Zuletzt bearbeitet:
Fluffy82 schrieb:
Weil LG nur alle paar Wochen eine Charge von ca. 16 Geräten pro Land anliefert. Deshalb ist in der gesamten EU flaute. Das G-Modell ist eh viel besser, da es nicht schmiert (dank adaptive overdrive und perfekt (mehr kann man aus dem Panel nicht rausholen) optimierten Schaltzeiten) und kostet kaum mehr.

Ich habe beide getestet und kann die Tests nur bestätigen. Das G-Modell ist viel schlierenfreier und flüssiger.

Laut OCUK sind es wohl - zumindest für UK - etwas mehr: https://forums.overclockers.co.uk/t...-g-sync-120hz.18814918/page-127#post-32557061

Aber wo kostet der G denn "kaum mehr" als der F? Wenn ich mir die Durchschnittspreise beider im Preisvergleich anschaue:
F: ca. 1180€
G: ca. 1412€
Selbst beim jeweils günstigsten Anbieter beträgt die Differenz knapp 150€. Das ist schon ein nicht unerheblicher Mehrpreis.

Für die aktuellen Preise bestelle ich nichts vor, aber sobald die Verfügbarkeit mal vernünftig ist und der Preis auf 1000€ sinkt, werde ich mal zugreifen. Aktuell sieht es jedoch nicht danach aus, als würde diese Situation bald eintreten.

Stuffz schrieb:
Hm, hattest du in einem früheren Leben einen Accountnamen, der mit a anfängt und mit einer Zahl endet?
[...]

Lustig, weil vermutlich wahr. Fällt besonders auf, wenn man die Threads zum 34GK950G/F sowohl hier als auch auf Hardwareluxx verfolgt :p

Wie dem auch sei, wirklich vergleichen kann man beide Monitore ohnehin nur, wenn man sie beide tatsächlich live gesehen hat. Mir würde es schon reichen den F mal antesten zu können, da ich einen Vergleich zum AW3418DW habe. Der AW soll ja sogar noch etwas reaktionsfreudiger als die beiden LG sein, aber ich habe den AW3418DW bei einem Kumpel getestet und so wirklich konnte mich das Overdrive dort auch nicht umhauen:
  • Overdrive Normal: Extreme Schlieren
  • Overdrive Fast: Deutliche Schlieren, leichtes Inverse Ghosting
  • Overdrive Faster: Akzeptable Schlieren, deutliches Inverse Ghosting
Insbesondere, wenn man, so wie ich, nur schnelle TN-Panels gewohnt ist, fallen die Schlieren und das Inverse Ghosting auf und können echt stören.
 
Also das F Modell ist gar nicht lieferbar und das G-Modell kostet gerade ~1300 Euro bei Kleinanzeigen.

Das F Modell ist am schlieren und hat heftige Bewegungsunschärfe und ist somit draußen.

Der AW3418DW hat auch ein sehr schlechtes Overdrive, deine Erfahrungen verwundern mich nicht. Habe ich genau deswegen damals gekickt. Nur ist das F-Modell nicht besser als der AW3418DW, sondern noch schlechter von den Reaktionzeiten her, vergleiche tftcentral.co.uk. Von daher nichts für dich.

Ich habe keine Ahnung wer die Person ist, von der ihr sprecht.
 
Das Gebetsmühlenartige Runterbeten von falschen Fakten (bzgl. AMD) ändert nichts daran, dass sie falsch sind. Bewegungsunschärfe... Das wurde ja schon mehrfach im Thread durchgekaut, die Beispielbilder dazu waren für mich unherblich. Wenn dir das so wichtig ist, bitte.

Den perfekten Monitor gibt es eh nicht, muss halt jeder selber wissen, wo er welche Kompromisse macht.

Fluffy82 schrieb:
Ich habe keine Ahnung wer die Person ist, von der ihr sprecht.

Nice try. :D
 
@Stuffz

Ach so von dem sprecht ihr. Von dem habe ich schon gehört. Ein sehr kompetenter Nutzer, im Gegensatz zu den meisten anderen hier.

Bezüglich AMD sind es Fakten die auf der Hand liegen. AMD ist leider nur noch etwas für Leute die Fanboys sind und ihr Geld verbrennen wollen. Die Leistung kann in keinem Bereich überzeugen.

Nun wieder zurück zum Thema.
 
  • Gefällt mir
Reaktionen: Siamstore81
also manchmal kommt hier im Forum schon nen ganz schöner Dünnpfiff bei rum...
 
  • Gefällt mir
Reaktionen: musikos53
Fluffy82 schrieb:
@Stuffz

Ach so von dem sprecht ihr. Von dem habe ich schon gehört. Ein sehr kompetenter Nutzer, im Gegensatz zu den meisten anderen hier.

Bezüglich AMD sind es Fakten die auf der Hand liegen. AMD ist leider nur noch etwas für Leute die Fanboys sind und ihr Geld verbrennen wollen. Die Leistung kann in keinem Bereich überzeugen.

Nun wieder zurück zum Thema.
Lol, da kann ich mir nur @MaverickM anschließen: Nice try. :D

Alda, ich kriege bei dir ständig Deja-Vus. Genau so war asus auch drauf, ständiges Beweis-durch-Behauptung, gegenläufige Argumente umformulieren und dem Opponenten in den Mund stecken, ständiges "ich habe so viel getestet also habe ich voll ahnung und du gar keine also halt's maul"
 
Ich habe auch gestern irgend wo hier bei den Kommentaren gelesen, dass nur 16 Stück je Land unterwegs seien?
 
Fluffy82 schrieb:
Aus Prinzip nicht und dann lieber ein Schlierenmonster zum fast gleichen Preis kaufen. Macht Sinn.

Und GPUs von AMD taugen leider nichts. Fressen nur ohne Ende Strom, werden sehr heiß, haben lautes Spulenfiepen

Ich hoffe dir ist bewusst das Spulenfiepen nichts mit AMD oder NVidia zu tun hat. Ab da braucht man dann auch nicht weiterlesen wenn dein Post schon so anfängt..
 
Zurück
Oben