News ViewSonic-Monitore: Von 8K über Thunderbolt 3 bis 240 Hz und Full HD

Nur 60 Hz aber mit 3.840 × 2.160 noch mehr Pixel bietet der XG3220 mit 32 Zoll und FreeSync. Der Marktstart ist für den März zum Preis von 629 US-Dollar geplant.

Für den Preis als UHD/4K Einstiegsmonitor evt. sehr interessant, denn das Pendant von LG kostete bei Martkstart noch knapp über 1000 Euro, aber die Frage ist natürlich was für eine Panel und Free-Sync-Bereich da von ViewSonic geliefert wird.

Da ernsthafte Hoch-fps-Spieler (HFS) i.d.R. unter UHD/4K eh falsch aufgehoben sind und sich eher an WQHD oder Full-HD Auflösungen orientieren werden, reicht natürlich derzeit noch lange so ein ViewSonic 60 Hz Monitor auch vollkommen aus und so schnell wird man die 120+Hz UHD/4K Geräte (wenn sie denn irgendwann auf den Markt kommen) ohne Titan XP Triple-SLI oder Ampere GTX 1180/2080 Dual-SLI (denn unter "ultra" und teilweise auch "high" erreicht man die 60 fps mit einer GTX 1080Ti oder wassergekühlten Titan Xp ja aktuell nicht einmal) vermutlich sowieso nicht ausreizen können ;).
 
Der XG3540C liest sich für mich recht interessant, wenn kein TN darin verbaut ist.

Wie ist die Qualität von View Sonic so zu bewerten hatte mal einen der war nach der Garantie defekt ?
 
Billigschrott.
Meine Meinung.
 
drago-museweni schrieb:
Wie ist die Qualität von View Sonic so zu bewerten hatte mal einen der war nach der Garantie defekt ?

ChrisMK72 schrieb:

Also ViewSonic ist eigentlich einer der altgedienten, traditionellen Monitor-Hersteller, wenn auch i.d.R. nicht bei den absoluten Topmodellen der jeweiligen Monitor-Klassen/-Kategorien anzufinden (das sind dann eher andere, hochpreisigere Hersteller wie Eizo, NEC und evt. auch Dell; Iiyama und Samsung gehörten ehemals auch noch dazu), aber generell qualitativ höher einzustufen (oftmals mehr an Preis-Leistung orientiert als maximaler Qualität) als die neuen/quereinsteigenden Billig-Hersteller mit den "Vorzeige-Gaming-Monitoren" wie ASUS, Acer und AOC, deren Qualität bisher oft (sehr) zu wünschen übrig liess trotz deftiger Preise ;).

Auf Arbeit hatte ich bisher mit einem ViewSonic gearbeitet, der ganz okay war, so dass ich mich nicht beklagen konnte, selber besessen habe ich bisher fast nur Iiyama und Dell Geräte, dann und wann schon einmal einen NEC genutzt.

Ich würde mir - sobald verfügbar - einfach den Test und/oder erste Erfahrungsberichte bei Prad.de (bzw. in deren Forum) durchlesen, dann kannst Du i.d.R. wenig falsch machen ;)
 
Zuletzt bearbeitet:
PlayMasterXL schrieb:
was wollen die kunden dagegen tun? zur Konkurrenz ?
Nicht kaufen. Schont den Geldbeutel.

PlayMasterXL schrieb:
mann jetzt bin ich einer von denen die etwas wollen aber nicht kriegen können
ist ja voll doooof.... ich will doch mehr warum machen sie es nicht?!
Und ab auf die Ignorier-Liste...
 
8K auf 32" machen weder zum Arbeiten noch zum Zocken Sinn.

Davon mal abgesehen nervt es mich, daß jetzt plötzlich alle mit 8K um die Ecke kommen, wo wir noch nicht mal 4K mit 144Hz haben.
Was soll der Käse?
2019 kommen sie dann mit 16K, und wahrscheinlich haben wir dann immer noch keine vernünftigen 4K Monitore. Ist doch lächerlich ...
 
hat jemand Infos wann 24" 4k IPS 10Bit 144Hz Monitore, am besten noch mit Freesync, rauskommen?

Kanns kaum abwarten...
 
Highspeed Opi schrieb:
8k wäre für Photoshop sicherlich eine super Sache, ...

Da fällt mir ein, ich habe mein Photoshop Witz vergessen.

Crowdfunding für Photoshop Lupe. Wer macht mit? :)

Oder hat sich Adobe in den neueren Versionen erbarmt und nutzt für die Menus keine Schriften mit fixer Größe? Zumindest mit CS6 würde man auf so hoher Pixeldichte gar nichts mehr erkennen.
 
Also mein ViewSonic ist "traditionell" innerhalb der Garantiezeit abgeraucht.

Habe auf Garantie/Zurückschicken und das Theater verzichtet, den altgedienten preis-/leistungsorientierten Monitorhersteller im Elektroschrott entsorgt, wo er hin gehört und auch keinen Bedarf mehr an ViewSonic.

Das sind meine direkten Erfahrungen damit.

Ich meine, wenn man das Ding evtl. nur 5 mal im Jahr kurz einschalten will .... hm ... nee, selbst dann nicht.
Keinen bock dass meine Bude wegen so einem Billigschrottteil abfackelt.
 
bin ich der einzige, der 35" als ultrawide einfach zu klein findet, weil das bild dann doch zuwenig hoch ist?
 
Nein bist du nicht. Das ist ja gerade mal die Höhe eines seligen 22" 4:3 oder eben der "klassische" 24" 16:10. Muss im Jahr 2018 eigentlich nicht sein.

Shoryuken94 schrieb:
Der sichtbare Schärfeunterschied zu UHD ist nicht so groß, aber man braucht auch deutlich weniger GPU Leistung.

Der ist für normalsichtige recht linear genau zwischen FHD und UHD. Das Fligengittter ist da noch immer sehr gut da. Um nichts mehr zusehen müsste es für 28" schon um 12K sein. Bei Schrift oder dem typischen Extremfall Leitung gegen Sonne alles eindeutig zu unterscheiden.


Zum Thema: Weiterhin nur uralte Grütze ohne DP1.3 aufwärts. Dafür eben jetzt auch in geometrisch verschandelt...

Chismon schrieb:
Da ernsthafte Hoch-fps-Spieler (HFS) i.d.R. unter UHD/4K eh falsch aufgehoben sind und sich eher an WQHD oder Full-HD Auflösungen orientieren werden, reicht natürlich derzeit noch lange so ein ViewSonic 60 Hz Monitor auch vollkommen aus und so schnell wird man die 120+Hz UHD/4K Geräte (wenn sie denn irgendwann auf den Markt kommen) ohne Titan XP Triple-SLI oder Ampere GTX 1180/2080 Dual-SLI (denn unter "ultra" und teilweise auch "high" erreicht man die 60 fps mit einer GTX 1080Ti oder wassergekühlten Titan Xp ja aktuell nicht einmal) vermutlich sowieso nicht ausreizen können ;).

Der ernsthafte *Hoch-fps-Spieler* spielt auch nicht in Ultra. Da sind wir dann direkt in Bereichen wo die 120Hz kaum noch ein Thema sind. Bei einem aktuellen UT oder CS willst du wiederum beim Zielen die bessere Auflösung haben. *Den* Monitor gibt es im Moment eh nicht.
 
Zuletzt bearbeitet:
Müsste eigentlich die Höhe eines Standard 16:9 27" haben.
Zumindest 34zöller.
 
ChrisMK72 schrieb:
Also mein ViewSonic ist "traditionell" innerhalb der Garantiezeit abgeraucht. Habe auf Garantie/Zurückschicken und das Theater verzichtet, den altgedienten preis-/leistungsorientierten Monitorhersteller im Elektroschrott entsorgt, wo er hin gehört und auch keinen Bedarf mehr an ViewSonic. Das sind meine direkten Erfahrungen damit.

Ja gut, das ist dann natürlich dumm gelaufen (wobei ich allerdings nicht nachvollziehen kann, wieso Du den nicht reklamiert hast, sonst lernen die dort ja auch nichts daraus und schießlich war das Dein gutes Recht).

Der ViewSonic Monitor mit dem ich gearbeitet habe war ein einfaches/günstiges Büroteil und kein ausgewiesener Gaming-Monitor oder gar hochwertiges Allround-Gerät im gehobenen Preissegment.

Wenn es modelltechnisch passen sollte, wird irgendwann mein zukünftiger 4K/UHD Monitor wohl wieder ein Dell werden, ansonsten kämen bei mir neben Iiyama wohl LG, Phillips, evt. BenQ und sogar Samsung (einzige Produktkategorie, die ich von dem staatssubventioniertem Laden freiwillig/bewusst kaufen würde) in Frage; ASUS, Acer oder AOC aber mit Sicherheit nicht; NEC und Eizo sind mir schon immer prinzipiell zu teuer gewesen für das Gebotene (mit immer schon dürftigem Preis-Leistungs-Verhältnis, auch wenn sie natürlich immer noch die beste/kompromissloseste Wahl darstellen, wenn Geld keine Rolle spielt).

Es gibt also immer noch genügend gute Alternativen zu ViewSonic, keine Bange ;).

Botcruscher schrieb:
Der ernsthafte *Hoch-fps-Spieler* spielt auch nicht in Ultra. Da sind wir dann direkt in Bereichen wo die 120Hz kaum noch ein Thema sind. Bei einem aktuellen UT oder CS willst du wiederum beim Zielen die bessere Auflösung haben. *Den* Monitor gibt es im Moment eh nicht.

Ganz genau darauf wollte ich ja mit meinem Beitrag hinaus, denn hier wird ja ständig/ewig von einigen unsinniger und mittlerweile echt nerviger Weise gejammert, dass es immer noch nicht etliche Hersteller mit 120+Hz Free- oder G-Sync-Monitore im 4K/UHD-Bereich für Gamer gibt.

Wozu auch, wenn die aktuellen GPUs (und wohl mit 2018 erscheinenden (Ampere) GPUs) in einem normalen (nicht dual- oder triple-SLI-)System (ich bezweifle die meisten dieser Leute haben ein entsprechend teures/potentes SLI-System) bei anspruchsvollen/aktuellen Titeln das sowieso nicht packen oder wollen die Leute alle in Low Details unter 4K/UHD Ihre Ego-Shooter spielen :freak:?
 
Chismon schrieb:
Ganz genau darauf wollte ich ja mit meinem Beitrag hinaus, denn hier wird ja ständig/ewig von einigen unsinniger und mittlerweile echt nerviger Weise gejammert, dass es immer noch nicht etliche Hersteller mit 120+Hz Free- oder G-Sync-Monitore im 4K/UHD-Bereich für Gamer gibt.

Wozu auch, wenn die aktuellen GPUs (und wohl mit 2018 erscheinenden (Ampere) GPUs) in einem normalen (nicht dual- oder triple-SLI-)System (ich bezweifle die meisten dieser Leute haben ein entsprechend teures/potentes SLI-System) bei anspruchsvollen/aktuellen Titeln das sowieso nicht packen oder wollen die Leute alle in Low Details unter 4K/UHD Ihre Ego-Shooter spielen :freak:?

BF 1 oder CoD WW2 laufen selbst mit meiner 1070 in 4K und Hohen/Ultra Einstellungen schon mit 60 bzw über 60 fps, da werden die Leute mit 1080 oder 1080ti schon von 120 hz/144hz profitieren. Zukünftige Generationen dann sowieso mit GTX2060 oder besser ?!.
 
Chismon schrieb:
das sowieso nicht packen oder wollen die Leute alle in Low Details unter 4K/UHD Ihre Ego-Shooter spielen :freak:?

Yep.
Ich ziel deshalb mit kommender Ampere auf 60-100 FPS auf meinem UWQHD 100Hz g-sync Monitor. Damit bin ich dann schon glücklich.
Aber gut aussehen sollen die Spiele trotzdem.
Muss nicht alles komplett ultra sein, aber vieles und einiges auf hoch.

Je näher ich meinem Ziel 100 Minimum FPS = dauerhaft festgetackerte 100 FPS komme, desto besser. :)
Also auch in sogenannten AAA-Titeln.

So Sachen wie Motion Blur und manch anderes stelle ich aber eh immer aus.
Hoffe mit meiner nächsten GPU klappt das dann einigermaßen.
Soll die "Ampere 1080" werden.


Das Gute ist, 3440x1440 braucht nicht so hohe Power, wie UHD.
Ich glaub ab Sommer komme ich meinem Ziel ein gutes Stück näher, mit neuer Basis und neuer GPU. :D


Hätte halt am liebsten nicht mehr schwankende, dauerhafte 100 FPS auf 100 Hz G-sync.
Das könnte schön flüssig rüberkommen. :)
 
Chismon schrieb:
Ganz genau darauf wollte ich ja mit meinem Beitrag hinaus, denn hier wird ja ständig/ewig von einigen unsinniger und mittlerweile echt nerviger Weise gejammert, dass es immer noch nicht etliche Hersteller mit 120+Hz Free- oder G-Sync-Monitore im 4K/UHD-Bereich für Gamer gibt.

Wozu auch, wenn die aktuellen GPUs (und wohl mit 2018 erscheinenden (Ampere) GPUs) in einem normalen (nicht dual- oder triple-SLI-)System (ich bezweifle die meisten dieser Leute haben ein entsprechend teures/potentes SLI-System) bei anspruchsvollen/aktuellen Titeln das sowieso nicht packen oder wollen die Leute alle in Low Details unter 4K/UHD Ihre Ego-Shooter spielen :freak:?
Punkt 1)
Einen (teuren) Monitor kaufe ich nicht nur für die nächsten 2 Jahre.
Wenn ich schon bei ~1000€ für 4K, HDR und gute DCI-P3-Abdeckung bin, möchte ich für den Preis auch einen Monitor haben, der bei Bedarf 144Hz ausgeben kann. Zumal das auch nicht nur für's Zocken nice ist.

Punkt 2)
Die GTX 1080 TI (im Prizip auch schon GTX 1080) reicht schon heute für 4K + 120Hz aus, wenn man sinnvoll die Settings reduziert.
Es muss nicht gleich überall low sein.
Zumal man mit GSync auch schon davon profitieren würde, wenn man irgendwo im Bereich von 100Hz landet.

Ich find's auch einfach affig, daß die Hersteller das so lange hinaus zögern.
Die Panels sind schnell genug, die Ports haben genug Bandbreite. Wieso also unnötig auf 60Hz beschränken?
 
Wattwanderer schrieb:
Da fällt mir ein, ich habe mein Photoshop Witz vergessen.

Crowdfunding für Photoshop Lupe. Wer macht mit? :)

Oder hat sich Adobe in den neueren Versionen erbarmt und nutzt für die Menus keine Schriften mit fixer Größe? Zumindest mit CS6 würde man auf so hoher Pixeldichte gar nichts mehr erkennen.

Bei Adobe sitzen eben ein paar Lappen zu viel herum.
Entweder man nutzt als Profi oder regelmäßiger Nutzer Tastenkombinationen für die meisten Funktionen oder drückt einfach "Windows & +" für die Bildschirmlupe in Windows.

Ganz nebenbei:
Man kann die Menüs bereits skalieren, auch wenn ich es mit meiner älteren Version auf 4k trotzdem nicht tue.
 
Ich verstehe nicht warum hier einige so Manches erst mal pauschal schlecht reden und sich lustig machen. Vermutlich nutzen die meisten ihren PC ausschließlich zum spielen?!

Ein 8k Monitor macht absolut Sinn! Man stelle sich vor man schneidet 4k Videomaterial und hat dann noch Platz für die gesamte GUI inklusive Mediabrowser usw.
32“ sind nebenbei eine angenehme Größe für solche Aufgaben.

Wenn jetzt die Farbwiedergabe noch passt kann das ein sehr interessanter Monitor sein.
 
Sorry, aber dein Beispiel ergibt keinen Sinn.
Ich kann auch 4K Material auf einem 4K Monitor schneiden, so daß noch genug GUI auf dem Screen ist.

4K auf 32"ist sinnvoll. Da sitzt man dann entsprechend nahe davor und kann von dem Platz auch wirklich Gebrauch machen.
8K bringt nicht wirklich was. Denn viel näher kann man an den Bildschirm nicht ran. Das müsste man jedoch, wenn man noch mehr auf dem Screen darstellen möchte. Denn logischerweise würden die Dinge dann kleiner.
 
@Pitzer König: Schon mal was von Retina Displays gehört? iMac 5K, MacBook 12", MacBook Pro, und auch von diversen anderen Herstellern.
Schärfere Schrift, detailreichere Bilder und Videos. Aber das Ganze dann bei einer nutzbaren halbierten Auflösung.

Unter macOS funktioniert das hervorragend, sodass man alles so groß ist wie bei halber Auflösung (also 4K), aber gleichzeitig das System schlau genug ist, um die Pixel zu nutzen und Schriften und Grafiken mit doppelter Auflösung (8K) zu rendern.

Unter Windows weiß ich nicht ob / wie gut das funktioniert. Aber im Prinzip wäre eine Skalierung von 200%.
 
Zurück
Oben