News C3583FQ: AOCs gebogener 35-Zoll-Monitor kostet 799 Euro

1440p und 144hz oder mehr sind halt einfach nicht möglich mit den derzeitigen videoausgängen, auch nicht mit hdmi 2.0 ebenso dp 1.2a. da muss erst 1.3 kommen, der standard kann das vl.
 
SirBerserk schrieb:
1440p und 144hz oder mehr sind halt einfach nicht möglich mit den derzeitigen videoausgängen, auch nicht mit hdmi 2.0 ebenso dp 1.2a. da muss erst 1.3 kommen, der standard kann das vl.

144 hz bei 1440p sind ja wohl gar kein problem.
 
Der Monitor ist zwar in der Theorie interessant, dann kommen aber nur 2.560 × 1.080 Pixel auf 35 Zoll, da muss man dann schon ordentlich weit weg sitzen um nicht die Pixel einzeln zählen zu können :(

Allerdings freut mich, dass doch noch weitere 21:9 Monitore auf den Markt kommen, einfach ein super Format :)
 
SirBerserk schrieb:
1440p und 144hz oder mehr sind halt einfach nicht möglich mit den derzeitigen videoausgängen, auch nicht mit hdmi 2.0 ebenso dp 1.2a. da muss erst 1.3 kommen, der standard kann das vl.
muss Prophetic zustimmen: 1440p@144Hz ist technisch möglich, wenn auch mit Schwierigkeiten (man braucht ein sehr gutes 30€-Kabel)

Wahrscheinlich meintest du aber daß 3440x1440pixel, also im Seitenverhältnis der 34/35Zöller) nicht mit 144Hz möglich ist. Da ist die Grenze bei etwas über 100Hz (glaub 107Hz)



wie donDonat breits erkannte: der sitzabstand muss recht groß sein, damit die Pixel nicht auffallen oder gar stören. Für ein Curved-Display, das Immersion aufbauen soll, ist das natürlich Gift :D
 
Da kann man auch gleich den Dell für akutell 700€ nehmen mit 34" und der höheren Auflösung. Allerdings hat der nur 60Hz.
 
spamarama schrieb:
1080p bei 35 Zoll? Das sah ja schon auf 27" Monitoren wie ein Sieb aus, wer würde sich das denn auf einem 35er antun?:rolleyes:

Wo ist der Unterschied? In der Höhe sind die beiden Monitore annährend gleich. (16:9 bei dem 27iger vorrausgesetzt)

Die 45 als Untergrenze finde ich auch etwas hoch.
Da scheint Nvidias Lösung schon besser zu sein. Der Aufpreis aber leider ja teilweise sehr happig und wer weiss, wie sich AMD und NVIDIA Karten der nächsten Generation schlagen.

Bei Nvidia ist es schade, dass ULMB (oder wie es hiess) nicht mit Gsync kombiniert werden kann.

Nvidia soll mal über den eigenen Schatten springen und AMD Karten bei Gsync Monitoren zulassen bzw Freesync auch für Nvidia Karten nutzbar machen.

Ansonsten entspricht der Monitor schon meinen Wünschen. Das Ghosting, das dieses Panel aber wohl hat, wäre unangenehm. Ansonsten ist der Z35, der wohl dasselbe Panel hat, ein guter Spielemonitor.
Die Auflösung reicht mir vollkommen aus. Will ja keine 2k Euro für Grafikkarten ausgeben müssen. Sitze sowieso fast einen Meter vom Monitor weg und würde eher noch weiter weg rücken als näher ran. Pixel sehe ich da nicht. Klar ist eine höhere Auflösung schöner, aber mit den aktuellen Grafikkarten nicht preiswert zu befeuern.

Edit:
Bei physX und 3D Vision kann man ja sehen, dass sich Nvidias Alleingänge nicht wirklich auf breiter Front durchsetzen.
 
Zuletzt bearbeitet:
spamarama schrieb:
1080p bei 35 Zoll? Das sah ja schon auf 27" Monitoren wie ein Sieb aus, wer würde sich das denn auf einem 35er antun?:rolleyes:

Ist klar !:heuldoch:

Das einzige, was mich stören würde, ist der fehlende VESA-Mount, ansonsten sieht es gut aus und preislich okay !
 
Vitec schrieb:
Aber mit 1080p und 35" als auch dem Preis hat man sicher eine Kaufgruppe .
Gibt genug die ich kenne die mit ihren PC`s am TVs zocken mit 1080p und das auf teilweise grossen 40" Bildflächen und damit gücklich sind.

Nur dass diese Leute dann aber nicht 0.8m vor dem TV sitzen sondern eher auf 2-3m Entfernung zocken.
 
Scheint schwierig zu sein, den u3477Pqu einfach mal mit Adaptive Sync zu refreshen. Wäre auch sofort gekauft, und wenns nur mimimi 60 Hz wären (und hoffentlich die untere Grenze stimmt). Aber ne 1080er-Möhre für 800€? :lol: Einmal das dafür zuständige Entwicklungs- und Vermarktungsteam komplett austauschen, bitte.
 
Hallo @ all,

also schon lustig was manche hier von sich geben, ohne darüber nachzudenken. Ich würde jedermann die Seite

http://www.displaywars.com/

ans Herz legen, dort kann man sich verschiedene Bildschirmgrößen/Formate einerseits visualisieren lassen, falls man nicht über das nötige räumlich Vorstellungsvermögen verfügt. Andererseits berechnet die Seite von der Bildschirmdiagonale abhängige Werte, so daß man seine angestaubte Trigonometrie-Formeln weiter verstauben lassen kann.

Wie auch immer man darf nicht den Fehler begehen das Format in seinen Überlegungen der Größe zu vergessen. 35" klingt vielleicht wie ein gigantischer Monitor, die Angabe 21:9 macht ihn dagegen richtig klein. Nun ich arbeite noch am letzten "guten" 27"er der von Dell gebaut wurde, dem 2709W mit 16:10 und 1200p. Wenn man nur die Zoll-Angabe im Kopf hat, könnte man denken das wäre ja ein viel kleinerer Monitor. Das stimmt aber nur in der Breite. In der Höhe (in cm) ist mein 27"er tatsächlich 1.3 cm höher. Ein 29"er oder gar ein 27"er in 21:9 darf deshalb getrost als Winzling angesehen werden.

Die zweite einseitige Betrachtungsweise ist der Pixelwahn. Hier wird ohne jegliches Nachdenken Anzahl der Pixel oder Auflösung mit Qualität gleichgesetzt oder zumindest als grundsätzliches Qualitätsmerkmal verstanden. Das ist zumindest als Allgemeinregel falsch. Je nach Anwendungszweck oder Betrachtungswinkel kann eine höhere Auflösung sich entweder positiv, aber auch stark negativ auswirken. In einer Programmierumgebung z.B. ist sehr wichtig noch einen einzelnen Pixel(-Abstand) mit dem bloßen Auge erkennen zu können. Denn im Gegensatz zu Bildbearbeitungsprogrammen wie Photoshop kann man da nicht einen Zoom verwenden. Trotzdem ist oft notwendig grafische Elemente auf den Pixel genau auszurichten. Also ich würde jetzt selbst bei einem 32"er UHD nicht in der nativen Auflösung in VB arbeiten wollen. Bearbeitet man dagegen Kamerabilder mit Photoshop kann die Auflösung nicht groß genug sein. Nur so kann man besser bewerten wie das Bild nach dem Druck rüberkommt.

Aber auch bei Spielen gibt es ein Für-und-Wider: Einerseits kann (muß nicht) sich der optische Eindruck verbessern. Kann deshalb, weil das auch entsprechend hochauflösende Ressourcen bedingt. Wenn also eine Textur die nur 512x512 Pixel besitzt aus einem halben Abstand betrachtet wird, dann ist sie pixelig - egal ob 1080p, 1440p oder 2160p es macht absolut keinen sichtbaren Unterschied. Doch der Wechsel von 1080p zu 2160p erfordert die 4-fache GPU-Leistung. Wenn man also nicht gerade ein Quad-GTX 980ti-SLI sein eigen nennt ist dieser Unterschied bei allen Spielen deutlich bemerkbar. Da aber PC-Spiele heutzutage, auch im AAA-Segment mehr oder weniger Konsolenports sind, sind die mitgelieferten Texturen pixelig und matchig, und werden durch einen höher auflösenden Monitor kaum oder gar nicht besser. Erst Texturen mit 4k (4096x4096) schöpfen die Fähigkeiten eines UHD Monitors völlig aus. Aber eine entsprechende Textur-Mod, die aus einer 512x512 Textur eine 4K Textur macht, verschlingt die 64-fache GPU-Leistung! Auch die Dateigröße wüchse um das 64-fache und dementsprechend die Ladezeiten. Das wird bei Spielen die auch auf den Konsolen laufen sollen die nächsten 10 Jahre mit Sicherheit nicht passieren. Solange sich an den Konsolen nichts hardwaremäßiges ändert, wird sich auch an diesem Fakt nichts ändern.

Der zweite Punkt hierbei ist die Ergonomie. Auch wenn für viele das erstmal unverständlich erscheint: Je höher die Auflösung/Größe also die dpi-Zahl - um so schlechter ist die Ergonomie. Alle Elemente werden bei einer höheren Auflösung kleiner dargestellt. Daher muß das Auge viel stärker fokussieren um das Objekt scharf sehen zu können. Das bedeutet Streß für das Auge, Streß der direkt proportional zur Auflösung ist, und das Auge in der Langzeitwirkung (über Jahre/Jahrzehnte) schädigt. Das kann man weder sehen noch spüren, aber dem ist trotzdem so. In viel stärkerem Maß gilt das übrigens für 3D-Darstellung. Wie auch immer, im Laufer des Älterwerdens nimmt die Fähigkeit des Auges zu fokussieren, ähnlich wie beim Hörvermögen, kontinuierlich ab. Und zwar absolut ausnahmslos bei jedem Menschen. Das nennt man Altersweitsichtigkeit. Allerdings ist Stärke und Ausprägung dieser Erscheinung ausgesprochen individuell geartet, d.h. sie wirkt sich bei jedem Menschen stark unterschiedlich aus. Schuld sind wieder einmal die Gene. Dennoch, ein ständiges Starren auf winzige Bildschirme, mit viel zu hoher Auflösung, verstärkt diesen Prozeß über die Jahre drastisch. D.h. das man dann vielleicht nicht erst mit 40-50 Jahren eine Lesebrille braucht, sondern schon mit 30-35. Wer das nicht glaubt frage gerne den Optiker/Augenarzt seines Vertrauens.

Was mich wiederum stört ist schlicht der Hersteller. Ich zahle lieber 300€ Aufpreis für einen Monitor von Dell oder HP bevor ich Schrott kaufen würde. Denn ein guter Monitor lebt 3-5 Hardwaregenerationen oder 5-10 Jahre, während alles andere viel schneller veraltet. Außerdem würde ich nie wieder etwas anderes als ein VA-Display kaufen. Nun zumindest solange es keine bezahlbaren OLED-Alternativen gibt. Also mein Traummonitor wäre eher so etwas:

  • >=40"
  • 21:9, curved - OHNE Rand
  • 1440p
  • (S-P)VA Display / oder OLED (Wunschtraum ich weiß)
  • G-Sync
  • >= 1500€
Wahrscheinlich ist das aber wie immer wenn ich eine Hardware haben möchte. Alle halten mich für ein Spinner (OK, ich bin auch wirklich ein Hardware-Spinner), und ich muß 5-10 Jahre warten bis jemand so etwas auf den Markt bringt.
 
Zuletzt bearbeitet:
warum sollten texturen in höherer auflösung nicht schöner aussehen, auch wenn sie z.b. nur 40 x 40 groß sind? die sind ja in spielen nicht in gleichbleibender größe, sondern in bewegung und da macht eine höhere auflösung eben schon einen unterschied.

auch muss man sich im 4k officebetrieb nicht die augen kaputt machen, weil die symbole zu klein sind. entweder man skaliert hoch oder stellt auf fhd.

und die vierfache leistung an gpu-power ist nicht nötig. ein blick auf die benchmarks sagt mir, dass eine grafikkarte bei den meisten spielen in uhd nur noch die hälfte oder n drittel der fps bei gleichen settings bringt. auf was es da genau ankommt, können andere sicher besser erklären als ich...

va, jaaa... hoffentlich bald auch öfter in höherer auflösung und mit sync :smokin:
 
@BlackWidowmaker

Der Großteil des Beitrags ist mal wieder großer Käse. Wie schon geschrieben braucht man in Spielen mit UHD nicht die 4fache Leistung im Vergleich zu FHD. Da kannst du dir jeden Benchmark anschauen. So eine Milchmädchen-Rechnung hört sich zwar erstmal logisch an, ist aber grundlegend falsch. Und auch wenn die Texturen keine 4K Auflösung haben, ist das auch nur bei nahen Objekten der Fall. Auf Distanz ermöglicht eine hohe Auflösung eben auch mehr Details auch bei den schon vorhandenen Texturen. Hinzu kommt der Antialiasing Effekt das höheren Auflösung. So ziemlich jeder mit einem UHD Monitor würde lieber die Details etwas runterstellen als wieder zurück zu einer niedrigeren Auflösung. Das liest man in so ziemlich jedem Erfahrungsbericht hier auf CB. Dein Argument mit der Ergonomie ist dann mal wirklich lächerlich. Schon mal was von Skalierung gehört?
 
Also ich verstehe auch nicht, warum alle nach höherer Auflösung schreien. Man soll vor so einem Monitor auch nicht in 30cm Abstand sitzen. Oben wurden die Gründe gut beschrieben. Kurzsichtigkeit lässt grüßen. Reicht ja schon den halben Tag am Smartphone zu hängen.

Der Monitor steht seit heute bei mir auf dem Schreibtisch, leider noch mit nem alten HDMI-Kabel. Somit konnte ich die 160hz noch nicht ausprobieren. Der Mehrwert liegt eindeutig im breiteren Arbeitsbereich und einer besseren Atmosphäre beim zocken. Da merkt man auch gleich welcher Publisher schludert.... FO4 MGSV haben keine native 21:9 Unterstützung... Dafür aber Crysis 3 von vor x Jahren.
 
smooth el 4a schrieb:
warum sollten texturen in höherer auflösung nicht schöner aussehen, auch wenn sie z.b. nur 40 x 40 groß sind? die sind ja in spielen nicht in gleichbleibender größe, sondern in bewegung und da macht eine höhere auflösung eben schon einen unterschied.

Behaupten kann man viel. Ich verlasse mich da lieber auf Fakten als auf Werbesprüche. Erstmal zur Bewegung. Diese hat nun wirklich gar nichts mit der Sache zu tun. Sie spielt in der Betrachtung nativer Auflösung schlichtweg keine Rolle.

Z.Z. mache ich kaum noch etwas anderes, als Texturen für Fallout 4 zu erstellen, daher bilde ich mir dann doch ein, einiges darüber zu wissen. Ich erstelle meine Texturen in 4K (16MP) teils sogar 8K (64MP), tue aber diese so nur als PSD abspeichern. Da wird schnell eine Datei>500MB daraus. Um diese Texturen ins Spiel zu integrieren werden sie aber zuerst auf 2K downgesampelt. Obwohl die Vanilla Texturen auf die gleiche Auflösung beruhen, ist dennoch ein großer qualitativer Unterschied, da ich für meine Texturen photorealistische Musterstempel verwende, die teilweise sogar höher als 4K auflösen.

Beispielweise habe ich einen neuen schwarzen Anzug mit feinem dunkelroten Brokat verziert kreiert, basierend auf hochauflösende Brokat-Muster.

BlackSuitRedBrocade_d.jpg

Nur sieht man dieses Brokat-Muster erst bei einem Abstand von 1-2m. Geht man weiter weg verschwindet dies Brokat-Muster, übrig bleibt ein schwarzer Anzug mit einer kaum wahrnehmbaren Rottönung. Würde ich die Textur aber in 4K abspeichern, dann wäre das Brokat-Muster noch aus der doppelten Entfernung sichtbar. Ich tue das aber absichtlich nicht, weil selbst auf meiner GTX 980ti die Performance-Nachteile überwiegen.

ottoman schrieb:
Auf Distanz ermöglicht eine hohe Auflösung eben auch mehr Details auch bei den schon vorhandenen Texturen.

Nun da herrscht wohl eher Halbwissen und Werbesprüche. Dazu sollte man vielleicht erst mal erklären wie Texturen überhaupt funktionieren. Bei einer 3D-Textur werden sogenannte Mip-Maps erzeugt. Das sind verkleinerte Abbilder der Quelltextur. Obige Textur verdeutlicht das. Das gleiche Prinzip wie bei Windows-Icons. Auch bei einer ICO-Datei werden mehrere skalierte Abbilder des Bildes in einer Datei gespeichert. Die Spiele-Engine (Windows-APIs bei ICONs) entscheidet dann je nach Qualitätseinstellungen und Entfernung welche der einzelnen Maps geladen werden. Anfangend ganz rechts bei maximaler Sichtdistanz, wird dann bei Unterschreitung einer einstellbaren Grenze in die nächsthöhere (höher auflösende) Mip-Map weiter links geschaltet. Umgekehrt wird zur nächst kleineren Mip-Map weiter rechts geschaltet, wenn eine bestimmte Entfernung überschritten wird. Um Texturflackern zu vermeiden ist eine großzügige Hysterese einkalkuliert. D.h. wenn z.B. bei Unterschreitung einer Entfernung von 600 in die nächsthöhere Mip-Map geschaltet wird, wird erst bei einer Überschreitung von 800 in die ursprüngliche Mip-Map zurückgeschaltet. Die Differenz von 200 stellt den Hysterese-Bereich da.

Der wichtigste Punkt hierbei ist, daß der obige Darstellung widerlegt ist, da die Spiele-Engine die Auflösung der Textur überhaupt nicht kennt oder gar überprüft. Das einzige was die Engine macht ist sozusagen die Mip-Map Nr zu entscheiden. Sie berechnet den Sichtabstand vom Objekt und lädt dann je nach Ergebnis Mip-Map 1,2,3 usw. Wenn sie aufgrund ihrer Berechnung sich auf Mip-Map 3 entscheidet, dann sehen wir im oberen Beispiel eine Textur mit 512x512. Und diese Textur ist dann 512x512 egal welche Auflösung der Monitor hat. Stellen wir in der Darstellungsqualität höhere Werte ein, dann wird wird dann Mip-Map Stufe 2 oder gar 1 eingestellt, die dementsprechend dann bei gleicher Bildschirmgröße höher auflöst und demzufolge besser aussieht. Deshalb machen höher auflösende Texturen sehr wohl Sinn, auch wenn sie sogar über die native Auflösung des Monitors hinausgehen.


ottoman schrieb:
Hinzu kommt der Antialiasing Effekt das höheren Auflösung. So ziemlich jeder mit einem UHD Monitor würde lieber die Details etwas runterstellen als wieder zurück zu einer niedrigeren Auflösung.

Das wiederum ist ein unstrittiger Punkt, der aber wiederum absolut nichts mit meinen Detailbetrachtungen zu tun hat. Ungefähr wie zu sagen BMW ist besser als Mercedes, weil es im Winter kalt ist. Die erste Annahme wird nicht dadurch wahr, weil die zweite (zumindestens in der nördlichen Hemisphäre) unstrittig ist. Ich habe auch nie gesagt, daß UHD sinnlos ist. Ich überlege selber eine Anschaffung. Ich sage nur man sollte das Thema UHD, bzw generell höhere Auflösungen, nicht einseitig im Pixelwahn betrachten, sondern sich das Für- und Wider- objektiv betrachten. Vor allem sollte man das Verhältnis Bildschirmdiagonale/Auflösung nicht außer acht lassen. Wobei der erste Satz zumindestens sehr unglücklich formuliert wurde. Richtig ist aber, daß die höhere Auflösung es erlaubt niedrigere AA-Einstellungen zu wählen, oder gar gänzlich zu verzichten ohne nennenswerte sichtbare Unterschiede.

Was aber ein absoluter Irrtum ist, wenn man diesen Effekt einfach dem UHD zuschreibt. Das ist eine irrtümliche Sichtweise. Was tatsächlich zutrifft ist, ist daß je nach Alter, die Unfähigkeit des menschlichen Auges beliebig scharf fokussieren zu können, die gleiche visuelle Auswirkung hat wie berechnetes Anti-Aliasing. Wenn man also, so wie ich, dann auch noch an zunehmender Altersweitsichtigkeit leidet, kann man dann schon bei Full-HD gänzlich auf Anti-Aliasing verzichten, wenn man einfach die Brille abnimmt. :( Ein sehr junger Mensch mit hervorragender Sehschärfe wird AA selbst auf einem UHD Monitor klar differenzieren können. Das Leben ist halt gemein. Zuerst hat man die Fähigkeiten, aber nicht die passende Kohlen, irgendwann genug Knete, aber keinen Nutzen mehr weil es an der Fähigkeit mangelt.

ottoman schrieb:
Schon mal was von Skalierung gehört?

Gehört schon, nur weiß ich leider auch, daß sie nur bedingt funktioniert. Denn dies ist eine Sache der Software-Implementierung, und wenn man Skalierung schlecht oder gar nicht umsetzt, kann sie auch nicht funktionieren. Wenn man einen UHD Monitor auf ein krummes Verhältnis runterskaliert, dann ist das eben keine optimale Lösung. Das meiste funktioniert, aber eben nicht alles. Wenn z.B. ein Programmierer Text in einer grafischen Box darstellt, und dabei außer Acht läßt, daß die Darstellung von Text dpi-mäßig skalieren kann, und keine Funktion programmiert die benötigte Objekt-Breite der Box richtig berechnet und anpaßt, dann wird der Text halt einfach abgeschnitten dargestellt. Solche Darstellungsfehler sind auch 2016 keine Seltenheit. Ja selbst bei MS-Programmen.

Viel wichtiger ist jedoch die Tatsache, daß Skalierung in der Praxis oft, wenn nicht gar meistens, überhaupt nicht genutzt wird. Geh mal durch die Foren, Du wirst unzählige UHD-Desktop-Screenshoots finden, wo Leute eben alle in der nativen Einstellung arbeiten. Teilweise sogar auf einem mickrigen 17" Notebook. Und das ist nunmal langfristig sehr ungesund für das Auge, ob Du es nun wahrhaben möchtest oder nicht. Und da der absolut wichtigste Ergonomiefaktor die körperliche Gesundheit ist, darf man in diesem Zusammenhang von schlechter Ergonomie sprechen.

Und mal nur so ganz nebenbei, das nennt man eine Argumentationskette, anstatt einfach einen Beitrag als Käse abzutun. Wobei ich in real-life Käse liebe, ich könnte mich wochenlang nur von Käse ernähren. :evillol:
 
Zuletzt bearbeitet:
BlackWidowmaker schrieb:
Nun da herrscht wohl eher Halbwissen und Werbesprüche. Dazu sollte man vielleicht erst mal erklären wie Texturen überhaupt funktionieren. Bei einer 3D-Textur werden sogenannte Mip-Maps erzeugt. Das sind verkleinerte Abbilder der Quelltextur. Obige Textur verdeutlicht das. Das gleiche Prinzip wie bei Windows-Icons. Auch bei einer ICO-Datei werden mehrere skalierte Abbilder des Bildes in einer Datei gespeichert. Die Spiele-Engine (Windows-APIs bei ICONs) entscheidet dann je nach Qualitätseinstellungen und Entfernung welche der einzelnen Maps geladen werden. Anfangend ganz rechts bei maximaler Sichtdistanz, wird dann bei Unterschreitung einer einstellbaren Grenze in die nächsthöhere (höher auflösende) Mip-Map weiter links geschaltet. Umgekehrt wird zur nächst kleineren Mip-Map weiter rechts geschaltet, wenn eine bestimmte Entfernung überschritten wird. Um Texturflackern zu vermeiden ist eine großzügige Hysterese einkalkuliert. D.h. wenn z.B. bei Unterschreitung einer Entfernung von 600 in die nächsthöhere Mip-Map geschaltet wird, wird erst bei einer Überschreitung von 800 in die ursprüngliche Mip-Map zurückgeschaltet. Die Differenz von 200 stellt den Hysterese-Bereich da.

Der wichtigste Punkt hierbei ist, daß der obige Darstellung widerlegt ist, da die Spiele-Engine die Auflösung der Textur überhaupt nicht kennt oder gar überprüft. Das einzige was die Engine macht ist sozusagen die Mip-Map Nr zu entscheiden. Sie berechnet den Sichtabstand vom Objekt und lädt dann je nach Ergebnis Mip-Map 1,2,3 usw. Wenn sie aufgrund ihrer Berechnung sich auf Mip-Map 3 entscheidet, dann sehen wir im oberen Beispiel eine Textur mit 512x512. Und diese Textur ist dann 512x512 egal welche Auflösung der Monitor hat. Stellen wir in der Darstellungsqualität höhere Werte ein, dann wird wird dann Mip-Map Stufe 2 oder gar 1 eingestellt, die dementsprechend dann bei gleicher Bildschirmgröße höher auflöst und demzufolge besser aussieht. Deshalb machen höher auflösende Texturen sehr wohl Sinn, auch wenn sie sogar über die native Auflösung des Monitors hinausgehen.
Ich zitiere einfach mal von http://www.golem.de/news/pc-spiele-...ing-schlaegt-full-hd-immer-1407-107966-2.html Bitte Downsampling gleich setzen mit höherer Auflösung:
Downsampling bringt ja nicht nur Anti-Aliasing, auch die Texturauflösung in der Entfernung wird höher, da das Mip-Mapping später zuschlägt, und bei fast allen Spielen sind entfernte Objekte und Landschaften mit mehr Polygonen versehen. Sogar die Tessellation arbeitet auflösungsabhängig, die gleiche Szene in Ultra HD hat dabei etwa viermal so viele Dreiecke wie bei Full-HD.


BlackWidowmaker schrieb:
Das wiederum ist ein unstrittiger Punkt, der aber wiederum absolut nichts mit meinen Detailbetrachtungen zu tun hat. Ungefähr wie zu sagen BMW ist besser als Mercedes, weil es im Winter kalt ist. Die erste Annahme wird nicht dadurch wahr, weil die zweite (zumindestens in der nördlichen Hemisphäre) unstrittig ist. Ich habe auch nie gesagt, daß UHD sinnlos ist. Ich überlege selber eine Anschaffung. Ich sage nur man sollte das Thema UHD, bzw generell höhere Auflösungen, nicht einseitig im Pixelwahn betrachten, sondern sich das Für- und Wider- objektiv betrachten. Vor allem sollte man das Verhältnis Bildschirmdiagonale/Auflösung nicht außer acht lassen. Wobei der erste Satz zumindestens sehr unglücklich formuliert wurde. Richtig ist aber, daß die höhere Auflösung es erlaubt niedrigere AA-Einstellungen zu wählen, oder gar gänzlich zu verzichten ohne nennenswerte sichtbare Unterschiede.

Was aber ein absoluter Irrtum ist, wenn man diesen Effekt einfach dem UHD zuschreibt. Das ist eine irrtümliche Sichtweise. Was tatsächlich zutrifft ist, ist daß je nach Alter, die Unfähigkeit des menschlichen Auges beliebig scharf fokussieren zu können, die gleiche visuelle Auswirkung hat wie berechnetes Anti-Aliasing. Wenn man also, so wie ich, dann auch noch an zunehmender Altersweitsichtigkeit leidet, kann man dann schon bei Full-HD gänzlich auf Anti-Aliasing verzichten, wenn man einfach die Brille abnimmt. :( Ein sehr junger Mensch mit hervorragender Sehschärfe wird AA selbst auf einem UHD Monitor klar differenzieren können. Das Leben ist halt gemein. Zuerst hat man die Fähigkeiten, aber nicht die passende Kohlen, irgendwann genug Knete, aber keinen Nutzen mehr weil es an der Fähigkeit mangelt.
Bitte was? Nicht UHD bzw. 4K sorgt für besseres Antialiasing, sondern Altersweitsichtigkeit? Was kommt als nächstes... "Vaseline auf dem Monitor, das perfekte Antialiasing"?

BlackWidowmaker schrieb:
Gehört schon, nur weiß ich leider auch, daß sie nur bedingt funktioniert. Denn dies ist eine Sache der Software-Implementierung, und wenn man Skalierung schlecht oder gar nicht umsetzt, kann sie auch nicht funktionieren. Wenn man einen UHD Monitor auf ein krummes Verhältnis runterskaliert, dann ist das eben keine optimale Lösung. Das meiste funktioniert, aber eben nicht alles. Wenn z.B. ein Programmierer Text in einer grafischen Box darstellt, und dabei außer Acht läßt, daß die Darstellung von Text dpi-mäßig skalieren kann, und keine Funktion programmiert die benötigte Objekt-Breite der Box richtig berechnet und anpaßt, dann wird der Text halt einfach abgeschnitten dargestellt. Solche Darstellungsfehler sind auch 2016 keine Seltenheit. Ja selbst bei MS-Programmen.

Viel wichtiger ist jedoch die Tatsache, daß Skalierung in der Praxis oft, wenn nicht gar meistens, überhaupt nicht genutzt wird. Geh mal durch die Foren, Du wirst unzählige UHD-Desktop-Screenshoots finden, wo Leute eben alle in der nativen Einstellung arbeiten. Teilweise sogar auf einem mickrigen 17" Notebook. Und das ist nunmal langfristig sehr ungesund für das Auge, ob Du es nun wahrhaben möchtest oder nicht. Und da der absolut wichtigste Ergonomiefaktor die körperliche Gesundheit ist, darf man in diesem Zusammenhang von schlechter Ergonomie sprechen.
Also von der pauschalen Aussage, dass Monitore mit hohen Pixeldichten nicht ergonomisch sind, zu der Tatsache, dass noch nicht jedes Programm eine perfekte Skalierung beherrscht, bis zur Erkenntnis, dass nicht jeder eine Skalierung nutz bzw. nutzen muss. Da ist dein Argument mal irgendwo stecken geblieben, sorry.

Und tut mir leid, aber als Käse muss ich deine Beiträge trotzdem bezeichnen. Extrem viel Text+Geschwurbel, wenig bis gar nichts dahinter bzw. nur Alte-Leute-Weisheiten. Danke, aber nein. Das tut ja schon weh wenn man es nur zitiert.
 
Zurück
Oben