Generelle Frage: Auflösung vs. Antialiasing

Eben. Mir prinzipiell egal, solange es kein TN ist. Mein Dell 2407WFP hat ein VA-Panel. Ich suche ja mehr den qualitativ hochwertigen Allrounder mit Fokus auf Spiele und Video, der auch für den Office-Betrieb taugt, als das reine Gamer-Display.
 
Und Du hast Dir nicht den Philips BDM 4065UC mit VA-Panel angeschaut? *g*
 
Laggy.NET schrieb:
Höhere Auflösung oder Pixeldichte ersetzt kein Anti Aliasing und umgekehrt. Mehr gibts dazu nicht zu sagen.

Selbstverständlich tut es das.
Höhere Auflösung = weniger "Treppeneffekt" = weniger AA nötig.
Spürt man besonders gut bei (Flug-)Simulationen, wo horizontale Linien eine dominantere Rolle spielen.
Und ich rede hier vom vernünftigen Rahmen. Natürlich kannst du auch bei 4K noch mit 16x AA "verfeinern". Sieht mans noch? Nein.

Daher: Auflösung reduziert notwendiges AA.
 
Zuletzt bearbeitet:
Zumindest beim Downsampling ist es nach meiner Erfahrung der Fall, dass höhere Auflösung höherem Antialiasing vorzuziehen ist. Mass Effect 1 z. B. in 1440p oder 2160p auf einem 1080p-Monitor sieht allein mit FXAA schon um Längen besser aus als 1080p mit sehr hohem Antialiasing. Ist natürlich nicht wirklich vergleichbar mit höherer nativer Monitorauflösung.
 
Downsampling ist ja auch schon das ultimative AA.

Und bei der Bewertung des ganzen, muss man zwischen zwei Dingen unterscheiden:

a) Treppchenbildung, sieht man auch bei stehenden Bildern, bekommt man schnell mit hohen DPI (oder eben AA) in den Griff
b) Kantenflimmern, sieht man nur bei Bewegungen, wenn z.B. die Kante auf der Grenze von zwei von zwei Pixeln ist und immer zwischen den beiden hin und her springt. Das fällt auch bei relativ hohen DPI auf. Deshalb braucht man auch AA bei hohen DPI. Nur eben nicht mehr so viel, weil der "Sprung" kleiner und damit unauffälliger wird.
 
Zuletzt bearbeitet:
Kleinkarierter schrieb:
Zumindest beim Downsampling ist es nach meiner Erfahrung der Fall, dass höhere Auflösung höherem Antialiasing vorzuziehen ist.
hihi, dir ist aber schon klar dass downsampling (auch bekannt als supersampling) die vom ergebnis her beste, aber eben auch leistungsfressendste, AA-möglichkeit ist?:D
 
Jo, schon klar. Daher auch meine Frage ein paar Beiträge vorher, ob die GTX 1070 bei Frostbite-3-Spielen vielleicht sogar das integrierte Downsampling packt, zusätzlich zu max. Qualitätseinstellung und min. 4xAA.
 
Frage1.)

Wenn ich mit Full HD arbeiten will, dann macht ein Monitor, der nicht exakt der doppelten Auflösung entspricht, ja keinen Sinn oder, dass Material müsste getreckt oder abgeschnitten werden, oder täusche ich mich.


Frage2.)


Wenn ich einen 35 Zoll Monitor mit 4K kaufe, braucht dieser Monitor mehr Grafikleistung, vielleicht soviel das es derzeit kaum möglich ist?

Braucht, ein 35 Zoll Monitor mit 4K also mehr Leistung als ein 27 Zoll Monitor mit 4K

Also hat die Leistung mit der Größe des Monitor zu tun oder mit der Auflösung?

Frage3.) Kann ich mit einen 4K Monitor problemlos in Full HD zocken, hab gehört ab 27 Zoll macht Full HD nicht mehr soviel Sinn, denke deswegen daran, mir 4K zu kaufen, und es nur im Office und Multimediabereich einzusetzen....

Oder kommt es zu Problemen, wenn ich nur Full HD Gamen will, da mein System nicht ausreicht?
 
1) Balken benutzen. Nicht jeder Pixel da vorhanden ist, muss auch zwingend leuchten damit man glücklich ist.
2) Hängt von Deiner Software + Settings ab und was Du unter "ausreichend" verstehst bzw. was Dir genügt. Wie Leidensfähig Du bist.

Software



Und Settings


-Die Auflösung fordert Leistung von der Grafikkarte. Je mehr Pixel dargestellt werden müssen, desto mehr Daten muss die Graka abackern jede Sekunde.
-Die Features fordern Leistung von der Grafikkarte. Je mehr Post-Prozessing-Filter, je mehr Eigenverschattung, je mehr Antialiasing-Filter Du zuschaltest, desto mehr muss die Graka arbeiten.
- Du hast Einsteller in jedem Game um die Leistung der vorhandenen Hardware an Deine Vorstellungen von FPS und Bildqualität anzupassen. Man kann auch ohne Ultra-Settings sehr gut klarkommen. Meistens sind die Unterschiede mit der Lupe zu suchen.
Hier mal der Vergleich. Cryisis3 in 2560 und Ultra und in 4K und High. FPS gehen sich aus. Unterschiede suchen bitte.


3) Kommt drauf an was Du unter "Problemlos" verstehst. Natürlich kann jeder 4K-Monitor auch 1080P darstellen (zur Not über die Graka runtergerechnet). Aber das Bild verliert dadurch an Schärfe. Es sei denn Du betreibst ihn Pixelgenau. Also mit schwarzen Balken um das Bild herum. Aber da kommen wir wieder zu 1)

Man kann ja den 4K-Monitor z.b. Pixelgenau in 3820x1648 betreiben. Das ist 21:9 und sehr populär zur Zeit. Spart 25% Pixel und entsprechend gibt es mehr FPS.



Ich würde (persönliche Meinung) eher Features aufgeben als Auflösung. Als zweites, wenn der 21:9-Trick nicht hilft, oder die Software kein 21:9 anbietet.
Anti-Aliasing braucht man weniger, das fliegt als erstes raus. Dann schalte ich die Eigenverschattung etwas runter, dann ein paar Post-Prozessing-Features. Dann die Schatten. Und damit gibt es schon (in meiner Software-Library, mit meinen Ansprüchen an FPS und meiner Hardware) kein Game das FPS-Probleme macht von der Graka-Seite aus. Da sieht es von der CPU-Seite viel schlimmer aus^^

Aber das muss jeder mit sich selbst abmachen. Es wird keine pauschal für alle richtige Antwort geben.

Und als letztes: Macht euch klar wie schnell heutige Graka sind.

3xUHD mit 100 FPS? Nein?
In Assetto-Corsa (interner Benchmark) kein Problem mit einer Grafikkarte.


Ach so... Assetto Corsa ist keine Grafik-Hure?

Na dann 3xUHD in GTA5. 60 FPS und ich kann nebebei ein Video aufnehmen.
https://www.youtube.com/watch?v=QoZdpHGrpPU

Oder gleich 8K?
CSGO mit über 100 FPS

GTA5 mit immer noch 50 FPS auf einer Graka
 
Zuletzt bearbeitet:
Bei Acer gibt es die Predator Modelle, welche höhenverstellbar sind, was langsam immer seltener wird !!!


Also hätte ich mit einen 27 Zoll Monitor mit 1920x1080

In Spielen eine bessere Qualität als mit einem 27 Zoll Monitor mit 4K?


Das ist ja auch die Frage, wenn ich jetzt den 4K auf 2K runterregel, ist dass natürlich schlechter als 4K

Aber ist es wirklich soviel schlechter, dass ich mit den 2K Modell eine bessere Qualität erreiche.

Denn die Preisunterschiede sind so minimal, dass man da schon gut überlegen muss!




Der X34 hat ja 3440 x 1440


Da würde ich Probleme bekommen, müsste strecken und schneiden, damit ich es die selbe Größe wie ne FHD Aufnahme hat.


---
Das der Z35 eine niedrigere Auflösung als der Z34 hat, ist auch wieder so :freak:
 
YT nimmt auch 21:9 Videos. Oder warum muss es zwingend 16:9 sein?
 
Also weil??

Ja weil 1920x1080 ist ja der Standard

Und wenn ich Jetzt z.b Full HD Filme, dann ein Video machen will.


Also ein Video mit einer Full HD Aufnahme, wo zusätzlich noch ein Material von Desktop ist z.b Camtasia


Also ich will ja das es sauber ist, kein verzerren usw!!!

Das Kombinieren spielt eine Rolle!

Und wenn es nicht exakt 4K ist, muss es ja beschnitten werden!
 
Ich verstehe weder das Problem so wirklich, noch was Du eigentlich möchtest. Schreib doch einfach mal in klaren, strukturierten Worten, was Du eigentlich wissen willst. Ob Deine Grafikkarte für höhere Auflösung reicht? Da wäre das Modell interessant. Ob Du Videos in 1080p aufzeichnen kannst? Natürlich kannst Du das, bei jedem Monitor mit mindestens 1080p nativer Auflösung. Selbst wenn Deine Aufnahme-Software das nicht hergeben sollte, stellst Du einfach Dein Bild auf 1080p um. Jeder halbwegs gescheite Monitor / Grafikkartentreiber sollte Dir ein verzerrungsfreies 1:1-Bild anbieten können. Bei einer höheren nativen Auflösung hättest Du eben schwarze Balken, dazu schrieb HisN auch schon etwas.

Ich für meinen Teil werde es einfach ausprobieren. Sprich Frostbite-3-Spiel per Downsampling auf potenzielle Auflösung des neuen Monitors stellen, gewünschte Qualitäts + AA wählen und schauen, ob mir die FPS reichen. Natürlich sähe eine höhere Auflösung in Spielen besser aus, das kann Antialiasing allein oder eine höhere Qualitätsstufe im Spiel kaum kompensieren. Schrieb HisN auch bereits. Wenn meine Grafikkarte es problemlos packt, wäre es z. B. bei 27 Zoll doch völliger Blödsinn, nur 1080p statt 1440p zu nehmen. Ich würde nach aktuellem Stand entweder 24" / 1080p oder 27" / 1440p nehmen, alles andere wäre mit meinen Qualitätsansprüchen wohl nicht vereinbar.
 
PaladinX schrieb:
Selbstverständlich tut es das.
Höhere Auflösung = weniger "Treppeneffekt" = weniger AA nötig.
Spürt man besonders gut bei (Flug-)Simulationen, wo horizontale Linien eine dominantere Rolle spielen.
Und ich rede hier vom vernünftigen Rahmen. Natürlich kannst du auch bei 4K noch mit 16x AA "verfeinern". Sieht mans noch? Nein.

Daher: Auflösung reduziert notwendiges AA.

Nö stimmt einfach nicht.

Aliasing kann nur reduziert werden, indem ein Pixel mindestens zwei mal abgetastet wird (Multisampling/Supersampling).

Es ist jedoch so, dass Post Processing Effekte wie FXAA oder SMAA mit höheren Auflösungen besser arbeiten, da die Treppen an Kanten im Verhältnis zu den Flächen kleiner sind. Die Filter haben also mehr Spielraum und mehr Pixel zum verrechnen.
Aber komplett ohne AA filmmerts selbst in 4K sehr stark.
 
Dann zock mal GTA4 in FHD und in 4K
Das ist eine Engine die gar keine Antialiasing-Filter kann.

Der Unterschied haut einen vom Hocker. Während es selbst in 2560x1600 vor Kantenflimmern kaum zu ertragen ist (Ampeln, Stromkabel) ist das in UHD völlig verschwunden. Einfach weil die Stromkabel keine 1-Pixel-Linien mehr sind und die Ampel-Bögen keine 3-Pixel Treppenbögen.

Natürlich spielt das mit rein.
 
Für Mass Effect Andromeda in 1440p dürfte selbst meine jetzige GTX 970 noch ausreichen. Habe gestern mal testweise die Demo von Star Wars Battlefront angeworfen. Lief mit max. Qualität und TAA in 2.560x1440 absolut geschmeidig und die Grafik ist mich mehr als in Ordnung. Das TAA funktioniert erstaunlich gut.

Wobei die Optik natürlich nicht ganz vergleichbar sein wird mit einem 27-Zöller mit nativen 1440p, da ich auf meinem 24-Zöller von 1080p auf 1440p skaliert habe.
 
Kleinkarierter schrieb:
Für Mass Effect Andromeda in 1440p dürfte selbst meine jetzige GTX 970 noch ausreichen. Habe gestern mal testweise die Demo von Star Wars Battlefront angeworfen. Lief mit max. Qualität und TAA in 2.560x1440 absolut geschmeidig und die Grafik ist mich mehr als in Ordnung. Das TAA funktioniert erstaunlich gut.

Wobei die Optik natürlich nicht ganz vergleichbar sein wird mit einem 27-Zöller mit nativen 1440p, da ich auf meinem 24-Zöller von 1080p auf 1440p skaliert habe.


Star Wars Battlefront ist darauf ausgelegt, auf Konsolen mit 60 FPS zu laufen. Entsprechend gering sind die Anforderungen auch am PC.

Wenn du was mit Frostbite Engine willst, das mit den Voraussichtlich 30 FPS von Mass Effect vergleichbar sein wird, dann orientiere dich an Dragon Age Inquisition.
Ich schätze mal, dass die GTX970 in 1440p schon ziemlich zu kämpfen hat, wenns maximale Details sein sollen.
 
Danke, das mit der Konsolenoptimierung war mir nicht bewusst. Also doch die GTX 1070. Gibt Schlimmeres. Ich werde mir trotzdem mal die Inquisition-Demo ziehen und vergleichen. Aber wird Mass Effect Andromeda nicht auch für Konsolen optimiert sein?

Dann wäre es für CB-Tests doch viel sinnvoller, wenn schon nicht das etwas ältere Dragon Age, zumindest das jeweils aktuellste Battlefield mit Frostbite 3 zu benchen. Im Test zu GTX 1080 / 1070 gibt es nur Star Wars Battlefront.
 
In FPS Spielen war die Frostbite Engine schon immer recht sparsam für das Gebotene.
Battlefield 3, 4 und Battlefront laufen zbs. alle mit einer 1300mhz 980 TI auf max (dh. ultra +4x msaa) in 1440p mit 80+ fps, meistens im +-100fps Bereich.
Und von dem was man so hört über Battlefield 1, soll das mit ner 1070 in 1440p max mit über 60fps laufen.
Denke nicht, dass Mass Effect höhere Anforderungen als Battlefield haben wird.
 
Habe jetzt mal bei Dragon Age Inquisition alles auf die höchste Qualitätsstufe gedreht (Ultra, 4xMSAA etc.) und die Anfangsszene im Schnee nach dem Intro gespielt. Im Gegensatz zum schön flüssig laufenden Battlefront (allerdings mit TAA) schafft mein System (jetzt aus praktischen Gründen signiert) in 1440p gerade mal um die 40 fps, in 1080p knapp unter 60 fps.

Mit einer GTX 1070 dürfte ich dann mit schätzungsweise 60% mehr fps und somit recht komfortabel unterwegs sein. Jedenfalls wird zuerst in die GraKa investiert und dann schaue ich mir in Ruhe an, ob die mit meinem Wunschmonitor harmoniert. Und selbst wenn es der kleine Eizo wird, besser als mein alter Dell 2407WFP dürfte der allemal sein (hoffentlich).
 
Zurück
Oben