"Wie sehr achtet ein Forumbasler auf die Bildqualität?"

"Wie sehr achtet ein Forumbasler auf die Bildqualität?"


  • Umfrageteilnehmer
    392
  • Umfrage geschlossen .
hm, wenns nicht interpoliert isses ja tatsächlich egal, hab mal eins ausgewählt, wo man auch den spoiler von hinten sieht, müsste noch mit 8x AA sein. mit AAA hab ich noch keine gemacht, da ich grad erst rausgefunden hab, dass ich im CCC nur den Modus einstellen muss, da wenn ich die AA-samples einstelle (4x, 8x...) es bei shift + Ati ja nicht funtioniert, ist mit kostenlosem fraps gemacht, in echt sieht es imo nochmal besser aus:






PS: Ist nat. mit HD-Pack, das dürfte aber das AA nicht stören...
 
Zuletzt bearbeitet:
Sublogics schrieb:
Wenn LOD-Clamp das Problem ist, würde es denn dann nicht reichen einfach im Treiber Negativ-LOD zuzulassen?
Nein leider nicht.

edit:
Siehe hier."Negativer LOD-Bias" auf "Zulassen"
MSAA


SGSSAA


Wenn man wirklich Schärfe bei Nvidia will, muss man auf die Treiber vor den 200er zurück, weil der Nhancer damit noch funktioniert und man eine LOD-Anpassung vornehmen kann.
Nachteil ist dass es kein SGSSAA gibt und man Hybride oder OGSSAA nehmen muss, die deutlich ineffizienter bei gleicher BQ sind.

Siehe hier. (lezte zwei Shots, die auf der gleichen Strecke sind. Übrigens bleibt der VRAMbedarf nach einer Weile bei Shift konstant . Von daher ist die Stelle an der Strecke unwichtig.
https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/page-28#post-8441241
 
Zuletzt bearbeitet:
Habe AA und AF immer im Treiber auf Anwendungsgesteurt stehen.
Kommt natürlich auf das Game an wie es dann im Game steht. Von 2*AA/ 2*AF bis hin zum einstell baren Maximum stelle ich es ein, Natürlich muss es noch flüssig laufen.
 
Was ist denn eigentlich LOD-Clamp?
 
Wenn die Option "Negativer LOD -Bias " auf Clamp steht wird verhindert, dass das LOD ins Negative verschoben wird und dass es anfängt zu flimmern.
https://www.computerbase.de/2005-04/bericht-forceware-vergleich/10/

edit:
ist NV-only
Bei ATI gibt es ja die automatische LODanpassung. Nvidia lehnt es aber ab, weil es zu Problemen kommen kann.
 
Zuletzt bearbeitet:
Danke sehr. :)
 
Na da bleibt echt nur zu hoffen daß das nicht der finale Status ist sondern noch verbessert wird.
Man sieht zwar anhand der hervorragend geglätteten Schattenkanten daß Supersampling angewendet wird aber ganz offensichtlich auch nicht wieder auf die korrekte Auflösung runtergerechnet wird.
So sieht das Ganze aus wie softwareseitige Interpolation und dieses "Blurring" was einige Spieleenginges anwenden, wie z.B. bei STALKER, wenn abhängig vom DirectX-Modus nebst HDR kein MSAA möglich ist. So sind dann sämtliche übrigen SSAA-Vorteile wie Texturglättung vernichtet, gar schlechter aussehend als ohne SSAA meiner Meinung nach.
In dem Fall würde ich persönlich definitiv das gewöhnliche Multisampling vorziehen.
 
Bei ATI gibt es ja die automatische LODanpassung. Nvidia lehnt es aber ab, weil es zu Problemen kommen kann.

Welche denn?
 
Also 16xAF ist grundsätzlich IMMER aktiv. Egal was ist. Kostet schließlich nur minimal Leistung.

AA ist so gut wie immer auf 8x. Wenn ich aber keine 60 FPS erreiche, stell ich je nach Spiel aber auch mal auf 4x zurück. Sollte ein Spiel gar nicht wollen, geh ich im extremfall auf 2x. Aber Aus mach ich es niemals. Natürlich favorisiere ich hier Ingameeinstellungen, da die forcierung per Treiber immer performance verschwendet.

SGSSAA wird sehr selten verwendet. sieht zwar super aus, aber wenn dadurch die FPS zu stark leiden, geb ich mich doch lieber mit superflüssigen 8xMSAA zufrieden. Alternativ verwende ich CFAA, wenn ich zu viel Leistung übrig habe.


AAA bzw. Adaptive Multisample AA zur glättung transparenter texturen ist auch grundsätzlich immer an. Das mach ich nur aus, wenn es die performance drückt (kann in manchen Spielen die FPS halbieren). Zum glück ist es aber in fast allen Games quasi "kostenlos".


Ach ja, die Native Auflösung (1680x1050) wird auch IMMER verwendet.


Also im Ganzen ist mir Bildqualität sehr sehr wichtig, und würde am liebsten alles nutzen. Aber performance ist noch wichtiger. Für ein gutes Spielgefühl und hohen Spielspaß geht performance einfach über Grafik!
 
Laggy.NET schrieb:
Natürlich favorisiere ich hier Ingameeinstellungen, da die forcierung per Treiber immer performance verschwendet.
Nicht direkt und nicht immer. Es ist eher so, daß Spieleentwickler manchmal entscheiden daß das spieleigene Antialiasing nur auf ausgewählte Objekte angewendet wird und nicht wie per Treiber auf alle Objekte. Das bringt dann eben etwas mehr Leistung aber halt auch nicht die maximal mögliche Antialiasing-Qualität.
 
Ist mir jetzt eigentlich noch nicht wirklich aufgefallen. Wenn AA in nem Spiel schlecht wirkt, dann wirkte auch das Treiber AA nicht besser. Kommt natürlich jetzt auf die Spiele an. Hast du da beispiele?

Ansonsten kommts eben oft vor, dass Treiber AA unverhältnismäßig viel performance schluckt.

Manchmal ist auch das Ingame AA besser, als das Treiber AA. Kommt alles vor.


Ach ja, hatt ich noch vergessen zu erwähnen. Mache Spiele nutzen trotz fehlender Einstellungsmöglichkeit ingame AF. Wenn man dann AF im Treiber aktiviert, gehen die FPS runter, obwohl die BQ die selbe ist. Einfach mal nen Screenshotvergleich mit ner flachwinkeligen Perspektive auf eine Textur machen. Da sieht man ja die Auswirkungen des AF sehr gut.
 
Bei der Texturfilterung gilt das Selbe, der Entwickler kann einfach festlegen daß für unauffällige Texturen anders oder gar nicht gefiltert wird.
Beispiele kann ich allerdings nicht viele nennen. Wohl aber ein sehr drastisches, wenn auch wenig prominentes Beispiel: Armed Assault. Vor allem bei der Texturfilterung ist es dort extrem bemerkbar, weil es dort offenbar den Entwicklern nicht gereicht hat unauffällig zu sein.
Bei einigen anderen Spielen meine ich zwar Unterschiede zu bemerken bin mir aber wegen Fehlen des direkten Vergleichs nicht sicher. Hier z.B. Battlefield 2 in puncto Texturfilterung.
 
Zuletzt bearbeitet:
Bei Serius Sam HD, hab ich wenn ich alles anmache was an BQ geht 40-130 FPS mit nem HD 5770 CF
 
@ Sublogics

Aber wenn ich das jetzt alles zusammenfasse, kann ich je nach Spiel bis zu 20 FPS einsparen.
Ist doch IMHO ne gute Sache, wenn die Entwickler gezielt optimieren können. So kann man höhere Grafikdetails nutzen oder hat ein flüssigeres Spiel. Das ist allemal besser, als die FPS für texturen bzw blickwinkel zu opfern, die ich nicht wahrnehmen werde.
 
Natürlich, das ist schon sinnvoll teilweise. Nur ist es vielleicht auch hilfreich zu wissen warum das so ist. ;)
Und daß man weiß, daß nach ein paar Hardware-Generationen ruhig auf solch Kompromiße verzichtet werden kann um dann die treiberseitige Maximal-Lösung zu verwenden.
 
Airbag schrieb:
Nein leider nicht.

edit:
Siehe hier."Negativer LOD-Bias" auf "Zulassen"
MSAA

SGSSAA

ganz ehrlich?! msaa sieht besser aus, weil schärfer.. schau dir mal deinen screen vom sgssaa an Oo total verschwommen
 
BF1942 glättet auch nicht alle Inhalte, wenn AA aktiviert wird.
Bei BF2 ist mir die Sache mit den Texturen aber noch nicht aufgefallen.
 
Fetter Fettsack schrieb:
Es wird dadurch die Flimmerneigung gesteigert. Ansonsten fällt mir nichts weiteres dazu ein. NV ist nicht weiter darauf eingegangen.

edit:
Ich empfinde das SGSSAA als deutlich besser . Es liegt vor allem daran, dass man auf einem Screenshot nur bedingt die Vorteile sieht. In Bewegungen wird es deutlich. Zumal die Unschärfe dann auch weniger auffällt. Rollenspiele, Strategie oder Shooter würde ich aber mit dieser UNschärfe auch nicht spielen wollen, :)
Man sollte es einfach mal selber ausprobieren.
edit:

Bei der Texturfilterung gilt das Selbe, der Entwickler kann einfach festlegen daß für unauffällige Texturen anders oder gar nicht gefiltert wird.
Das Problem ist nur, dass die meisten User keinen Unterschied sehen, weswegen die Filterqualität bei ATI nicht auf das Niveau von Nvidia angehoben wird. Außerdem kostet es auch einiges an Leistung. EInerseits wird, wie du schon gesagt hast so geschummelt, dass weniger Samples(AF ist adaptiv. Es müsste von daher bis zu 16x heißen) die jeweilige Textur bearbeiten und zweitens dass zwar behauptet wird, dass man trilinear anisotrop filtert, oft aber nur bilinear anisotrope Filterung vorliegt.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482069
http://alt.3dcenter.org/artikel/grafikfilter/index6.php
Nur bei der Winkelunabhängigkeit liegt AMD vorne, weswegen sie sich auch mit der AF-Blume schmücken. Diese ist aber eher zu vernachlässigen, weil die von NV auch sehr gut ist und man eigentlich keinen Unterschied sehen kann. Eher flimmert es aufgrund von Unterfilterung.

edit:
Ist doch IMHO ne gute Sache, wenn die Entwickler gezielt optimieren können.

Optimieren ist heutzutage aber nur mit BQverlust zu schaffen. Dann wäre es mir lieber, wenn es mehr Einstellungsmöglihckeiten(von mir aus auch über CFG oder INI) geben würde. Immerhin würde der Kunde dadurch selber entscheiden können was er will oder was er nicht will (oder was er nicht sieht).

edit:
BF1942 glättet auch nicht alle Inhalte, wenn AA aktiviert wird

Downsampling. ^^
BC2 ist leider auch ein Negativbeispiel, bei dem AA auf Subpixelebene nicht ganz greift.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8115134&postcount=663
 
Zuletzt bearbeitet:
Hab mir mal den Spaß gemacht und exemplarisch die Thematik Spiele-/Treiberseitige Lösung bildlich festgehalten.
Als Beispiel dient hier das kostenlos erhältliche Trackmania Nations Forever daß die entwicklerseitige Optimierung bei Texturfilterung auch recht drastisch zeigt.

entwicklerseitig 16xAF, hier wird Texturfilterung für die Textur des Zauns an der rechten Seite ausgelassen:


treiberseitig 16xAF:



entwicklerseitig 16xAF, hier wird Texturfilterung für das Schild links ausgelassen:


treiberseitig 16xAF, übrigens nicht durch die unterschiedliche Farbe und Helligkeit der Strecke beirren lassen, das resultiert nur aus der spieleseitigen, dynamischen Farbgebung:
 
Zuletzt bearbeitet:
Zurück
Oben