@bensen:
Ich hoffe du verzeihst mir, wenn ich nicht auf jeden Absatz gesondert eingehe bzw. zitiere, denn sonst nimmt das hier zu gigantische Ausmasse an, zumal wir hier ja eh schon längst mehr oder weniger OT diskutieren. (auch wenn das natürlich alles aeinen Bezug hat, gerade auch zum Preis) Ich habe aber ALLES gründlich und ausführlich gelesen und versuche im Kern mal auf das Wesentliche einzugehen, was du geschrieben hast:
Du hast insofern Recht, dass die Wahrheit (zwischen Placebo-Effekt und Blindheit) vermutlich wie so oft irgendwo in der (goldenen) Mitte liegt bzw. dass es hier tatsächlich keine einfache Antwort aus der Abteilung entweder/oder gibt. Es wird halt hier im Forum erfahrungsgemäss meist so hingestellt, als wäre man blind, wenn man es nicht erkennt und dann kontert man eben entsprechend, indem man die andere Fraktion umgekehrt als Placebo-Opfer bezeichnet...
Ich stimme dir jedoch nicht zu, hinsichtlich deiner Behauptung, dass höhere Auflösungen (bzw. in diesem Fall konkret 2,5 bis 4K) mehr Performance der beteiligten Graka kostet, als im Vergleich Bildverbesserer und insbesondere AA. Es wiederspricht nicht nur meinen eigenen Erfahrungen/Experimenten damit, sondern man kann das auch anhand von Benchmark-Ergebnisse, die z.B. hier im Forum oder anderswo nachvollzogen werden können erurieren!
Je nachdem, was für Settings (AA etc.) man wählt, fressen Bildverbesserer (oder gar im Extremfall Downsampling <- was dennoch sicherlich nützlich und sinnvoll sein kann, in Fällen, wo das Spiel Kantenglättung garnicht erst unterstützt und wenn genügend Reserven an Frames/Performacne vorhanden sind, z.B. bei älteren Titeln und die Rohleistung der betreffenden Karte ansonsten eh brach liegen würde) im Zweifelsfall deutlich mehr Performance und das Ergebnis sieht dann trotzdem nicht so gut aus, wie bei einer nativen höheren Auflösung auf einem entsprechend hochauflösenden Anzeigegerät (2,5K oder gar 4K)
Hier mal eine sehr interessante, ganz aktuelle Aussage dazu von Wolfgang Andermahr, aus dem jünst veröffentlichten Textbericht zur neuen AMD Radeon R9 290X:
Wolfgang Andermahr schrieb:
Zu guter Letzt möchten wir noch eine kleine Anmerkung zur Ultra-HD-Auflösung an sich machen. Es ist zwar offensichtlich, dass solch eine Auflösung eine enorme Grafikkartenleistung benötigt und bei einem einzelnen 3D-Beschleuniger auch das ein oder andere Mal die maximale Detailstufe heruntergeschraubt werden muss, doch ist die niedrigere Performance schlussendlich gut investiert. Denn die in 3.840 × 2.160 gebotene Grafikqualität ist beeindruckend und selbst der Qualität bei einer Auflösung von 2.560 × 1.600 weit voraus. Alle Spiele sehen gestochen scharf aus. Die höhere Pixeldichte macht sich positiv bemerkbar, wobei die Texturen aktuell aber nur selten auf „4K Niveau“ angekommen sind. Dennoch liegt die Zukunft zweifellos in 3.840 × 2.160. Auch die nächsthöhere Detailstufe, die man in niedrigeren Auflösungen nutzen könnte, bringt schlussendlich nur selten einen derart hohen optischen Mehrgewinn wie die höhere Pixelanzahl.
Quelle:
https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/7/
Wie ich oben schon schrieb: Es gibt (von Seiten der Hardware versteht sich) nichts, was die Bildqualität so aufwerten kann, wie eine höhere Auflösung (des Anzeigegerätes und dann natürlich der nativen Auflösung des betreffenden Spiels)
Noch ein Wort zu Bildfehlern wie Kantenflimmern: Es ist gut möglich, dass ich dafür ziemlich unempfindlich bin. Ebenso fällt mir Bewegungsunschärfe in Filmen kaum auf, worüber sich heute die Leute ja immer öfter ärgern/beschweren. (Stichwort: Bewegungskompensation und HFR-Technik im Kino) Oder aber die Spiele, die ich zocke leiden darunter weniger bis garnicht! (wie gesagt spiele ich manche weitverbreitete und beliebte Genres, wie insbesondere Shooter oder Rennspiele garnicht)
Zu den Pixeln: Ich sehe sie wirklich (trotz meiner schlechten Augen) Die "Pixel-Matrix" meines 30"ers fällt mir besonders auf, seit ich das iPad 4 im Vergleich dazu habe und selbst auf diesem kann ich die Pixel wenn ich mich darauf konzentriere noch immer wahrnehmen/identifizieren.
Und wie einige schon immer richtig sagen: Wenn die Pixel noch zu erkennen sind (was zweifellos natürlich auch vom Sichtabstand zum Anzeigegerät abhängt, der aber bei einem Tablet und auch einem Notebook-Display oder Desktopmonitor eben sehr gering ist) sind sie noch zu gross bzw. die Auflösung des Gerätes noch zu gering!
Das nur, weil es (selbst in einem "Fachforum" wie diesem hier) so viele Leute gibt, welche den Nutzen und Sinn von höheren Auflösungen (jenseits Full-HD) in Zweifel ziehen und behaupten, das wäre sinnlos oder überflüssig! (wenn ich mit meinen schlechten Augen das schon sehe/wahrnehme, dann müssen die entwedern ganz dringend zum Optiker, oder aber es sind Laberheinis, die Dinge bewerten, die sie garnicht einschätzen können, weil sie vermutlich garkeine Vergleiche haben, da sie die betreffenden Geräte garnicht besitzen. Sprich: Es wird nur auf Basis von Vorurteilen bewertet und somit sind Diskussionen reine Zeit- und Energieverschwendung <- damit meine ich nicht dich, denn du hast dich dazu ja klar geäussert und das Ganze stärker differenziert, aber man liest solche Ansichten und Meinungen hier im Forum täglich und zwar eben insbesondere von der Kantenglättungs-Fetischisten-Fraktion <- klar brauchen die hohe Katenglättungs-Einstellungen, wenn sie nicht begreifen, dass Kantenglättung in Wahrheit nur der Ersatz für zu geringe Auflösung/Pixeldichte ist)
Ganz ähnliches gilt i.Ü. natürlich auch für die leidige Vram-Frage, wo dann (bezogen auf aktuelle Verhältnisse) immer gesagt wird, 2-3 GB wären mehr als genug (die Leute haben anscheinend noch nie etwas von Auflösungen >1920x und auch nichts von hochauflösenden Texturen-Mods gehört, schätze ich bzw. solche Speicherkastrate noch nie derartigen Bedingungen genutzt, denn sonst wüssten sie es nämlich einfach besser)
Dann noch ein Wort zum Thema "Grafikkarten müssten die doppelte Performance haben": Selbst wenn du das nicht ernst gemeint haben solltest (im Sinne von unrealistisch gemäss aktueller Gegebenheiten) so muss ich sagen, dass genau das zutreffen müsste bzw. bitter nötig wäre bzw. dass man es endlich mal erwarten könnte von den Graka-Herstellern:
Ich habe hier auf CB und anderswo seit nunmehr gut 7 Jahren (seit ungefähr die ersten 30"-TFTs mit Auflösungen von 2560x1600 auf den Markt kamen und CB anfing, diese in den Benchmarks der zu der Zeit jeweils aktuellen Spiele die sie getestet haben zu berücksichtigen) die Entwicklung beobachtet und aus meiner Sicht hat es da bis heute keinen wirklichen Durchbruch gegeben: Zweifellos hat sich die Performance auch in den höheren Auflösungen stetig verbessert/den zu der jeweils Zeit halbwegs aktuellen Titeln angeglichen, aber Jahr für Jahr krebst so manches dieser Spiele in solchen Auflösungen nach wie vor am Limit der Spielbarkeit herum und es kommt generell gesprochen noch immer zu massiven Performance-Verlusten im Vergleich zu Full-HD. Performance-Reserven gibt es da keine...
Aber Nvidia hat nun kürzlich ENDLICH angekündigt, dass sie sich bei künftigen Grakas verstärkt um die 4K-Auflösung (und somit wohl auch 2,5K auf dem Weg dorthin) kümmern wollen. Mal sehen ob sie Wort halten! (ist übrigens einer der wesentlichen Gründe, warum ich mich seit fast 5 Jahren in Konsumverzicht/Boykott geübt habe, bzw. mich nicht mehr dazu durchringen konnte, mir eine neue Graka zuzulegen, denn angesichts der immer heftigeren Wucherpreise für "Highendkarten" konnte ich im Hinblick auf höhere Auflösungen für meinen 30"er hier kein aus meiner Sicht angemessenes PLV erkennen, da ich auch nicht bereit bin, jedes Jahre eine neue Graka für 500 € oder mehr anzuschaffen, weil die Leistung und der Vram immer so knapp am Limit gehalten werden, dass es quasi gerade mal so ausreicht für die aktuelle Generation von Spielen. Erst jetzt, wo man eine GTX 780 für faire 397 € bekommen kann/konnte, habe ich nach langer Zeit mal wieder zugeschlagen, aber eigentlich auch mehr oder weniger nur, weil man mit einer uralten 8800GTX dann eben irgendwann einfach nicht mehr zurechtkommt!)