Test FidelityFX Super Resolution im Test: AMD FSR 2.0, 1.0 und Nvidia DLSS im Vergleich

Calid schrieb:
@Wolfgang : ein verbesserungsvorschlag zu den charts: die sind dermaßen überfüllt, dass es extrem schwer ist, hier etwas herauszulesen. macht doch die einzelnen testoptionen und Grafikkarten ein- bzw. ausblendbar, damit man sich seine eigene Chart zusammenkonfigurieren kann. Die Lesbarkeit ist aktuell leider maximal schlecht und verwirrend. ich will mir das gar nicht anschauen weil ich finde sowieso nix in dem ganzen Balkenwirrwar.

Danke
Ich stimme mit dir überein, die Lesbarkeit ist...gelinde, problematisch. Anders geht es technisch leider aber nicht, dass die Leser Sachen ausblenden ist in den Diagrammen nicht vorgesehen (das geht nur in Performance-Ratings).

Da ist das Hauptproblem, dass die Diagramme für so viele Elemente einfach nicht gedacht sind. Normalerweise machen wir das auch nicht, dass hier ist jetzt ein Spezialfall. Da will ich Steffen jetzt aber nicht mit nerven, ich gehe nicht davon aus, dass sowas auch nur halbwegs regelmäßig so sein wird :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: denbaschu und Jan
derin schrieb:
FSR und dlss sind beide großartige Technologien, vor allem für wqhd und 4k. Ausgenommen fsr 1.0, das war kaum besser als gute integrierte Resolution scaler
Ich würde 1.0 nicht völlig von der Aussage ausnehmen. Kaum besser ist eben doch besser :).
derin schrieb:
In Full HD überzeugen mich beide nicht zu 100 Prozent, was logische Folge des Algorithmus ist.

Auf meinem lgc1 wird regelhaft eine upscaling Technologie verwendet, an meinem wr Zoll Full HD Monitor sehe ich keinen Benefit, dieser wird aber sicher noch dieses Jahr einem wqhd Monitor weichen und dort wird auch ein quality Modus von fsr oder dlss aktiv sein.
Ansonsten volle Zustimmung.
 
Moetown schrieb:
Der Vergleich würde mich tatsächlich mal interessieren. Sony TV wie meiner haben angeblich den besten Upscaling-Algorithmus der Branche, und tatsächlich sieht sogar die Tageschau in ("HD" lol) 720p noch passabel aus.

Das täuscht gewaltig. Kaum jemand sitzt so nah vorm TV dass das Bild ähnlich groß wie an einem 27 oder 32 Zoll Monitor am Schreibtisch wirkt.

Dadurch fällt das vergleichsweise schlechte Upscaling am TV nicht so stark auf.

Das ändert aber nichts an der Tatsache, dass FSR2.0 und DLSS jedem TV Upscaler um Welten überlegen sind.

Der TV Upscaler ist in etwa vergleichbar mit FSR1.0 tendenziell sogar schlechter, weil der TV Upscaler für Filmmaterial und nicht für flimmer und aliasing anfällige Spielegrafik ausgelegt ist.
 
Unnu schrieb:
Bzgl. FSR -> Damit hat AMD erstaunliches geliefert, was vor allem den Konsolen zu Gute kommen wird. Denn dort wird dieses Feature am nötigsten gebraucht. Die Graphik der PS5 und der XBOX wird damit nochmal einen gewaltigen Schritt machen, bzw. die "Schwuppdizität" des Spielgefühls auf 4K Fernsehern in bisher noch nicht gefühlte Bereiche befördern.
Meines Erachtens wird Zusatzleistung nachwievor überall gebraucht.
Erst wenn wir davon reden, dass wir in 4K 100Hz mit Pathtracing unterwegs sind und das mit einem einigermaßen gecleanten Bild, gehen wir in die Luxusschiene über.

Unnu schrieb:
Und dann ist dann auch letztlich nVidias downfall. GSynch war "besser" als FreeSynch. Auch Objektiv.
Allerdings hat AMDs Taktik hat letztlich dafür gesorgt, dass sich FS im Massenmarkt durchgesetzt hat.
GSync existiert immernoch. Für diejenigen, die einfach einen höhere Anspruch haben.
Passt doch...

Unnu schrieb:
Und das wird hier wieder so sein. RT hin oder her, DLSS 2.3, 3.0 4.0 etc. pp. sind wurscht. Die können genial sein und/oder werden. Egal! Auf den Konsolen und somit im Massenmarkt wird FSR den Ton angeben.
Die die einen höheren Anspruch haben, bleiben halt bei DLSS2. Wenn DLSS2 oder FSR2 unterstützt wird, ist die Integration des jeweils anderen Standards eine Kleinigkeit.

Unnu schrieb:
Ein paar Geeks werden motzen, nölen und die Überlegenheit preisen ... und so wie hier in den Foren Videoschnipsel oder, noch besser "Standbilder" posten um das ein oder andere Detail hervorzuheben, ...
Ja- Genau wie es diejenigen immer geben wird, die jetzt schon 8K haben wollen. 200Hz brauchen usw. usf.
Ist halt High- End, Hobby, Spinnerei. Soll jeder nutzen, was ihn glücklich macht.

Und hier geht es ja meines Erachtens nicht um Teams, die unterstützt werden wollen, sondern um die Technik.

Unnu schrieb:
Es wird nur nichts daran ändern, dass FSR2 die Totenglocke für DLSS bzw. Tensorcores in Gamer-GPUs läutet.
Das sehe ich anders. Dadurch, dass Du letztendlich die selbe Datenbasis an die APIs schickst, ist es egal, ob Du eine oder zwei oder sogar auch alle drei Upscaling- Technologien anbietest.

DLSS zu integrieren tut also nicht weh und liefert für alle Besitzer ab einer Grafikkartengeneration, die inzwischen dem vierten Geburtstag entgegenstrebt einen handfesten Mehrwert. Derjenige der DLSS 2 zuschalten kann, wird im Normalfall kein FSR2 aktivieren.

Unnu schrieb:
Schon alleine dass es auch auf älteren nVidia-GPUs läuft, im Gegensatz zu nVidias "eigener" Technologie (DAS muss man sich auf der zuge zergehen lassen ... !) ist ein Killerfeature.
Ja- Aber auch da haben diverse Publikationen ja viele Hoffnungen bereits wieder begraben, weil FSR2 derart Rechenaufwändig ist, dass wiederum ein großteil der älteren Install- Base dann wieder doch nicht profitiert.

Unnu schrieb:
Nicht unbedingt für GPU-Käufer, da werden wie immer die meisten nach wie vor nVidia kaufen, allerdings mit Sicherheit für Implemetierer!
(Da muss man nur mal einen Controller fragen, welche Technologie denn genutzt werden soll, eine die einen Bruchteil der Nutzer erreicht, oder eine die "alle" erreicht. ... go figure)
Siehe oben- Selektor integrieren und statt an Proxy- Library XY schicken, dann halt in der Pipeline an Library YZ.
Bzw. gleich eine abstraction Open Source API wie NVIDIA Streamline einbinden. Dann schickst Du den gleichen Input grundsätzlich nur an eine Schnittstelle und die verteilt dann an die gewünschten Bibliotheken.

Unnu schrieb:
Im B2B kann das anders sein / bleiben. Denn dort gelten andere Gesetzmäßigkeiten, siehe Cuda und PhysX.
Für die B2C Seite, bzw. den Massenmarkt ist der Drops gelutscht.
Wenn man sieht, wie wenig Artefakte und temporale Instabilitäten akzeptiert werden und man dafür lieber andere Bildschweiniereien inkl. erheblich eingeschränkter Performance bevorzugt, dann besteht auch die Möglichkeit, dass DLSS gerade so inzwischen in ein Akzeptanzfenster fällt, wohingegen FSR2 (noch) nicht in Frage kommt.

Muss man sich nur mal die Anzahl an Usern anschauen, die "Nativ" über alles setzen und alles andere als unspielbar bzw. unzumutbar bezeichnen.
Das sind die , die so an die normalen Fehler des nativen Renderings gewöhnt sind, dass sie völlig den Blick dafür verloren haben und sich durchgängig auf die (noch) existierenden Fehlleistungen von FSR oder DLSS konzentrieren, ohne wiederum zu gewichten, was diese Techniken besser machen.

Genauso, wie wir dem Trend zu einer Gewichtung in Richtung RT nicht entkommen werden, werden wir in Zukunft auch auf immer intelligenerte Verfahren treffen, um mit einer zu berechnenden Pixelmenge sparsamer umzugehen.
Man darf ja auch nie vergessen, wie rasend schnell dort der Fortschritt stattfindet, wohingegen das Rastern seit langer Zeit gefühlt in der Sackgasse steckt bzw. nur dahingehend vorankommt, dass man sich immer mehr Anleihen an Raytracing- ähnlichen Techniken nimmt....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu
Laphonso schrieb:

DLSS hat das da nicht btw...
Doch bei DLSS auch minimal auf den rechten Raupenketten bei 2:12. Aber bei FSR2 minimal mehr, Bei FSR1 noch deutlich sichtbar.
DLSS2 ist da minimal besser als FSR2, in den gezeigten Szenen nur einen Hauch. Da hat CB schon Recht, beides ist auf Augenhöhe.
 
  • Gefällt mir
Reaktionen: Maxxx800
Unnu schrieb:
Und das wird hier wieder so sein. RT hin oder her, DLSS 2.3, 3.0 4.0 etc. pp. sind wurscht. Die können genial sein und/oder werden. Egal! Auf den Konsolen und somit im Massenmarkt wird FSR den Ton angeben.


Wird sich zeigen ob Nintendo bei Nvidia bleibt, wenn ja, wäre das für Dlss richtig gut.
 
@Wolfgang Danke für den Test mit der RX580! Scheint bei WQHD und quality ja dann nicht viel zu bringen wenn es bei FullHD schon nur 8 FPS mehr sind. Aber vielleicht komme ich ja doch noch dazu das mal mit meiner RX 590 probieren zu können.
 
Also Ghosting find ich schon durch Monitore verursacht schon doof. Da habe ich dann lieber etwas mehr Geld ausgegeben für einen Monitor, wo das minimal ausfällt.

Wenn da FSR besser als DLSS sein soooooollte, wäre das schön für meine AMD Karte. Dann lieber etwas Flimmern.

Aber erstmal abwarten, wie sich dass in kommenden Spielen entwickelt und was so mit der nächsten Generation passiert. Durch die Konsolen mit AMD Technologie bin ich da aber, wie andere auch, zuversichtlich.
 
Northstar2710 schrieb:
Wird sich zeigen ob Nintendo bei Nvidia bleibt, wenn ja, wäre das für Dlss richtig gut.
Die Frage ist vor allen Dingen, wann Nintendo denn mal die massiv überfällige Switch2UHD endlich bringt. Keine andere Nachfolger/Upgradekonsole hat ein dermaßen großes Potential, die Spiele könnten auf einen Schlag technisch und vom Spielgefühl her in einer anderen Liga spielen.
Wenn sie so lange warten, bis FSR 2.X in diverse Titel gepatched wurde und schon ein Deck 2 bereitsteht, ist dieser massive potentielle Vorteil sogar im mobilen Markt passé! Für den stationären Markt gilt ähnliches, doch dort bleibt natürlich weiterhin der Umstand bestehen, dass der Generationensprung bei Nintendo (weil mit weniger gestartet wird) viel massiver wirken wird als bei Sony und MS.
 
  • Gefällt mir
Reaktionen: Unnu
Moetown schrieb:
Ich sehe FSR und DLSS einfach als weitere Tools, mit denen man die Präsentation für die eigenen Ansprüche nochmal anpassen kann, um ein flüssig spielbares Erlebnis zu bekommen.

Aber bei DLSS das nicht nachschärfen kann passiert halt das du ein unscharfes Bild dem Scaler übergibst... Da kann ja nur ein unscharfes 4k Bild bei rum kommen..
Und ja aus der Praxis kann ich bestätigen das die Sonys nen sehr guten Job machen ich gebe meinen bestimmt nicht her...
Ja natives 4k ist noch schärfer - aber der Unterschied ist nicht so riesig.. und teils wirkt es für mich zu scharf..
 
Ich frage mich, was da in bei GPUs wie der 1060 los ist, das ist mir auch in YT Videos schon aufgefallen, dass zwischen FSR Quality und Performance quasi kein Unterschied bei den FPS rauskommt.
Steigt die Zeit für den FSR 2.0 Pass pro Frame für den Performance Mode derart stark an, dass die weiter verringerte Auflösung direkt wieder ausgeglichen wird?
In 1080p könnte ich mir das evtl vorstellen, aber auf YT gibt es auch Leute die das in 4K mit ner 1060 getestet haben und auch dort waren die FPS zwischen Quality(1440p) und Performance(1080p) nahezu identisch.
 
Novasun schrieb:
Aber bei DLSS das nicht nachschärfen kann passiert halt das du ein unscharfes Bild dem Scaler übergibst... Da kann ja nur ein unscharfes 4k Bild bei rum kommen..
Also DLSS/FSR UND dann in niedrigerer Auflösung mit Upscaling am TV würde ich auch nicht machen. Entweder das eine oder das andere.
 
W0dan schrieb:
Das täuscht gewaltig. Kaum jemand sitzt so nah vorm TV dass das Bild ähnlich groß wie an einem 27 oder 32 Zoll Monitor am Schreibtisch wirkt.

Dadurch fällt das vergleichsweise schlechte Upscaling am TV nicht so stark auf.

Das ändert aber nichts an der Tatsache, dass FSR2.0 und DLSS jedem TV Upscaler um Welten überlegen sind.

Der TV Upscaler ist in etwa vergleichbar mit FSR1.0 tendenziell sogar schlechter, weil der TV Upscaler für Filmmaterial und nicht für flimmer und aliasing anfällige Spielegrafik ausgelegt ist.
Meiner einer sitzt max 1,5m vom TV entfernt. Was glaubst du warum es so viele Monitore mit 32/42 oder gar noch größer gibt?

Versuch doch mal nen anständigen 24" 1440p oder 4k Monitor zu kaufen. Unter 27 Zoll geht's da bei vielen Herstellern gar nicht erst los.

Moderne TV bieten zudem mittlerweile wirklich flotte Panels und deren Upscaler arbeitet hervorragend. Das upscaling im TV Bereich ist ja nix neues. Das hat schon so seine Gründe warum der eine TV 400 Euro und der andere 4000 Euro kostet ;) aber selbst in der Mittelklasse sieht das skalierte 1440p Bild oft besser aus als 4K DLSS in den meisten Titeln. Allein schon dadurch das nix flimmert.

Und was der Hardware Upscaler für ne Quelle an Ausgangsmaterial bekommt, ist dem völlig Lachs.
Nach deiner Logik müsste ja jeder Bluray Film sobald viele kleine Details zu sehen sind in der Bewegung untergehen.

Was glaubst du warum es TV Geräte mit 120Hz gibt^^ also nix mit virtuell verdoppelt oder sonstigen Käse. Oder Warum bieten Konsolen teils schon nativ 120 FPS in Spielen bieten?

Ob ich nun God of war spiele, ne Doku ansehe oder einen Film ist der Kiste egal.
Lediglich der Inputlag den gerade bei billigen Kisten hast, kann nerven.
Und einige Geräte bieten ja sogar dafür noch Lösungen an mit Filtern die weniger akkurat arbeiten aber dabei den Inputlag auf ein minimum drücken.

Beim guten TV is dieser fast nicht spürbar.
Da unterschätzt wirklich die TV Geräte.

Beim Monitor verzichtet man ja nicht nur wegen dem Inputlag usw auf solche Hardware im Monitor. Es war auch gar nicht nötig weil die GPU den Job des skalierens mit übernimmt.
Zumindest oft besser als der integrierte Scaler im Monitor.

Es soll ja Spiele geben wo DLSS einen guten Job machen soll^^ ja in einem walking Simulator fast ohne action ist das sicher auch gut vorstellbar ;)

In den Spielen die ich gesehen habe war DLSS eine Katastrophe verglichen mit dem Original. Bei FSR hatte ich zwar auch Artefakte usw, aber wenigstens keine oder weniger Unschärfe im Bild.
 
@n3xtrem
Sorry, aber das ist doch weitgehend Käse.

DLSS, FSR 2.0, TSR usw. sorgen für Bildruhe und wirken Flimmern entgegen. Zu behaupten, dass DLSS per se Flimmern verursacht ist schlicht falsch.

Ob DLSS und Co. wirklich native Qualität erreichen, darüber kann man gerne streiten und ist wieder sicher auch vom Einzelfall abhängig und subjektiv.

Ich würde auch mutmaßen, dass sich Scaling im TV Bereich eben wegen des deutlich unterschiedlichen Quellmaterials fundamental vom Upsampling von Spielen unterscheidet, da beispielsweise abgefilmtes Material Informationen im Subpixelbereich enthält, Spiele in nativer Auflösung aber weitgehend nicht. Auch ist Inputlag weit weniger relevant, sodass mehr Frames gebuffert werden können.
 
@n3xtrem

Ich bin da leider komplett anderer Meinung. Ich habe wahrscheinlich über die Jahre jedes bekannte Upscaling Verfahren am PC schonmal ausprobiert. Ich rede hier nicht von Spielen, sondern Bildern.

Es gibt keinen Algorithmus der auf räumlicher Ebene auch nur in die Nähe eines Temporalen Upscalings kommt, wie es DLSS oder FSR2.0 schaffen.

Selbst AI Upscaler kommen da nicht ran. (wobei diese einfach Details auf Basis bekannter Muster dazu erfinden und deshalb meist sehr künstlich aussehen)

Und die TVs erfinden in der Hinsicht das Rad auch nicht neu. Das sind auch nur in Hardware gegossene Standard Algorithmen, die seit Jahrzehnten bekannt sind. Die meiste Komplexität steckt da noch im Scharfzeichner, der die Kanten entsprechend gewichten soll, aber das wars dann auch. Details in nativer Auflösung rekonstruieren wie bei FSR und DLSS ist da überhaupt nicht möglich, weil einfach die Informationen komplett fehlen.
DLSS und FSR2.0 ziehen die Bildinformationen aus den vorherigen Frames. Das klappt aber auch nur, weil die Bewegungsvektoren vom Spiel zur Verfügung gestellt werden. Das geht bei 2D Bildern nicht. FSR und DLSS können also mit vielfach mehr Bildinformationen arbeiten als der TV.

Und die Standbilder beweisen ja eindrucksvoll, dass die Ausgabeauflösung eines FSR2.0 oder DLSS Bildes der nativen Zielauflösung entspricht. Erst in Bewegung oder bei sehr hohen Faktoren wie 4x im Performance Modus sieht man in manchen Bildbereichen, dass rekonstruiert wird.
Es gibt aber keinen spatial Upscaler, der es schafft, Pixelperfect Kanten und Linien in der Zielauflösung abzubilden, ohne dabei auszusehen, wie ein überzeichneter Comic oder ohne Scharfzeichner Artefakte.


Selbst die aktuell beste AI gestützte Video Upscaling Software https://www.topazlabs.com/video-enhance-ai
Hat absolut keine Chance gegen das was FSR2.0 und DLSS in Spielen schaffen.

Und du möchtest mir nun sagen, dass dein TV es mit dieser Software aufnehmen kann, die auf meiner RTX3060ti trotz CUDA und Tensor Cores Beschleunigung nichtmal ein 24 FPS Video in echtzeit upscalen kann?



Nein, einfach nein. Den Mythos des HighEnd TVs, der durch seinen magischen Upscaler alles in den Schatten stellt ist ein Mythos, den ich schon VIEL zu oft gehört habe... Eigentlich höre ich das seit es Flachbild TVs gibt und selbst die PS3 sollte damals ein atemberaubendes Bild haben, weil sie durch das Upscaling das Bild sogar besser macht als am PC. (hat mir mein Kumpel damals begeistert erzählt. kein Scherz)

Ich meine klar irgendwo witzig, weil DLSS und FSR 2.0 heute tatsächlich besser sein können als Nativ. Aber das hat eben wie ich schon erklärt habe den logisch nachvollziehbaren Hintergrund, dass die Bildinformationen aus vielen Frames kombiniert werden können. Das ist einfach der Schlüsselaspekt, der jedem klassischen Upscaler und jedem TV fehlt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mracpad, Unnu, chaopanda und 2 andere
W0dan schrieb:
Nein, einfach nein. Den Mythos des HighEnd TVs, der durch seinen magischen Upscaler alles in den Schatten stellt ist ein Mythos, den ich schon VIEL zu oft gehört habe... Eigentlich höre ich das seit es Flachbild TVs gibt und selbst die PS3 sollte damals ein atemberaubendes Bild haben, weil sie durch das Upscaling das Bild sogar besser macht als am PC. (hat mir mein Kumpel damals begeistert erzählt. kein Scherz)
Nicht "in den Schatten stellen", aber trotzdem "sehr gut". IST so, zumindest meine Erfahrung bei meinem 65 Zoll Sony TV bei einem Abstand von ca. 2.5 m. Ob das jetzt besser/vergleichbar ist oder andere Vorteile bietet als DLSS/FSR würde mich natürlich mal im direkten Vergleich interessieren.

Aber für meine Ansprüche (und vermutlich die vieler Menschen, die nicht in Tech-Foren abhängen) ist das Upscaling eine sehr gute Lösung zumindest für meinen TV, wenn die Power nicht für Nativ ausreicht. Und damit kommen wir zu dem Punkt, welche Relevanz das am Ende hat. Denn neben den persönlichen Ansprüchen spielt natürlich auch in der Bewertung eine Rolle, welchen Abstand zum Monitor/TV man hat. Und daher lehne ich mich ganz entspannt zurück und freue mich, dass es jetzt mit FSR noch ein zusätzliches Tool gibt, ich aber auch (für mich) sehr gute Ergebnisse mit dem einfachen Upsacling meines TV erreichen kann. Oder durch Herabsetzen der gerenderten Auflösung.
 
Moetown schrieb:
Also DLSS/FSR UND dann in niedrigerer Auflösung mit Upscaling am TV würde ich auch nicht machen. Entweder das eine oder das andere.

1440p/120hz und fsr2 am 55zoll q70r sieht super aus. Gar kein Problem. Brauche auf die Entfernung auch kein 4k. Da nehme ich lieber die Hz mit.
 
  • Gefällt mir
Reaktionen: Moetown
Moetown schrieb:
Nicht "in den Schatten stellen", aber trotzdem "sehr gut". IST so, zumindest meine Erfahrung bei meinem 65 Zoll Sony TV bei einem Abstand von ca. 2.5 m. Ob das jetzt besser/vergleichbar ist oder andere Vorteile bietet als DLSS/FSR würde mich natürlich mal im direkten Vergleich interessieren.

2,5 Meter ist grundsätzlich ein guter Abstand bei 65 Zoll, trotzdem nicht vergleichbar mit einem 27 oder 32 Zoll Monitor am Schreibtisch. Da müsstest du eher auf ca 1,5 Meter ran, um das Sichtfeld in gleichem Maße ausgefüllt zu haben.

Und ja, auf 2,5 Meter bei meinem 65 Zoll OLED sehe ich auch kaum Unterschiede. Auf 1,5 Meter oder am PC Monitor aber sehr deutlich.

Wie gesagt, wenn der Abstand groß genug ist, werden die Unterschiede immer kleiner. Ist ja auch völlig normal.
 
.Sentinel. schrieb:
dass es hier Leute gibt, die steif und fest behaupten, dass alles was nicht mindestens 60FPS liefert, als unspielbar gelten muss.
..zumindest bis man ihnen die fps-Anzeige wegnimmt und sie nicht mehr sehen wie hoch/niedrig die Frames sind :D

Allgemein ein sehr ordentlicher Beitrag den du da geschrieben hast!
Ergänzung ()

W0dan schrieb:
2,5 Meter ist grundsätzlich ein guter Abstand bei 65 Zoll,
Ich möchte dazu sagen: Ich finde es furchtbar, dass so etwas tatsächlich als "guter Abstand" kommuniziert wird. Das mag sein, dass man bei diesem Abstand ein gutes Bild hat, was die Pixel(ppi) angeht.

Aber ich vermiss ein der heutigen Zeit völlig die Warnung vor Schäden die die Augen bei solchen Entfernung vor gigantischen Screens tragen können.
Das ist einfach nicht gesund.

just my 2 cents.
 
  • Gefällt mir
Reaktionen: Czk666
Fuchiii schrieb:
Aber ich vermiss ein der heutigen Zeit völlig die Warnung vor Schäden die die Augen bei solchen Entfernung vor gigantischen Screens tragen können.
Das ist einfach nicht gesund.

just my 2 cents.

Wie gesagt, jeder moderne Monitor füllt bei üblichen Schreibtisch Sitzabständen ein größeres Sichtfeld aus, als 65 Zoll auf 2,5 Meter.

Also wieder zurück auf 17 Zoll Monitore wechseln? Oder 14 Zoll Laptops?
Also meine Augen sind deutlich angestrengter, wenn ich am 14 Zoll laptop arbeiten muss, als am 27 Zoll Monitor.

Wie passt das jetzt zusammen?


Mal ernsthaft. Das Problem fürs Auge ist doch rein physisch betrachtet nur die Fokus Entfernung. Da sind Monitore und Handy Displays problematisch, aber sicher nicht der TV in 2,5 Meter Entfernung.

Die größe spielt rein physisch betrachtet fürs Auge doch absolut keine Rolle. Ob da nun die Wand Umgebungslicht reflektiert oder der TV ist völlig unerheblich. Die Unterscheidung zwischen TV Bild und Wand findet rein im Gehirn statt, nicht im Auge. Das Auge selbst kümmert sich nur um den Fokus.
 
Zurück
Oben