Desktop PC via HDMI an LCD-TV-Flachbildferseher - optimale Einstellung

auna

Lt. Commander
Registriert
Sep. 2011
Beiträge
1.370
moin,

ich habe ein neues Panasonic LCD-TV -Gerät und möchte meinen Desktop PC via HDMI daran anschliessen.

Die Auflösung ist max. FullHD, alos 1920 x 1080 - 60HZ.

Für meinen Abstand zum LCD sind aber 1366 oder 1360 (?) x 768 besser.

Nun bin ich unsicher über die Hertz-Anzahl. Funktioniert nicht die PAL-Technik überwiegend mit 50 HZ ?
Anders gesagt: Ist es nicht günstiger wenn unnötige Rechnerrei seitens der Grafikkarte, bzw. des LCD-TV vermieden wird?
Bei der Auswahl der Auflösung wird automatisch auf 50 Hz eingestellt. Funktionieren tut beides ohne Proleme.
Vielleicht ist das Bild bei 60 Hz etwas ruhiger?

Was ist technisch optimal ?

Ich arbeite mit Win.7-64 bit.

Danke für Tipps
 
scheiß auf den abstand. nimm, was das gerät hergibt. ist das bessere bild

sprich 1920x1080 bei 60 hz, falls zur auswahl, sonst 50 hz.
 
Es kommt drauf an was du anzeigen willst. Wenn du spielen willst sind 60Hz vermutlich optimaler, weil du dann die höhere Framerate mitnehmen kannst. Zum Filme oder Fernsehkucken sind 60Hertz alles andere als optimal. Das meiste Zeug was es so gibt liegt mit 25 oder 50 Hertz oder 23,976Hertz vor, angenähert also auch eher 25. Das problem ist nun wenn die Framerate des Films nicht synchron mit der der Anzeige ist müssen Frames überaus oft ausgelassen oder doppelt bis dreifach gezeigt werden. Das sorgt dann für ungleichmässigen Bildlauf, und das sieht recht mässig aus, es ruckelt.
 
ohlschirr schrieb:
Für meinen Abstand zum LCD sind aber 1366 oder 1360 (?) x 768 besser.

Darf man erfahren warum die niedrigere Auflösung besser ist? Nimmst Du den TV als Monitor und die Schrift wird zu klein? Beachte dass sich die wenigsten TVs dafür eignen, auf Dauer ist mit Ermüdungserscheinungen wie Kopfschmerzen usw. zu rechnen. Wenn Du nur die Schrift größer haben willst, dann veränderen die DPI Auflösung und nimm die nativen 1920 x 1080. Dazu gibt es von Microsoft eine Anleitung.
 
Du bist ja lustig evilbaschdi,

mehr bzw. hohe Auflösung gut und schön, aber die Abbildungen sind dann leider zu klein.
Das bessere Bild ist natürlich auch Geschmackssache, aber was ist technisch optimal oder ist es wirklich egal?
Ergänzung ()

Nein TWry, es geht nicht um die Schrift. Die Grössen-Anpassungen in der Darstellung sind mir bekannt. Danke.

Aber: Wenn ich z. B. mit Nero Video oder Power Director arbeite sind die Bedienfelder ungünstiger, auch weil proportional die Verhältnisse eher zu Ermüdungserscheinungen wegen Überanstrengung der Augen führt finde ich die geringere Auflösung besser.
Ausserdem "spare" ich Power von der Grafikkarte die dann dem rendern und anderen Bearbeitungsabläufen zu Gute kommt.

Aber was soll der Unterschied von 6 Bildpunkten? 1360/1366? Welche HZ-Anzahl ist optimal?
Ergänzung ()

Hibbelharry, optimal reicht. Technisch optimal. Ich spiele nicht. Mein Schwerpunkt am PC/LCD-TV ist Videobearbeitung. Und Du hast es richtig erkannt: Es geht darum unnötige Rechenvorgänge möglichst per richtige Einstellungen zu vermeiden.
Ich kann alles einstellen ohne Störungen. Subjektiv würde ich sagen bei 60 Hz ist das Bild etwas ruhiger.
 
Erhöhe doch einfach die DPI statt an der Auflösung herumzufummeln.
 
Natürlich ist immer die native Auflösung einzustellen. Alles andere ergibt ein erheblich schlechteres Bild. Sind Dir die Anzeigen auf dem Desktop zu klein, dann kann man das vergrößern.

Das mehr an Leistungsverbrauch bei der GPU spielt keinerlei Rolle im Desktopbetrieb. Keinerlei.
 
ohlschirr schrieb:
Ergänzung ()

Nein TWry, es geht nicht um die Schrift. Die Grössen-Anpassungen in der Darstellung sind mir bekannt. Danke.

Aber: Wenn ich z. B. mit Nero Video oder Power Director arbeite sind die Bedienfelder ungünstiger, auch weil proportional die Verhältnisse eher zu Ermüdungserscheinungen wegen Überanstrengung der Augen führt finde ich die geringere Auflösung besser.
Ausserdem "spare" ich Power von der Grafikkarte die dann dem rendern und anderen Bearbeitungsabläufen zu Gute kommt.

Also dass das Rendern von längeren Sequenzen schneller geht, weil die Graka eine niedrigere Auflösung für den Desktop fährt, möchte ich stark bezweifeln. Am Bildschirm bewegt sich dann ja nichts oder wenig, also dürfte es diesbzgl. wenig zu tun geben für CPU und Graka. Kannst ja mal einen Test fahren, einmal 640x480 oder so und einmal bei FullHD für den Desktop. Würde fast ne Kiste Bier wetten dass die Unterschiede kaum messbar sind.

Für mich klingt es immer noch so, als ob die Änderung der DPIs genau das sind, was Du brauchst. Es sei denn, dass deine Software dies nicht berücksichtigt.
 
Upps:
1. Selbstverständlich und technisch logisch hängt die Leistung der Grafka. von der Berechnung/Bearbeitung der Bildgrösse und deren Darstellung ab. Einfach mal Pixel multiplizieren x 25 (i) oder 50 (p) /s.
2. Auch während der Videobarbeitung steht genügend CPU-Power zur Verfügung um andere Prozesse / Anwendungen laufen zu lassen, auch hier ist dann die Grafka gefordert.
3. DPI-Vergrösserungen verändern das Verhältnis der dargestellten Objekte in meinem Fall leider zu ungunsten der benutzen Programme.
4. Die genannte Auflösung 1366/1360 x 768 -50 / 60 Hz sieht nicht schlecht aus allein deswegen weil es nicht die native Aufösung ist.

Meine Frage ist: 50 oder 60 HZ ? Unterschied (?) 1360 / 1366 Technisch optimale Einstellungen.
 
Zuletzt bearbeitet: (tippfehler / x25/50)
ohlschirr schrieb:
1. Selbstverständlich und technisch logisch hängt die Leistung der Grafka. von der Berechnung/Bearbeitung der Bildgrösse und deren Darstellung ab. Einfach mal Pixel multiplizieren/s.

Welche Pixel soll man da denn multiplizieren? Auf dem Bildschirm bewegt sich nichts. Was soll dann berechnet werden von der Graka? Render doch mal wie von mir vorgeschlagen ein Video bei niedriger und dann das gleiche bei hoher Desktop Auflösung. Jede Wette dass die Unterschiede geringer sind als die Meßgenauigkeit.
 
Naja TWry, auch ein Standbild muss für die Darstellung berechnet werden. Was glaubst Du denn wie das TV-/Monitor-bild sichtbar wird?
Die Unterschiede in der Gesamtpixelzahl ergeben sich aus der Format-Multiplizierung pro Bild. Pro Sekunde werden 25 Halbbilder (i) angezeigt
aber auch dieser Wert lässt sich in 30 oder 50 Vollbilder ändern. However: Es muss sowohl für die Darstellung als auch für die Bearbeitung berechnet werden. Hier arbeitet die Technik der Grafka des PC und die Technik des LCD oder sonstiger Monitor. Und damit nicht unnötig oder störanfällig rumgerechnet wird geht es mir um die optimalen Einstellungen.
Und: Wenn eine Filmproduktion erstellt/gerendert wird hängt die Leistung auch von der zu erstellenden Bildgrösse ab. Entsprechend gross wird die Datei. Dabei schaltet allerdings die Grafka die Darstellung auf den LCD nicht ab.

Und: Ich habe längst die Unterschiede im Grössenverhältnis ausgetestet. Die Auflösung, auch in der Darstellung, hat sehr Wohl Einfluß auf die
Leistung der Grafka. Es dauert unterschiedlich lang bis das selbe Projekt fertiggestellt ist.
 
Das ist gelinde gesagt, ziemlicher Unfug.

Deine Ausführungen mögen noch von Bedeutung gewesen sein, als die VGA Karten das Licht der Welt erblickten. Aber sie spielen bei GPUs, die aus diesem Jahrtausend sind, keine Rolle.

Einzig was Du durch Multiplikation in Erfahrung bringst ist, wie viel RAM belegt das Bild im Speicher der GPU. Die Erhöhung der Auflösung des Desktops benötigt keinerlei Mehrleistung der GPU. Einzig solche Dinge wie Aero & Co, die schon. Aber das auch unabhängig von der Auflösung.

Welche Hardware nutzt Du denn?
 
BlubbsDE, da Du täuscht Dich aber ..

Ersteinmal spreche ich hier aus Erfahrung: Wenn meine Nvidia GT640 oder Intel P3000 Grafik oder GTX460m in FHD-Betrieb laufen dauert
die Fertigstellung der Produktion länger als wenn die Auflösung auf 1366 x 768 reduziert ist. Bei vergleichbaren Bedingungen, gleichzeitigem
Onlinebetrieb oder auch nicht, mit Aero-Effekt. Das erscheint mir auch durchaus logisch. Es sind nun mal gewaltige Rechenleistungen die pro
Sekunde anfallen, das macht bei einer Filmdauer von 60 Minuten und ca. 4-7 GB auch Sinn. Es ist eben nicht gleich wieviel Pixel pro Bild berechnet werden, auch in der Darstellung nicht, das ist bei Highend-Karten auch nicht anders, der Unterschied fällt nur nicht auf weil genügend Resourcen frei sind.
Aber vielleicht hat noch Jemand eine Antwort auf meine Eingangsfragen?
 
Neee, ohlschirr, das stimmt so nicht, wie BlubbsDE schon sagt. Ein Standbild wird nicht neu berechnet. Es wird im Speicher abgelegt und für die Generierung des Signals an den Monitor lediglich ausgelesen. Solange sich am Bild nichts ändert, besteht keine Notwendigkeit für die GPU der Graka etwas neu zu berechnen. Wenn es stimmen würde was du sagst, dann würden Videos bei niedriger Desktopauflösung schneller gerendert als bei hoher Desktopauflösung. Kannst das ja wie vorgeschlagen messen und dann hier die Ergebnisse posten :)
Ergänzung ()

ohlschirr schrieb:
Es sind nun mal gewaltige Rechenleistungen die pro
Sekunde anfallen, das macht bei einer Filmdauer von 60 Minuten und ca. 4-7 GB auch Sinn. Es ist eben nicht gleich wieviel Pixel pro Bild berechnet werden, auch in der Darstellung nicht, das ist bei Highend-Karten auch nicht anders, der Unterschied fällt nur nicht auf weil genügend Resourcen frei sind.

Welche Pixel sollen da von der Graka berechnet werden? Du lässt den Rechner einfach nur stehen und das Video rendern. Da spielt die Auflösung des zu rendernden Videos eine große Rolle. Die Desktopauflösung ist vollkommen latte.
 
Bingo ! TWry, Ja so ist es auch.
Und nochmal: Während Die Software den Film erstellt und die Grafka rendert steht das LCD-Bild nicht still! Zwar hat die Grafka mit Cuda oder Quick Sync oder APP- Kernen gut zu tun aber die CPU bietet noch Resourcen für andere Aktivitäten am PC, selbstverständlich mit Grafka-Leistung für die Darstellung.

Die meisten Bezeichnungen wie Speicherauslesung, zwischenpspeichern etc. sind nix anderes als Rechenleistungen. Selbige werden auch von der Grafka erbracht. Aber ich gebe Dir Deinen Vorschlag gern zurück: Probiere es aus.

Aber mein Thema ist eigentlich ein anderes...
 
Zuletzt bearbeitet:
Was bewegt sich denn da? Nicht viel mehr als die Uhrzeit, ein Fortschrittsbalken und andere Kleinigkeiten. Das benötigt keine Grafikleistung. Allerhöchstens der Stromverbrauch geht etwas hoch, weil die Elektronik, die das Monitorsignal generiert etwas mehr mit der höheren Auflösung zu tun hat. Aber die GPU langweilt sich bei stehendem Desktop nur. Etwas anderes ist, wenn die GPU für das Rendern des Videos herangezogen wird. Aber auch dann wiederum spielt die Desktopauflösung keine Rolle. Du denkst, dass ein Standbild von der GPU immer neu gerendert wird. Aber das ist genau falsch.
 
Lieber TWry: Sei bitte nicht informationsbequem und lese meine Beiträge in Gänze. Deine Frage habe ich schon längst beantwortet.

Wer beantwortet meine?

Sorry, muss in die Schicht...
 
Zuletzt bearbeitet: (i)
Ich lese deine Beiträge in Gänze. Das macht sie aber nicht richtiger. Du hast meine Frage, was sich denn da während des Renderns eines Videos auf dem Desktop bewegt, nicht beantwortet. Mach doch mal einen Test wie von mir vorgeschlagen und wenn du Recht behältst und sich statistisch signifikante Unterschiede beim Rendern von Videos bei jeweils niedrigst möglicher und höchst möglicher Desktopauflösung zeigen, dann kriegst du ein Bier von mir :)

Das hat auch den Vorteil, dass Du dir deine Frage selber beantworten kannst. Meine Antwort auf deine Frage hinsichtlich der Auflösung und Bildwiederholfrequenz ist jedenfalls: es ist egal. Auch wenn du's nicht glauben magst :)
 
Zuletzt bearbeitet:
Ja, TWry ich sach dann schon mal prost...

Meine Beiträge 13 und 15 behandeln Deine Fragen. Ausserdem habe ich Dir dort angeboten es selbst zu reproduzieren...

Aber: Ich habe die Auflösung nicht reduziert um Sekunden für die Videoerstellung zu gewinnen sondern weil in FHD die Bedienung der Software ungünstiger ist. Anpassungen mit DPI stören die Objektabbildungen (Beitrag Nr. 5).

Was mich wundert ist die Möglichkeit auf 1360 oder 1366 x 768 einzustellen. Was soll dieser Unterschied?
Die zweite meiner Fragen war 50 oder 60 Hertz?

Du sagst nun das ist egal.

Ich denke: Die Hardware des PC arbeitet mit der 50 HZ-Technik (Deutschland: 220V/50HZ). Also stelle ich 50 Hz ein und glaube die Option 60 Hz ist vielleicht für den usa-Bereich gedacht. Ein kaum merklicher Unterschied könnte auch Einbildung sein...

Vielleicht weiss es ja doch noch Jemand besser oder richtiger...

Habe das hier gefunden:
http://www.htpc-news.de/wiki/index.php/Fernseher

Oh, doch komplexer als ich dachte...
 
Zuletzt bearbeitet:
Interessante weitere Überlegungen... Was hat die Bildwiederholrate bitte mit der Stromnetzfrequenz zu tun?

Es wurde ja im Grunde schon alles gesagt. Stelle alles auf Maximum, dann hast Du das beste Bildergebnis am TV. Im Desktopbetrieb. Es sieht wieder anders aus, wenn Du zB Videos am TV wieder geben willst. Aber auch das wurde ja schon beschrieben hier.
 
Zurück
Oben