News Sparsam im Office: Philips präsentiert Monitore mit unter 10 Watt trotz 100 Hz

wechseler schrieb:
Unterstützt HDMI nicht.
Soll das heißen, die 16:10 Monitore für den Büroalltag müssen für native Auflösung zwingend via DisplayPort angesprochen werden? Nun ja, die meisten Laptops, Dockingstationen und Grafikkarten sollten das ja haben.
Ergänzung ()

Rickmer schrieb:
Hier ist eine Liste von 77 WUXGA Monitoren mit HDMI Input:
https://geizhals.de/?cat=monlcd19wide&xf=11967_HDMI~14591_19201200

Noch Fragen?
OK, ich hätte mich schon sehr gewundert.
 
Drummermatze schrieb:
bei nem guten Office Monitor sein.
  • IT: "Hey Abteilung, wollt Ihr USB C mit Daisy Chain und DP?
  • Verwaltung 6: "Ich will die Vegi Lasagne"
  • Buchaltung 14: "Ja, mit Fritten"

Soviel dazu. Ein "normaler" B2B bei 24 Zoll kostet halt nur 65 bis 85€ ab grösserer Abnahme pro System. Das Teil muss nur einen Digitalen Eingang haben sonst wird es zu teuer. Adapter werden nachgekauft und sind i.d.R. ein anderes Budget.
 
Zuletzt bearbeitet:
wechseler schrieb:
Oder auch "alle" 59 WUXGA-Monitore seit 2019. Es ändert aber nichts daran, dass der HDMI-Standard nur spezifische 16:9-Auflösungen unterstützt, WUXGA gehört nicht dazu.
An der Datenrate kann es nicht liegen. Woran "krankt" dieses Bildformat?
Ergänzung ()

SVΞN schrieb:
Das ist Unsinn. Selbstverständlich können über einen HDMI-Anschluss Auflösungen von 1.920 x 1.200 Pixeln ausgegeben werden.
Also doch. ;)
 
Abrexxes schrieb:
  • IT: "Hey Abteilung, wollt Ihr USB C mit Daisy Chain und DP?
  • Verwaltung 6: "Ich will die Vegi Lasagne"
  • Buchaltung 14: "Ja, mit Fritten"
Ich kenne genug Gejammer weil die Docking Station nicht die passenden Anschlüsse hat. An dem Schreibtisch gibts Displayport, hier HDMI und dort DVI.
Man muss den Leuten ja nur erklären dass sie zukünftig nur noch ein einziges USB-C Kabel in ihren Laptop stecken müssen und dann alles funktioniert.
Adapter gehen verloren oder werden geklaut.
Mein Ex-Unternehmen kam dann nach dem ganzen Chaos auch irgendwann mal auf die Idee Daisy Chain Monitore mit USB-C PD anzubieten.
 
@Drummermatze , ein normales System = Desktop, Monitor, Tastatur und Maus. Da passt alles auch ohne Adapter da System. Und wenn mal der alte M weiterbenutzt wird klaut auch keiner den Adapter sonst geht ja sofort nichts mehr.
Alle anderen Systeme mit Laptop + Docking +++ werte ich halt nicht als normale Systeme allein schon wegen dem kompletten EK. Das sind individuelle Arbeitsplätze und normalerweise noch mal ein eigenes Budget bei Generationswechsel.
 
hans_meiser schrieb:
Die Diskussion über Verbrauch ist müßig, denn alle liegen so ziemlich im gleichen Lager. Und selbst wenn da 20W mehr im IDLE verbraucht werden, das sind ein paar Euro im Jahr,
20W wären bei 231 Arbeitstagen ohne Freizeit dazugerechnet 11€ pro Jahr - stimme ich zu kein allzu großer Betrag.
hans_meiser schrieb:
Lustig daran ist, wenn die 14900KS usw halt bei Spitzenleistung krass verbrennen, dann ist das alles OK. Braucht man ja.
Das ist dann wiederum lachhaft und lässt dich doch ebenfalls wie ein
hans_meiser schrieb:
wirken :p :

IMG_0123.jpeg

IMG_0124.jpeg


Wer am Tag 1 Stunde durchgängig Vollast hat kommt auf 3,95€ Differenz pro Jahr(!) bei nahezu identischer Leistung. Selbst 3 Stunden tägliche Vollast wären erst mehr als die Idle-Ersparnis - wie war das nochmal:

hans_meiser schrieb:
das sind ein paar Euro im Jahr, welchen Enthusiasten ist das denn wichtig? Richtig, den Plauderern.
Zählst du dich da auch dazu?

Je nach Einsatzzweck gleichen sich das
hans_meiser schrieb:
im Idle und unter Last aus …schenkt sich jedenfalls offensichtlich kaum etwas auf der Stromrechnung ob nun der Verbrauch unter Last oder im Officebetrieb höher ausfällt, sofern man, wie üblich für solch eine CPU, beide Szenarien hat.
 
Zuletzt bearbeitet:
Weyoun schrieb:
Soll das heißen, die 16:10 Monitore für den Büroalltag müssen für native Auflösung zwingend via DisplayPort angesprochen werden?
Oder VGA. Damit sind auch beliebige Auflösungen möglich.

Weyoun schrieb:
Woran "krankt" dieses Bildformat?
Die Schnittstelle ist für TV-Signale spezifiziert. Es sind bestimmte Bildformate inkl. viel Platz für eingebettete Audiodaten vorgeschrieben. Nun geht hier jeder von einem Monitor aus, der direkt an eine Grafikkarte angeschlossen ist, aber HDMI-Signale sind dafür vorgesehen durch eine Kette gereicht werden.

Das hat nichts mit dem Daisy-Chaining bei DP zu tun, sondern die Signale werden bspw. von einem AV-Receiver, HDMI-Splitter und Projektor weiterverarbeitet. Jedes dieser Geräte kann und darf sofort aussteigen, wenn das HDMI-Source irgendwelche Custom-Auflösungen produziert. Und deshalb meldet ein standardkonformes HDMI-Sink (Display oder Projektor) auch nur bestimmte 16:9-Auflösungen über die HDMI-Schnittstelle.

Wenn ein Hersteller nun einen Monitor haben will, der problemfrei standardkonforme HDMI-Signale ohne schwarze Balken darstellen kann, dann verbaut er ein 16:9-Panel mit bspw. 1920x1080 Pixeln.

Dazu mal ein Beispiel aus der Praxis: Mein DVI-D-Monitor wurde mal über einen HDMI-Adapter mit einem AVR und dieser dann mit dem HDMI-Ausgang des PCs verbunden. Der AVR liest das EDID des Monitors und sagt "Cool, DVI mit 1920x1080 kenne ich!" und schaltet auf DVI um. Auch der PC liest das EDID des Monitors und gibt ein DVI-Signal aus, denn der Monitor unterstützt ja kein HDMI.

Schwarzes oder blaues Bild mit "NO SIGNAL" wäre aber genauso in Ordnung, denn unterstützen müssen die HDMI-Gerät in der Kette das ganze nicht. Und genauso sieht das auch mit Custom-Auflösungen, WXGA, WUXGA, WQHD usw. aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen
wechseler schrieb:
Nun geht hier jeder von einem Monitor aus, der direkt an eine Grafikkarte angeschlossen ist, aber HDMI-Signale sind dafür vorgesehen durch eine Kette gereicht werden.
Wer schließt einen 16:10 Büromonitor nicht an eine GraKa an? Ich kenne niemanden, der auf die Idee käme, einen Büro-Monitor an einen AVR anschließen zu wollen. Büromonitor und Heimkino sind nun mal zwei verschiedene Paar Schuhe.
 
  • Gefällt mir
Reaktionen: DevPandi
Abrexxes schrieb:
ein normales System = Desktop, Monitor, Tastatur und Maus.
Das gibts noch häufig? Also feste Arbeitsplätze mit einem Monitor und Desktop PC?
Mittlerweile machen doch viele Unternehmen Desksharing oder bieten mindestens Home-Office an.
Dafür wäre dann der Laptop zwingend erforderlich.
 
wechseler schrieb:
Die Schnittstelle ist für TV-Signale spezifiziert.
Ja und Nein, HDMI baut auf DVI auf und ist damit nicht auf TV-Signale spezifiziert.

HDMI sieht aber durchaus bestimmte Formate vor, nur ist hier die Sache, dass die Formate ein Teil der Spezifikation sind, sie sind aber kein "verbindlicher" Teil, also dass es nur diese Formate gibt.

Bei HDMI wird - genauso wie bei DP - melden die einzelnen Komponenten, welche Bildformate sie anbieten und welche sie nutzen wollen.

Der Monitor meldet per HDMI der Grafikkarte und Windows, dass sie die folgenden Auflösungen beherrschen. Windows enbtsprechend gibt den Nutzern die Auswahl dafür.

Und das gleiche passiert zwischen TV, Reciever und Co. In der Regel geht es dabei aber um das "maximale" Format. Niedrigere Auflösungen, die unterhalb der Datenrate liegen, sind in der Regel kein Problem.

Sollte dein Audioreciever, weil er in der Chain ist, aussteigen, weil im Datenkanal für die Bilder statt 1080p ein 1440p-Signal oder 1200p-Singal unter gebracht ist, aussteigen oder Fehler produzieren, dann ist dein Audioreciever einfach schlecht! Das Audio-Signal kommt auf einem eigenen Kanal, der Rest muss nur durchgeschliffen werden. Und gute HDMI-Komponenten machen genau das und nichts anderes.
 
  • Gefällt mir
Reaktionen: DynamaxX
Zwirbelkatz schrieb:
Es entbehrt nicht einer gewissen Komik, dass mitunter so viel über den Idle Verbrauch diskutiert wird. Sogar darüber, wer ihn wie definiert. Aber eigenartigerweise werden die Anzahl der Lüfter, RGB oder geschweige denn der Verbrauch des Monitors quasi gar nicht diskutiert.

Diese interessante News ist wirklich ein Denkanreiz.
Lässt sich nur schlecht vergleichen - wer ein entsprechendes Bild möchte muss zwangsweise mehr Verbrauch einplanen (höhere Auflösung, HDR, OLED etc.), dazu ist oft bei ähnlichen Modellen dasselbe Panel verbaut …

Eine höhere Anzahl an Lüftern hat man idR auch nicht zum Spaß, sparen lässt sich hier nur bedingt etwas durch eine Lüftersteuerung die idR ja bei vielen Lüftern sowieso vorhanden ist.
RGB sind wenn überhaupt 1-2 Watt, sofern man in seinem Gehäuse keine Pflanzen anbauen möchte - und verschiedene LEDs zu vergleichen wird kaum eine relevante Ersparnis bringen …

Die ganze Verbrauchsdiskussion im Idle/unter Last hat doch hauptsächlich hierher gerührt:

IMG_0123.jpeg


Bei langer Zeit 2-3% Differenz in Anwendungen und Spielen gab es eben nichts anderes mehr zu diskutieren, da musste man sich über belanglosere Themen unterhalten wie 11€ Differenz im Jahr im Idle oder 4€ im Jahr unter Last (s.o.) :rolleyes:
 
DevPandi schrieb:
Ja und Nein, HDMI baut auf DVI auf und ist damit nicht auf TV-Signale spezifiziert.
Es baut auf TMDS auf, nicht auf DVI. TMDS wird auch von DVI-D verwendet, weshalb viele Geräte beides ausgeben und verarbeiten konnten. HDMI ist explizit für Unterhaltungselektronik spezifiziert.

DevPandi schrieb:
Sollte dein Audioreciever, weil er in der Chain ist, aussteigen, weil im Datenkanal für die Bilder statt 1080p ein 1440p-Signal oder 1200p-Singal unter gebracht ist, aussteigen oder Fehler produzieren, dann ist dein Audioreciever einfach schlecht! Das Audio-Signal kommt auf einem eigenen Kanal, der Rest muss nur durchgeschliffen werden.
Die Audiodaten sind ins Bildsignal eingebettet und müssen dort extrahiert werden! Und das OSD des AVRs wird natürlich auch ins Bild eingebettet, dafür muss das Bildformat dem Gerät selbstverständlich bekannt sein.
 
MalWiederIch schrieb:
20W wären bei 231 Arbeitstagen ohne Freizeit dazugerechnet 11€ pro Jahr - stimme ich zu kein allzu großer Betrag.
Ihr betrachtet das Thema aus der Sicht eines einzelnen Anwenders, dann sind 11€ pro Jahr tatsächlich nicht die Welt. Wenn man das Ganze allerdings hochskaliert auf ein Unternehmen welches zigtausende Monitore einsetzt, macht es eben doch schon ein wenig was aus. Zudem wirbt jedes größere Unternehmen gerade damit, wie nachhaltig sie sind...warum nicht auch die IT nachhaltig gestalten.
 
@Drummermatze , klar. In Krankenhäusern zb ist Homeoffice nicht so leicht machbar. Nicht mal für die Abrechnungs Abteilung da Datenschutz verdammt aufwendig. Oh, werden ja in D. gerade massiv abgebaut (/s). Es gibt halt weniger Berufsbilder wo HO geht als solche wo es ausgeschlossen ist. Wenn von 2500 fixen ArbeitsPOSTEN (zb. Durch Schichten besetzt), nur 100 überhaupt in Frage kommen für HO ist das nun mal nicht der grösste Faktor bei der Beschaffung.
 
  • Gefällt mir
Reaktionen: Drummermatze
"Praktisch ist, dass zwei Buchsen seitlich leicht erreichbar sind, eine davon bietet eine Schnellladefunktion. Auf USB-C muss aber verzichtet werden."

Ich finde das total unpraktisch.
Wer nutzt denn nur einen Monitor? Ich kenne niemanden, der noch so ein Setup hat. Weder privat, noch beruflich.
Schon bei 2 Monitoren hat man bei seitlichen Buchsen ein Problem. Entweder lässt man eine Lücke zum nächsten Monitor oder man kommt nicht mehr an die Anschlüsse. Einen Monitor um 180 Grad drehen ist wegen der unterschiedlich dicken Ränder auch nicht so toll.

Ich kaufe nur Monitore, die die Anschlüsse unten haben. Da kommt man in den allermeisten Fällen gut ran.
 
ottoman schrieb:
Mir wären 300 cd/m² mittlerweile zu wenig. Da müsste man jedes mal das Zimmer abdunkeln, wenn die Sonne scheint.
Als echtes Kellerkind sind mir fast alle Monitore bei 0 Helligkeit noch zu hell. Kaufe nur Modelle, die im Test als viel zu dunkel beschrieben sind. ^^ Lebe im Altbau mit kleinen Fenstern.
 
Abrexxes schrieb:
So hat nicht einer Pivot,
Wann hast Du im Büro das letzte mal den Bildschirm gedreht?

Abrexxes schrieb:
nur der zweite kann 100Hz,
Wozu braucht man 100Hz im Büro?
Wer ein schnelles Display braucht, stellt sich da 144Hz-Monitor oder mehr hin.

Abrexxes schrieb:
Ja, das sind "echte" 08/15" Geräte. ;)
Na und?
Das reicht doch völlig für die normale Büroarbeit.
Wenn ich bessere technische Werte brauche, kaufe ich mir doch keinen 24 Zöller für 200.- EUR.
In einer größeren Firma bekommst Du gar kein Budget für z.B. 10 davon.

Schon vor Jahren haben wir nur noch 27 Zöller verbaut und meist in WQHD.
Ein 24 Zöller mit Full HD ist doch völlig unangebracht heutzutage, vor allem für den Preis.

Vom Aussehen will ich gar nicht reden.
Da lag Philips schon öfter mal daneben, aber man schaut ja meist von vorne auf den Monitor.
 
Zwirbelkatz schrieb:
Aber eigenartigerweise werden die Anzahl der Lüfter, RGB oder geschweige denn der Verbrauch des Monitors quasi gar nicht diskutiert.
Ich habe normale Lüfter die <1W/Stück verbrauchen, davon 6 verbaut. ~1,5W wenn die auf 100% laufen.
RGB habe ich keines.
Monitore habe ich einen älteren 27" 1080p/144hz und ein 42" C2 OLED TV.
Beide zusammen haben umdie 50W-120W (jenachdem wieviel helles Weiß angezeigt wird).
Beim OLED ist schwarz quasi fast aus, deshalb die große Spanne.
Zudem ist noch mein Verstärker und ein paar Netzteile für Handy (ungenutzt) an derselben Steckleiste und ich habe die komplette Steckleiste an der Steckdose gemessen.

Mein PC mit 4090 und 9800X3D zieht beim zocken ~400W (gemessen an der Steckdose) ~65W CPU/~305W GPU.
Mein ganzes Setup (PC+alles andere) verbraucht eigentlich nie über 550W.
Wenn ich nur surfe müsste es bei etwa 120-150W liegen, recht viel eigentlich wenn man es mit einem Laptop vergleicht.
Das meiste macht bei mir dann der OLED beim surfen aus.

BTW laut HWiNFO zieht der 9800X3D 4-5 mal mehr als die 4090 im idle. :D
 
Zuletzt bearbeitet:
Zurück
Oben