News Samsung-Monitor bezieht Strom über USB

oder man kauft einfach ein kabel und klemmt das ding zwischen stecker und netzteil des pcs. als ich die news gelesen habe hatte ich zu erst gedacht "geil". dann habe ich mit meinem halbwissen mich hier mal durchgelsen und muss zugeben das es doch noch einige contrapunkt zu beachetn gibt.
Wo soll das einsatzgebiet sein? Mobil . wohl eher nicht... außer jemand iwll im zug mal schnell son ding an sein netbook hängen oder so.
stationär zuhause? wieso dann aber kein stromkabel nehmen.
Außerdem kann so ein monitor nicht gleich hell sein und gleich gut wie einer der über ne normale steckdose angeschlossen wird.

ja . außerdem würde der bei mir 2 ports klauen die ich eig für anderes zeug brauche!
 
qBiC schrieb:
Diese Aussage kann ich getrost wiederlegen.
Ich hatte zu Anfang ein 10 Meter langes HDMI Kabel für 20 Euro gekauft, habe Bild und Ton bekommen, leider inklusive Bildfehler.
Später habe ich mir ein teures für 70 gekauft, seitdem habe ich nicht nur keine Bildfehler mehr, sondern zudem ist es generell schärfer geworden.

Ich glaube Dir gerne, dass dies bei einem Kabel mal so gewesen ist.

Fakt ist aber auch, dass sich mehr als genug Tests in den Weiten des Webs finden, die besagen, dass die teuren Kabel nur Geldverschwendung sind.

Von daher kann es einfach auch sein, dass das billige Kabel kaputt war, oder einfach wirklich mal ein mieser Hersteller oder sonstwas ...
 
habe meinen 37"er mit DVI-HDMI Kabel angeschlossen. 10 Meter Kabel für 9,80 Euro -- top bild :) aber das is ja nich das thema ;)

mal sehn wie das mit USB 3.0 aussieht, da is ja eh mehr strom drinn ;)
 
In Zeiten von Green-It & 80 Plus Gold eine richtig geniale Idee. Neben der sinkenden Stromaufnahme, Kosteneinsparung in der Fertigung der Hersteller und weniger Kabelsalat ist wohl der zukünftig wegfallende Elektroschrott das ausschlaggebenede Kriterium für eine Umrüstung.
Damals saugten die CRT mehr Strom als der PC, ein PSU war Pflicht. Möge LED und OLED diesen Standard erneuern.
 
qBiC schrieb:
Ich möchte nicht so wirken als ob ich alles besser wissen würde.
Erkläre mir dann aber bitte technisch gesehen, warum ich beim billigen Kabel Pixelfehler in weißen und schwarzen Bereichen hatte, die ich mit dem teuren Kabel nicht mehr habe.
Stichwort: Jitter und Dämpfung.
Deren Werte sind bei Teuren Kabeln Natürlich besser.
Dadurch kann es sein das ein Qualitativ Hochwertiges Kabel Funktioniert und ein billiges Bildfehler Produziert.
Ganz Pauschalisieren lässt sich dies aber nicht, der Sender und das Empfangsgerät spielen auch noch eine gewichtige Rolle.
der eine Sender Produziert mehr Jitter, der andere weniger.
der eine Empfänger kommt mit Jitter besser zurecht als ein anderer.

Auf die Bildqualität ansich hat das aber keinen Einfluss.

Qualitativ Hochwertige Kabel haben also durchaus ihre Daseinsberechtigung.
 
IlDuce88 schrieb:
Das mit USB3.0 hab ich auch ned verstanden.
USB3.0 ist schneller, heil trotzdem kein Krebs ;)
Ist also keine Wunderwaffe gegen alles.

Die USB3.0 Spezifikation erlaubt 900mA (max 4,5W) pro Gerät.
USB2.0 nur 500mA (max 2,5W)

Das mit dem Kabel und der Bildqualität in Bezug auf DVI-D/HDMI ist bullshit.
Da findet eine digitale Übertragung statt. Entweder das Signal ist zu schwach und es gibt gar kein Bild(zB Kabel zu lang), oder es gibt ein Bild(alles In Ordnung).

Unscharf oder Bildfehler können da gar nicht auftreten. Das ist gegen die Spezifikation.
Wo Dämpfung, zB durch zu geringen Querschnitt oder zu große Länge zu schlechterem Bild führte war die Analoge Bildübertragung.
 
Zuletzt bearbeitet:
Ich warte auf den unter 100 Watt bei Vollast verbrauchenden Gaming-PC. :D
 
Bildfehler und Artefakte können im Grenzbereich sehr wohl auftreten.

Analoges Signal:
Abhängig von der Qualität des Kabels und dessen Länge sinkt mit steigender Länger oder fallender Qualität die Korrektheit (Zeitbezogen versetzt und über kapazitive und induktive Elemente in der Leitung deformierte Signale) von ca. 99% Bildqualität bis runter auf (geschätzt) 10% unter der das Bild vollständig zusammenbricht. Im Zwischenbereich ist immer ein Bild sichtbar. Allerdings mit steigender Wahrscheinlichkeit von Farbverfälschungen, Bildrauschen, fallenden Kontrast- und Helligkeitswerten.

Digitales Signal:
Die Korrektheit der Daten des Bildsignals leiden auch hier linear/quadratisch mit der Länge des Kabels und umgekehrt proportional zu dessen Qualität. Allerdings fällt hier nur die Flankensteilheit des Signals sowie dessen Vmax. (Im schlimmsten Fall wird aus einer Rechteck-Spannung eine Wellenform.) Da bei der digitalen Übertragung aber nur wichtig ist, einen gewissen Spannungspegel zu überschreiten und diesen eine gewisse Zeit zu halten, fällt die Verformung des Digital-Signals hinter dem Empfangs-Demodulator nur in zwei Fällen auf:
Die Vmax des empfangenen Signals erwischt gerade noch so den notwendigen Spannungspegel, tut dies jedoch nicht immer. Bildstörungen (aka Bildfehler und Artefakte) sind da tatsächlich die Folge. Dieser Zustand wird nur selten erreicht, da die "Toleranzbreite" für diese Art des Betriebes sehr schmal ist. Drüber wird IMMER ein vollständiges Bild zu sehen sein, drunter IMMER nichts.
Bei schlechter Abschirmung kann sich der "Toleranzbereich" des "Kippsignals" zwar verbreitern, insgesamt bleibt aber folgendes festzuhalten:

1. Wer für 2m HDMI-Kabel mehr als 10 Euro ausgibt, hat von der Materie keinen Plan (die Verkäufer übrigens auch nicht...)
2. Wer meint, dass durch bessere Kabel die Bildqualität steigt, hat ebenfalls eher ein Problem mit seiner Wahrnehmung.
3. HDMI-Kabel sind nur bis zu einer bestimmten Länge spezifiziert. Das aus gutem Grund. Ab 5 Metern sollte man von Fall zu fall testen, ob ein günstiges Kabel noch ausreicht. Ab 10 Metern ist in jedem Fall hochwertiges Kabel empfehlenswert. Günstiges Material stößt hier i.d.R. regelmäßig an seine Grenzen.
4. Das Umfeld entscheidet über die benötigte Qualität. Ein Kabel, dass in einem Schlafzimmer verlegt ist, und dort funktioniert, kann in einer Wohnstube hinter dem "Communication Center" durchaus zum Problem werden, wenn Dutzende Störstrahlungen auf das Kabel einwirken (WLAN, DECT, Bluetooth, PC-Störstrahlungen, ...)

Jo.

Zum Thema Kabel und Rechenkunst sag ich mal nix. Der Monitor zieht 6.5 W. Ergo wären DREI USB 2.0-Stecker per "Doppel-Y-Kabel" notwendig. Und nein, die 900 mA von USB 3.0 ergeben 4.5W - auch DAS reicht nicht für eine normkonforme Nutzung mit nur einem Anschluss. Sollte Samsung USB3-Anschlüsse für den Strombezug nutzen, würde das genannte Verfahren mit dem Y-Kabel also funktionieren. Per USB 2.0 überschreiten sie aber definitiv die Spezifikationen. Falls das MoBo wegbruzzelt, kann der Hersteller also die Gewährleistung verweigern. -> Obacht.

Regards, Bigfoot29
 
Bigfoot29. Hatten wir zwar alles schon, aber nun weiß es qbits wohl auch.
Anzumerken. Es sind die Steckverbindungen und Lötstellen, die bei einem guten Kabel sauber verarbeitet und geschirmt sein sollte. Außerdem sollte man Massenschleifen verhindern.
Kommt auch mal vor.
Es ist nicht nur die Länge des Kabels.
Es gibt tatsächlich auch solch grottige Kabel die im 2 Meterbereich schon grenzwertig sind.
 
blond schrieb:
gar nichts, da der monitor weiterhin per hdmi angesteuert wird und nur der strom via usb kommt.

Woher hast du das? TPU behauptet, beides kommt über USB, Strom und Daten.

Außerdem ist in dem Bild ein Poster mit groß "Only USB Line".


Tulol schrieb:
Da findet eine digitale Übertragung statt. Entweder das Signal ist zu schwach und es gibt gar kein Bild(zB Kabel zu lang), oder es gibt ein Bild(alles In Ordnung).

Digitale Übertragung ist nicht perfekt.
Ich meine, überleg mal was dabei passiert. Entweder werden Signale direkt versandt über ein ansonsten passives Medium, oder es wird ein Trägersignal moduliert. Beides im Grunde analog, wie "früher" auch. Was man bei digitaler Verarbeitung nur zusätzlich macht, ist eben, die Signale, die versendet und empfangen werden, auf zeit- und wertdiskrete Zustände (Symbole) zu setzen. Da kann durchaus ne Menge schiefgehen.

Siehs mal so: Deine Internetverbindung ist auch digital. Das Modem moduliert diskrete Zustände auf das analoge Netz-Grundsignal.
Würdest du da auch sagen, dass du entweder perfekte Übertragung hast oder eben gar keine? Nein, denn du hast immer ein paar Fehler durch Bits, die kippen, und manchmal eben mehr oder weniger.

Da die Daten bei Übertragung von Rechner zu Rechner aber im Allgemeinen unbedingt stimmen müssen, wird mit CRC geprüft, ob das überhaupt sein kann, was man da erhalten hat. Wenn nicht, gibts kein ACK, und die Daten werden nochmal gesendet.

Bei Bild- und Tondaten, d.h. bei isochroner Übertragung, kannst du aber normalerweise nicht warten. Ein 10ms zu spätes Signal ist so gut oder schlecht wie gar kein Signal, meist sogar schlechter. Dass mein Mauszeiger vor 10ms noch ganz woanders war, ist mir völlig egal. Daher nimmt der Monitor die Daten, die er bekommt, als wahr an und setzt sie in Bild um, mit oder ohne Fehler.

Bigfoot29 schrieb:
Bildfehler und Artefakte können im Grenzbereich sehr wohl auftreten.
Recht hat er.

Bigfoot29 schrieb:
Wer für 2m HDMI-Kabel mehr als 10 Euro ausgibt, hat von der Materie keinen Plan (die Verkäufer übrigens auch nicht...)

Oder die haben gerade viel Ahnung, möchten aber Geld verdienen :D
 
Zuletzt bearbeitet:
blond schrieb:
gar nichts, da der monitor weiterhin per hdmi angesteuert wird und nur der strom via usb kommt.
Woher hast du die Infos? Die Fotos die ich von dem Gerät gefunden haben, zeigen nur nen USB Eingang und Audiobuchsen. Dachte nämlich zunächst auch, dass das Bildkabel nur fürs Foto versteckt war...

Mangelnde Bildqualität (bei stark dynamischen Bildinhalten) durch Komprimierung kommt da auch noch dazu, zusätzlich zur runtergedrosselten Hintergrundbeleuchtung. Zumindest legen Tests größerer USB-Monitore nahe, dass die Technologie nur für kleine Auflösungen perfekt funktioniert.

Grüße,
.fF
 
Zurück
Oben