Genau, das hast du dir zu einfach vorgestellt.
derNeueMann08 schrieb:
Ich verstehe halt nur nicht wieso ich Fernsehen und YouTube über WLan per Internet gucken kann, ich aber keine WLan-Verbindung zwischen einem Tower-PC und seinem Bildschirm einrichten kann...
Weil das ganz andere Arten der Daten sind, die übertragen werden.
Das was an Internet, Youtube, Netflix und co in deinen Fernseher rein geht, sind "Daten"-Daten. Darin enthaltendes Video sind hoch komprimierte Daten.
Ein komprimiertes Video zu erzeugen kostet einiges an Rechenleistung (was für heutige und speziell dafür geschaffene Hardware Encoder keine Hürde ist, aber trotzdem), und es kostet Rechenleistung ein komprimiertes Video wieder zu entpacken und daraus ein für uns Menschen sichtbares Bild zu erzeugen. Das macht in dem Fall dein Fernseher, und der hat dafür entpsrechende Decoderhardware verbaut.
Videosignale die deine Grafikkarte ausgibt, sind unkomprimierte Daten und brauchen eine ganz andere Bandbreite.
Also gaaaaaaaaaaaaaaaaanz vereinfacht ausgedrückt
Das was in deinen Fernseher an Information rein geht ist:
"jetzt kommen 20x rote Pixel"
Der Decoder verarbeitet die Information und weiß dann er muss 20 rote Pixel darstellen. Hinten an der Grafikkarte kommt raus:
"rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, rotes Pixel, "
Also fertige Videosignale Displayport/HDMI brauchen viel höhere Datenraten als das was vorher an Daten-Daten in deinen PC, in deinen Fernseher rein fließen.
Dafür ist WLAN schlicht nicht gedacht.
Und die erwähnten Miracast, Chromecast etc. machen aber genau das was du dir so einfach vorstellst. Bild übers WLAN schicken. Also geben gibts das schon.
Aber hier muss dann das von der Grafikkarte errechnete Bild wiederum von Software in einen komprimierten Videostrom verpackt werden, das wird übers WLAN verschickt, und ein Empfänger braucht wieder einen Decoder um das zu verpacken.
Auch das geht zwar, aber hier kommen die genannten Latenzen ins Spiel. Also Verarbeitungszeit. Weil dieses erneute einpacken und wieder auspacken kostet Zeit. Und Rechenleistung. und die Rechenleistung wird dann nicht mehr von dafür hoch spezialisierten Videoencodern gemacht, sondern das muss deine CPU machen. Auch das macht es nicht schneller.
Und diese Latenzen, diese Verarbeitungszeit, die macht wenig aus, wen man darüber wiederum etwas lineares schickt. Also sprich ein Videstream darüber angucken macht wenig aus, da ists egal, ob das schicken über WLAN-Video, ne Sekunde länger dauert als an den per Kabel angeschlossenen Monitor.
Bei statischen Bildern, Office Darstellung z.b. oder "einfachem" Surfen im Internet kann man auch noch damit leben dass ne spürbare Zeit vergeht zwischen deiner Mauseingabe fürs klicken, scrollen etc. und dass du das Ergebnis siehst.
Aber damit kann man nicht ernsthaft spielen. Oder anders ausgedrückt: du sagst dich nervt schon, dass dein Laptop zu langsam wird für deine Spiele (welcher exakte Laptop ist es denn?) und es sich stockend anfühlt... Rechne damit, dass bei einer Bildsignal Übertragung über WLAN alles noch viel zäher wird, egal wieviel Rechneleistung der Tower hat und wie schnell der das eigentliche Spiel berechnen kann. Die Zähigkeit kommt dann über die Latenzen dieser Video über WLAN Geschichten.