Kabel/Coax Vodafone: Ganz Berlin kann 1 Gbit/s über Kabel bestellen

Probiers doch aus, stell eine niedrigere Auflösung an deinem Monitor ein und schau, ob du den Qualitätsunterschied siehst. Spoiler: Wirst Du.

Interpoliert sieht natürlich immer schlechter aus.
 
Hayda Ministral schrieb:
Das ist offensichtlich eine Pseudo-Frage. In Wahrheit brennst Du darauf, uns zu erklären wieviel Bandbreite wir zu benötigen haben.
@TheTrapper @new Account()
Nein so war das absolut nicht gemeint. Auch nicht als Vorwurf. Mich interessieren nur die Pro-Argumente aus der Sicht von euch zum Beispiel. Kritisieren würde ich auf keinen Fall jemand nur weil er ordentlich Bandbreite hat. Hier besitzt jeder seine persönliche Legitimität.
Wie gesagt, ich hab auch kein Bock mir von der DUH was diktieren zu lassen :D Oder Kevin Kühnert, die alte Rampensau xD
 
  • Gefällt mir
Reaktionen: Nobsi
MaverickM schrieb:
Probiers doch aus, stell eine niedrigere Auflösung an deinem Monitor ein und schau, ob du den Qualitätsunterschied siehst. Spoiler: Wirst Du.
Ich habe weder 4m Platz (hinter meinem Monitor) noch habe ich einen 720p TV in der Größe meines 4k Monitors.

Selbst, wenn man ein Schachbrett-Muster hat und eine der ungünstigsten Interpolationen, lineare Interpolation anwendet, siehst du selbst bei 60" und 4m keinen Unterschied:
Laut den üblichen Abstandstabellen siehst du selbst mit 4m mit FHD noch keine Besserung gegenüber 720p. D.h. du kannst keine kleineren Distanzen als ein 720p Pixel ausmachen. Führt man nun eine lineare Interpolation auf Schachbrettmuster durch (Worst Case Szenario), Entsteht zwischen den Pixeln ein grauer Bereich mit der Breite von 2/3 des 720p Pixels. Für dich ist es aber als wäre das 2/3 Pixel gar nicht da, da du nicht so genau sehen kannst.

EDIT: Da wir im 2D Fall sind (Bilineare Interpolation) und dadurch Schrägen haben, sind es sogar weniger als 0.94% des 720p Pixels - (2*sqrt(2))/3). Immer noch kleiner als 1.‬

Würde das nicht schon reichen, ist der graue Bereich natürlich nicht einheitlich grau, sondern wird weißer zum Mittelpunkt des weißen Pixels und umgekehrt. Bei der kubischen ist der Effekt der Interpolation natürlich entsprechend verstärkt.

Wo ist mein Denkfehler?

MaverickM schrieb:
Interpoliert sieht natürlich immer schlechter aus.
Falsch. Im Falle der Nearest-Neighbour Interpolation sieht das Ergebnis genau gleich gut aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: brainDotExe
MaverickM schrieb:
Probiers doch aus, stell eine niedrigere Auflösung an deinem Monitor ein und schau, ob du den Qualitätsunterschied siehst. Spoiler: Wirst Du.

Legt hier Dein Denkfehler? Glaubst Du wirklich und ernsthaft, dass Dein Monitor das Bild interpoliert?
Tut er nicht. Er skaliert nur und dass das grauenhaft aussieht wird wohl kaum jemand bezweifeln. Gute Interpolation findest Du in aktuellen 4K-Fernsehern.

Interpolation von Bildinhalten ist mittlerweile auch eine WIssenschaft für sich und die Ergebnisse sehen wirklich sehr gut aus. Falls Du mal Lust hast das zu überprüfen: Schnapp Dir eine gute DVD (bezogen auf die Bildqualität, der Inhalt lenkt eher ab). Ich habe hier Terminator II als Referenz und ich kann Dir versichern, das 720p Bild sieht hochskaliert auf FullHD gut aus und sieht hochskaliert auf 4K (Samsung TV von 2015) immer noch gut aus.

Wenn man natürlich Pixelmatsch (zum Beispiel Streamingmaterial von Pro7RTLSat1Vox) als Ausgangsmaterial nimmt kann man nicht erwarten dass unabhängig von der Auflösung irgendetwas anderes als Pixelmatch am Ende heraus kommt.
 
  • Gefällt mir
Reaktionen: brainDotExe
Hayda Ministral schrieb:
Glaubst Du wirklich und ernsthaft, dass Dein Monitor das Bild interpoliert?
Tut er nicht. Er skaliert nur und dass das grauenhaft aussieht wird wohl kaum jemand bezweifeln.
Was passiert denn bei einer Skalierung ohne Interpolation?
Interpolation geht afaik mit Skalierung (genauer: Vergrößerung/Upsampling, ansonsten würde eine Glättung verwendet werden) immer einher.

Aber ja, er hatte da einen Denkfehler: wenn ich Unschärfe auf meinem 4k Monitor mit 720p Inhalt sehe, wiederlegt oder belegt das nichts von dem was er behauptet hat.
 
Zuletzt bearbeitet:
MaverickM schrieb:
Der Punkt ist aber, dass man normalerweise so kodiert, dass man eben keine sichtbaren Artefakte hat, und bestenfalls nur bei einem A-B Vergleich Unterschiede sieht.
Es wird so kodiert, dass möglichst wenig Rechenzeit (Kosten) gebraucht wird, der Bandbreitenbedarf gering ist (Kosten für den Traffic auf Seiten des Streaminganbieters) und die Qualität für den Otto Normalverbraucher ausreicht.
Privat kann man beispielsweise mit x264 deutlich bessere Ergebnisse erzielen.
MaverickM schrieb:
Darum geht es doch gar nicht. Du kriegst Stand jetzt keine (oder kaum noch welche) Full-HD Geräte mehr zu kaufen (Außer Altbestand).
...
Und ein hochskaliertes 720p Bild auf einem 4k TV sieht immer schlecht aus, ganz egal ob der Sitzabstand 1,50m, 3m oder 4m ist.
Nur weil man ein 4K Gerät hat, muss nicht unbedingt 4K Content schauen.
Viele Deutsche haben einen Full HD Fernseher im Wohnzimmer stehen und schauen die Privaten in SD, weil Ihnen der Preis für HD+ zu groß ist.
Zum Thema 720p Upscaling haben meine Vorposter schon alles geschrieben, die negativen Effekte sind nicht sichtbar aufgrund des Sitzabstands.
MaverickM schrieb:
QoS ist kein Allheilmittel und funktioniert vor allem auf Consumer-Hardware so gut wie überhaupt nicht zufriedenstellend. Kann man getrost in die Marketingschublade stecken.
Spätestens wenn es um Homeoffice geht, sollte man nicht mehr von Consumer-Hardware reden. Hier sollte im Zweifelsfall von der IT des Arbeitgebers für eine entsprechende Lösung gesorgt werden.
Und die gibt es, mit QoS lässt sich einiges erreichen z.B. mit fest reservierter Bandbreite für gewisse Dienste.
 
  • Gefällt mir
Reaktionen: cru5h3r und Hayda Ministral
MaverickM schrieb:
Du kriegst Stand jetzt keine (oder kaum noch welche) Full-HD Geräte mehr zu kaufen (Außer Altbestand).

GH.png


Untitled 4.png

https://geizhals.de/?cat=tvlcd#gh_filterbox
(Selbst mit Erscheinungsjahr 2019 sind es immer noch fast 100 mehr Geräte als mit 4K)

Es ist ja nicht das ich einen Groll hege oder absichtlich irgendwas Suche, aber der Typ labert einfach durchgehend Schwachsinn daher.. Nimmt einfach kein Ende...
 
  • Gefällt mir
Reaktionen: Hayda Ministral
new Account() schrieb:
Ich habe weder 4m Platz (hinter meinem Monitor) noch habe ich einen 720p TV in der Größe meines 4k Monitors.

Brauchst Du auch nicht. Du musst theoretisch nur die gleiche Situation wie bei einem 4k Gerät bei entsprechender Entfernung erzeugen. Bei einem Monitor hast Du eine deutlich höhere Pixeldichte als bei einem TV. Das heißt du musst für die gleiche subjektive Schärfe beim TV deutlich weiter weg sein, sonst siehst du das Pixelmuster.

Ein gutes Beispiel ist Apple mit ihrer Retina Nomenklatur. Die nimmt nämlich nicht nur die Pixeldichte sondern auh den Seh-/Sitzabstand mit in die Rechnung auf.

new Account() schrieb:
Falsch. Im Falle der Nearest-Neighbour Interpolation sieht das Ergebnis genau gleich gut aus.

Auch bei Nearest-Neighbour hast Du einen sichtbaren Qualitätsverlust. Interpoliert ist interpoliert, besonders Schrift wird sehr unscharf. Kannst Du ja in jedem (besseren) Grafikprogramm selbst ausprobieren. Es bleibt letztendlich nur eine Annäherung. Wo sollen denn die mehr Informationen bspw. in einem Busch kommen!? Grüne Pampe bleibt grüne Pampe.

Interessant wird es, wenn AI ins Spiel kommt, die Upscaling Ergebnisse, die Google teils mit AI Algorithmen erzielt hat, sind durchaus beeindruckend.

brainDotExe schrieb:
Es wird so kodiert, dass möglichst wenig Rechenzeit (Kosten) gebraucht wird, der Bandbreitenbedarf gering ist (Kosten für den Traffic auf Seiten des Streaminganbieters) und die Qualität für den Otto Normalverbraucher ausreicht.

Du hast mich falsch verstanden. Der von dir zitierte Satz sollte das Ideal beschreiben. Dass die Streaming-Anbieter auf Kosten optimiert enkodieren, hatte ich ja bereits weiter oben geschrieben. Das ist aber nicht das Optimale Ziel bei einem Verlustbehafteten Codec.

brainDotExe schrieb:
Nur weil man ein 4K Gerät hat, muss nicht unbedingt 4K Content schauen.

Nein, muss man nicht. Man muss auch kein 1080p oder 720p schauen. Man muss auch gar nichts schauen. Das ist doch aber keine Argumentation!? 720p - vor allem über die stark komprimierten Streaming-Anbieter - auf einem 4k Gerät sieht man sofort. Selbst auf einem Full-HD Gerät ist die schlechtere Qualität deutlich zu sehen.

Würden wir von einem unkomprimierten oder deutlich besser kodiertem 720p Material sprechen, würde ich dir vielleicht sogar zustimmen, dass man den Unterschied bei einem guten Scaler schwer erkennt. Das ist aber weit von der Realität entfernt. Selbst bei schon fast optimalem Quellmaterial (Bspw. Animations- oder Zeichentrick-Filme, die sich deutlich einfacher hochskalieren lassen), sieht man einen deutlichen Schärfeverlust.

Wer das alles immer noch nicht glauben mag... Den lade ich gerne zu mir ein, der kann sich das Live an einem 4k TV ansehen.

brainDotExe schrieb:
Hier sollte im Zweifelsfall von der IT des Arbeitgebers für eine entsprechende Lösung gesorgt werden.

Das ist wohl eher Wunschtraum/Utopie. Die Beispiele die ich kenne, da wird nix vom Arbeitgeber gestellt.
 
MaverickM schrieb:
Auch bei Nearest-Neighbour hast Du einen sichtbaren Qualitätsverlust. Interpoliert ist interpoliert, besonders Schrift wird sehr unscharf.
Gar nicht. Beim NN kommt exakt das selbe Bild wieder raus, da jeder Pixel auf 9 gleichfarbige Pixel gemapped wird.


Bzgl. Des Experiments: Immer noch nicht genügend Platz, und außerdem wäre es Zeitverschwendung weil ich zuvor schon gezeigt habe, dass ich keinen Unterschied sehen werde.
 
Zuletzt bearbeitet:
brainDotExe schrieb:
Nur weil man ein 4K Gerät hat, muss nicht unbedingt 4K Content schauen.
Vor allem weil noch kaum 4K Material angeboten wird. Gut neuere Serien, der oder andere Film, aber schaue ich was älteres, oder nicht ganz Mainstream habe ich eh wieder nur FHD (1080p). Bei Spielen sieht es genauso aus.

Ich hatte vor Jahren die Wahl, was hole ich 4K oder 3D. Habe mich für 3D entschieden und bis heute nicht bereut. Weit mehr Material (inklusive Spiele, selbst uralt Spiele laufen mit Nvidia Vision) als ich es mit 4K gehabt hätte. Der Monitor läuft, und bis der erst mal Schrott ist, bis dahin kann sich vielleicht eher was getan haben am Markt.
 
Shadow Complex schrieb:
Er redet sehr offensichtlich von Fernsehern und du postest ein Bild von einem Monitorpreisvergleich?
Ich habe beides gepostet. Du hast sogar die beiden Fotos zitiert.
Der ebenso gepostete Link führt sogar zum TV-Vergleich. Also: Hä?!
Und was soll jetzt dieses "beliebtester Filter" Bild?!
(Wo ebenso mehr Full HD als UHD aufgelistet wird?!)
 
Ah du hast es echt nicht verstanden dass die ab 3840*2160 in die ab 1920*1080 mit eingehen. Es also nur 245 Full HD Modelle gibt.
 
Er versteht auch nicht, dass ich geschrieben habe "außer Lagerware"... Wenn man bspw. nach Modellen ab Baujahr 2019 sucht, kommen schon nur noch 75 Modelle mit Full-HD bei rum. Wieviele davon tatsächlich brauchbare Geräte sind, noch gar nicht rausgerechnet...

https://geizhals.de/?cat=tvlcd&xf=3...fcols=34&sort=filter34&bl1_id=100#productlist

Aber der gute Robert ist auf seinem blinden Feldzug gegen mich... Soll er ruhig, ich les den Kram ja eh nicht mehr. :D
 
Also ich bin mir ziemlich sicher, dass bei "ab 1920x1080" die 4K Geräte in der Anzahl enthalten sind. Es wären also nur 245 Full HD Geräte zu 940 4K Geräten, was die Aussage "es gibt kaum noch 1080p" eher unterstreicht.
 
Meine 6591 ist jetzt endlich angekommen.

Speedtest sieht für nen Samstagabend auch gut aus :)
 
  • Gefällt mir
Reaktionen: harryindaclub und Mahagonii
Das ist derzeit großes Kino, was da die Kabelnetz Betreiber machen. Tarife mit 1 Gbit Download mit DOCSIS 3.1 schalten, im Upload 50 Mbit mit DOCSIS 3.0. Bei DOCSIS 3.0 sind im Upload auf dem gesamten Kabel ca. 220 Mbit möglich, daher bereits 5 Kunden die diese tollen Gigabit Tarife haben über buchen theoretisch den Anschluss. Bei mir hängen 27 Kunden (das sind die MAC Adressen die ich sehen konnte) am Cluster, da sind min. 10 Kunden mit 1 Gbit/50 Mbit dabei, dank Homeoffice und Co. kann ich froh sein wenn ich mal 1-2 Mbit bekomme. Das Problem ist dass es extrem schwankt, mal bekomme ich die bei mir gebuchten 20 Mbit Up durch die Leitung, 5 min. später gehen nur noch 1 Mbit.

Alles auf dem Papier schön, aber solange Koax Anschlüsse um ein vielfaches der gesamten Bandbreite überbucht werden, kann man froh sein wenn man überhaupt was bekommt.
 
Das ist genau der Grund warum ich weg von Kabel bin, lieber stabile 100Mbit VDSL als dieser Kabelrotz.
 
  • Gefällt mir
Reaktionen: hantelfix
R.I.P.er schrieb:
1*1 der Funktechnik: Höhere Frequenz - Höhere Reichweite.
Wieso muss man dir als Experte so was noch erklären?
Sensation des Abends. Lebender Pisastudiebeweis.

Für meine und die benachbarte Straßen KD b. z. w Vodafone ist der einzige High speed Internetanbieter. Landeshauptstadt, Stadtrand.
Es gibt nur zwei Optionen:
1.DSL über Kupfer von Allierten; bis 16Mb.
2. Kabel.
Mein GMax Anschluss ist 24/7 bombenfest.
Es war amüsant manche Visionen hier zu lesen, wie z.B. den Hauptanschluss über LTE zu realisieren.
Bei uns gibt es nicht mal LTE Mindestabdeckung in Gebäuden. Wer keine mobile Tarifen mit WiFi Calling hat, ist arm unterwegs. Jedesmal zuhause manuell GSM erzwingen oder auf der Terrasse(Sommer) b. z. w auf dem Dachgeschoss(Winter) die Metastasen der Übertragungstechnik zu finden. . Sonst halber Balken mit Parkinson. Der Ausbau wird aber jedesmal vor Kommunalwahlen versprochen.
Ich glaube Elon Musik mit seinem WebSpace Projekt schafft zu erst kabellos in meinem Faraday Käfig rein zu kommen.
Die Verbindung mit der Zivilisation über coax für 999 €(HÜP Einrichtung) ist bereit vorhanden.
Nach vier Jahren high speed und zwölf Steinzeit davor, meine beste Investition

Vor Corona oft beruflich unterwegs. Besuchte Länder: USA, Mexiko, Brasilien, Russland, Portugal, Österreich, Rumänien, Slowakei, Tschechei, Südafrika.
Privat den Rest gesehen.

Die mobile Konnektivität ist nur zuhause beispiellos.
Deshalb alle Ausbau Initiativen Provider unabhängig sind herzlich willkommen und kein Grund zum Jammern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Holzkopf
Rache Klos schrieb:
Das ist derzeit großes Kino, was da die Kabelnetz Betreiber machen. Tarife mit 1 Gbit Download mit DOCSIS 3.1 schalten, im Upload 50 Mbit mit DOCSIS 3.0. Bei DOCSIS 3.0 sind im Upload auf dem gesamten Kabel ca. 220 Mbit möglich, daher bereits 5 Kunden die diese tollen Gigabit Tarife haben über buchen theoretisch den Anschluss. Bei mir hängen 27 Kunden (das sind die MAC Adressen die ich sehen konnte) am Cluster, da sind min. 10 Kunden mit 1 Gbit/50 Mbit dabei, dank Homeoffice und Co. kann ich froh sein wenn ich mal 1-2 Mbit bekomme. Das Problem ist dass es extrem schwankt, mal bekomme ich die bei mir gebuchten 20 Mbit Up durch die Leitung, 5 min. später gehen nur noch 1 Mbit.

Alles auf dem Papier schön, aber solange Koax Anschlüsse um ein vielfaches der gesamten Bandbreite überbucht werden, kann man froh sein wenn man überhaupt was bekommt.
Es wird momentan schon DOCSIS3.1 im Upload ausgerollt, parallel zu DOCSIS3.0

Siehe entsprechende Foren.

Wenn endlich Mal alle DOCSIS3.0 Geräte aus dem Netz sind, auch Kunden-eigene, dann fliegt DOCSIS3.0 komplett raus und es gibt mehr Gesamtbandbreite für DOCSIS3.1

Das wird aber sehr lange dauern, da die Routerfreiheit in diesem Fall leider kein Segen, sondern eher ein Fluch ist und viele Kunden ihre alten eigenen Fritzboxen 6490 behalten wollen.

Das wird noch viel Stress geben
 
Zurück
Oben