Dolby Vision und HDR10 bei 4K - geht das mit einer GT1030?

Registriert
Apr. 2019
Beiträge
447
Hallo allerseits,

meine Frau ist neidisch auf mein neuen Sony KD-49XF9005, den ich mir als Monitorersatz geholt habe. Nun will sie sich ebenfalls einen zulegen. Ich weiß, ich weiß Perlen vor die Säue und so, vor allem wenn man bedenkt daß sie noch einen C2D PC hat. Aber versuche mal bei einer Frau etwas mit Logik auszureden - viel Spaß.:streiten:

Wie dem auch sei, wenn 4K Diplay da ist, soll auch eine LowEnd GraKa rein, um dann auch alle Optionen nutzen zu können. Doch reicht dafür eine GT1030? Sowohl Diplay und (zukünftiger) AVR unterstützen Dolby Vision und HDR10, das Panel hat echte 10Bit ohne FRC. Wir nutzen sowohl Netflix wie auch Prime.

Ich habe den etwas älteren Test von Golem.de schon gelesen, und daß es dort heißt die GT1030 könne das nicht. Jedoch ist der Test über zwei Jahre alt und es hieß es wäre ein Treiberproblem.

Daher hier die Frage ob die GT1030 mit aktuellen Treiber 4K HDR/Dolby Vision Videos wiedergeben kann von Netflix/Prime aber auch bezüglich Offline Videos vom File-Server. Das meiste dort zwar nur in 1080p, aber hier und da haben wir auch schon mal eine 2160p Datei. BS ist und bleibt vorerst Win7 (aus zwingenden Gründen, die hiermit nichts zu tun haben und auch nicht diskutiert werden sollen).
 
Digi Quichotte schrieb:
BS ist und bleibt vorerst Win7 (aus zwingenden Gründen, die hiermit nichts zu tun haben und auch nicht diskutiert werden sollen).

Dann hast Du Dir die Frage selber beantwortet. Mit keiner GPU geht es. Und die 3GB 1030 können es auch unter Win 10 nicht.
 
  • Gefällt mir
Reaktionen: TorgardGraufell
Das ist so mal komplett falsch, sowohl DV als auch HDR sehen auf diesen TV fantastischn aus. Im verlinkten Beitrag ging es um eine schelchte Darstellung vom AppleTV.
 
4K und HDR10 lässt sich aus der Decode-Matrix ablesen. Wobei 4K explizit nur beim Encode erwähnt wird, beim Decode scheint es Nvidia nicht auf die Auflösung runterzubrechen.

https://developer.nvidia.com/video-encode-decode-gpu-support-matrix

Ich würde ja als Alternative zu einer neuen Graka immer ein Nvidia Shield als Mediaplayer in die Überlegung einbeziehen. Bekommt man für ähnliches Geld (im Angebot) und kann den ganzen Kram.
 
Also mit meiner GTX980ti konnte ich (bis sie kaputt ging) auch unter Win7 HDR bei Games auswählen.Egal, man kann zur Not auch zwei BS parallel installieren, das ist nun wirklich kein Problem. Allerdings gibt es unter Win7 Möglichkeiten und Wege HDR wiederzugeben (wenn auch umständlich/aufwendig/kompliziert). Bei Netflix ist es eher ein Kopierschutzproblem was man so liest.

@Phoenix3000 : Ich kann deinen Einwand, ganz und gar nicht nachvollziehen. Hab im WZ den 75XE9005, im AZ den 49XF9005. bei beiden ist die Bildqualität allgemein überragend. Klar, bei 75" gibt es so manches Gerät was besser ist, aber die sind allesamt teurer, wenn nicht sogar viel teurer gewesen. Beim 49" XF9005 hingegen kann man sagen daß es einfach nur Referenz ist. Es gibt in dieser Größe (max. 49") nichts besseres. Hätte es was besseres gegeben, hätte ich es gern gekauft.

Ich nutze Netflix sowohl über die TV-App wie auch über PC/Firefox. Groß einen Unterschied habe ich nicht gemerkt, ich habe da aber auch nicht wirklich haargenau verglichen. Katastrophal ist da rein gar nichts - atemberaubend ist meine persönliche Erfahrung.

@HisN: Kommt nicht in Frage weil es sich in erster Linie um einen Office-PC handelt. Win7 ist halt deshalb notwendig, weil sie noch Datenzugriff auf eine Spezial Firmen-Datenbanklösung (unter VB6 programmiert) benötigt. Und die läuft nicht unter Win10. Da sich aber die Firma in der Auflösung befindet kommt eine Portierung natürlich nicht mehr in Frage. Wäre zu aufwendig. Weswegen sie solch eine Bildqualität möchte ist weil sie hobbymäßig extrem viel photographiert, und ihre Bilder auf dem FALD-TV natürlich einmalig gut aussehen. Um Welten besser als an ihrem 27" Dell Monitor.
 
Wie ist es denn so an 49" zu Arbeiten, und mit welchem Abstand zum TV/Monitor nutzt ihr den 49XF9005?

Ich überlege ebenfalls nen TV auch als Monitor zu nutzen.
Habe da eher 40" oder max. 43" Zoll bisher geplant, da 49" mir zu groß vorkommt.
Aber der 49XF9005 bzw 49XG9005 sind nach meinen Recherchen der kleinste FALD TV mit guter Qualität den man bekommen kann.
 
Erstmal der XG9005 hat nur 8Bit+FRC, der Vorgänger XF9005 hat echte 10Bit. Also solange es denn noch gibt würde ich dazu raten.

Ich persönlich nutze den vorrangig zum Gaming. Mein persönliches Fazit: Einfach überwältigend. Kommt aber natürlich auf den Spielertyp und Spielgenre an.

Zum arbeiten im Sinne von Office-Anwendungen kann man keine klare Empfehlung abgeben. Es kommt wirklich in erster Linie auf das Sehvermögen des Anwenders, in zweiter Linie für welche Art von Anwendung er vorgesehen ist.

Erster Test den manch sollte: DPI-Zahl ist fast gleich mit einem 24" Monitor in 1080p. Schaue Dir die Schriftgröße bei so einem Monitor an. Ich persönlich kann damit nicht arbeiten (Lesebrille da altersbedingte Weitsichtigkeit). Wenn aber noch jung und/oder Adleraugen hat, dann ist 49" bei 4K in der nativen Auflösung nutzbar.

Wirklich die absolute Empfehlung ist er für Anwendungen bei dem man vorher sowieso 3-4 Monitore brauchte. Wenn es z.B. um Tabellen mit sehr vielen Spalten geht, Kontroll-Monitore u.ä. Als reiner TV hat man gewiße Nachteile gegenüber 40+" Monitore, die dann bis zu 4 Quellen (PCs) gleichzeitig darstellen können. Wer in Bereichen DTP, Verlagswesen, Publishing u.ä. arbeitet also allgemein in Bereichen wo es primär auf höchst akurate Schriftdarstellung ankommt, für den ist ein TV generell nichts. TVs verwenden meist Streifenmasken, die eher für Bewegtbilder optimiert werden, während Monitore Lochmasken besitzen die besser für gestochen scharfe Darstellung geeignet sind.

Ganz allgemein: Wenn es darum geht möglichst viele Informationen auf einen Bildschirm zu bringen, dann ist ein hochwertiger TV absolut eine Option. Wenn es in erster Linie um Schriftqualität geht eher nicht. Für (nicht-professionelle) Bild- und Video Bearbeitung ist er natürlich auch bestens geeignet. Denn die einzige Alternative für ein großes Display hierbei ist letzen Endes ein noch größeres Display.

Allerdings, und das sollte nicht vergessen werden, kann man 49" bei 1m Sitzabstand auch als absolut grenzwertig sehen. Ich für meinen Teil hab am ersten Tag Kopfschmerzen bekommen, mir wurde am Schluß wirklich Speiübel. Aber man gewöhnt sich sehr schnell dran (ich zumindest), und schon nach 1 Woche kann man es nicht mehr verstehen wie man all die Jahre vorher ohne so ein Display überleben konnte. Naja zumindest in Sachen Gaming.😁

Nachtrag: In diesem Abstand ist das Display so groß, daß ein Großteil des Diplays außerhalb des Schärfebereichs liegt. Wenn man also z.B. das Win-Startmenü anklickt, dann muß man dafür nicht nur den Blick, sondern auch den Kopf wenden. Allerdings hat man mit zwei Monitore nebeneinander das selbe Problem. Wirklich anstrengend wirkt sich das in der Höhe aus. Auf dem Standfuß ist das Display ca. 7cm über der Tischplatte. Ist mir persönlich schon zu hoch. Das ist aber auch abhängig von Tischhöhe, Körpergröße, Sitzposition und Sitzhaltung. Eine Wand/Tischhalterung (am besten mit Höhenverstellung) sollte man trotzdem sicherheitshalber gleich mit einplanen.
 
Zuletzt bearbeitet:
Danke für die schnelle Antwort.

Woher hast du die Info das der XG9005 nur 8bit+FRC hat? Von www.displayspecifications.com? Da habe ich schon mehrfach falsche Infos gelesen, und würde mich nicht 100% darauf verlassen.

Ansonsten ist gerade die Höhe bei den größeren Display auch das was ich als problematisch ansehe, auch wenn er an eine flexible Halterung kommen würde und bis zur Tischkante abgesenkt werden könnte.

Geplanter Einsatz wäre zu Hause im PC/Arbeitszimmer. Gelegentlich mal Home Office (dann meißtens Programmieren oder CAD Design), sonst halt privat ein paar Office arbeiten, Surfen, gelegentlich mal spielen, und Filme/Serien.
 
@Execut3r: Wie alt bist Du, bzw wie gut sind deine Augen? Wenn 1080p bei 24" für Dich kein Problem sind, dann wirst Du viel Freude mit so einem Display haben. Bei Filme und Serien, darf man den Sony 49" ruhig als Referenz ansehen. Es gibt wie gesagt nichts besseres in dieser Größe.

Bei normalen Office-Anwendungen lernt man umzudenken. Man benutzt dann Anwendungsfenster, die nie maximiert werden und auch nicht ganz bis zum oberen Rand gehen, so daß sie komplett im zentralen Sichtbereich sind. Und dann bleibt oft 75% des Desktopbereichs leer. Hat aber in der Ansicht trotzdem mehr Inhalt (in Zeilen gemessen) als bei einem 27" Monitor. Ich für meinen Teil mußte die DPI-Skallierung auf 120% stellen damit die Schrift gut lesbar wird. Aber selbst dann hat man so viel Desktop-Fläche zur Verfügung - man weiß erst Mal gar nicht was man damit machen soll. Ist am Anfang extrem verwirrend und auch extrem gewöhnungsbedürftig. Mit 2-3h daran arbeiten, kann/sollte man da noch Urteil treffen. Die Umgewöhnung dauert Tage bis Wochen. Aber irgendwann will man es nie mehr missen.

Es kommt eben doch in erster Linie auf die Größe an.
 
Zu Hause habe ich momentan noch nen alten 27" FullHD stehen, da ist mir die Darstellung eher zu groß. Auf der Arbeit 2x 23" FullHD, ist auch kein Problem, könnte auch ruhig noch etwas kleiner sein, wenn hoch aufgelöst.

40" 4k hat ja eine ein bisschen höhere Pixeldichte als 27" WQHD, 49" 4k dagegen ein bischen weniger als 24" FullHD.
Von daher denke ich 49" wäre ohne Skalierung kein Problem, 40" evtl. auch noch möglich.

Bezüglich normalen Arbeiten mit 4k und großen Monitor/TV hatte ich auch überlegt den Bildschrirm z.B. mit Display Fusion zu splitten. Beispielsweise mittig 2 virtuelle FullHD Monitore nebeneinander, und oben und unten kleinere Monitore.
Im zentralen Bereich könnte ich dann mehr oder weniger so arbeiten wie jetzt auf der Arbeit mit den 2 realen Monitoren, und hätte oben und unten noch Bereiche, wo man bei Bedarf noch Fenster drinne laufen lassen kann.

Prinzipiell sowas, aber dann eben in 4k als Grundauflösung und nicht FullHD:
monitor_split_fullhd_example.png



Und um mal wieder zum Topic zurück zu kommen:
Netflix 4k und Dolby Vision hat am PC ein paar Anforderungen die nicht unbedingt was mit der Leistungsfähigkeit der Hardware zu tun haben.

Zum Beispiel gehen die "größeren" integrierten GPUs von Intel, bei Nvidia dagegen wohl erst ab GTX 1xxx mit >= 3GB Ram, also die kleinste wäre eine GTX 1050 mit 4GB.
Siehe auch hier: https://www.heise.de/ct/artikel/Netflix-in-Ultra-HD-am-PC-schauen-4405253.html
Ergänzung ()

Ach ja, Windows 10 ist glaube ich auch noch Vorraussetzung.
Wenn Win7 noch wegen der Datenbank Kompatibilität nutzen muss, wäre es ja auch eine Möglichkeit das in eine VM zu verlagern, und Win10 als Hauptsystem.
 
Zuletzt bearbeitet:
Also der zweite Sony 49XF9005 für meine Frau ist bestellt worden. Das GraKa Problem wird also akuter. Aber selbst 75€ für eine GT1030 empfinde ich mittlerweile als fraglich. Wie gesagt der Office PC meiner Frau ist noch ein C2D (E8400). Ich glaube da Geld rein zu stecken bringt nix.

Die Alternative ist hierbei lieber 200-300€ in die Hand zu nehmen und gleich MB+CPU+RAM zu tauschen. Zu meiner großer Überraschung mußte ich aber leider feststellen, daß AMD nicht in Frage kommt. Es scheitert wie (fast) immer bei der Überlegung ein AMD-System aufzubauen am MB.

Nach wie vor sehen wohl MB-Hersteller AMD scheinbar als Billig-Lösung. Allein die Filter "micro-ATX" "Intel LAN Chip" führen dazu daß kein MB übrig bleibt (abgesehen von einem einzigen viel zu teurem X570MB und einem X470 Server MB). Ein ATX-MB kommt aber leider nicht in Frage.

Schade, denn so ein 3200G wäre mehr als ausreichend in Sachen CPU-Leistung. OK i3-9100 ist deutlich schneller, aber ich hätte gerne mal auch mal AMD ausprobiert (nun ja zumindest solange es der Rechner meiner Frau ist :evillol:).
 
Und warum unbedingt ein Intel NIC? Die Realtek NICs sind nicht schlechter und machen millionenfach gut ihren Job. Selbst in Enterprise Notebooks für +2500€ findet man sie.
 
Aus dem selben Grund wieso ein VW oder gar ein Fiat kein Auto ist, nur weil es 4 Räder hat. ;)

Ich bin gewiß kein Intel Fan. Nur leider gibt es 3Com nicht mehr. Intel ist wenn man auf 3Com verzichten muß das geringste Übel.

Abgesehen davon ist Realtek als Low-End Anbieter generell auf meiner persönlichen Ignore-Liste. Egal welches Produkt. Genau wie Fiat oder VW. Der einzige Grund warum so ein Mist mittlerweile auf jedem MB verbaut ist, ist der Preis. Und weil es immer weniger User gibt die eine Ahnung von der Hardware haben, hat sich dieser Mist durchgesetzt. Früher konnte man noch ein MB kaufen mit einem anständigen Soundchip - nein nicht von Creative (auch wenn das dann trotzdem besser ist als Realtek) - nein von Yamaha. Und einem anständigen LAN-Chip - nicht von Intel, sondern 3Com. Heute kriegst Du weit und breit kein einziges vernünftiges MB mehr, egal welcher Hersteller, egal welche Plattform, egal ob Intel, AMD, 1151/AM4/X299/Xeon/TR4 alles nur noch hoffnungslos überbewerteter Schrott. Hauptsache OC und BlinBling, und dann nur um ein paar Cents zu sparen bei Chips zu sparen (weil ja der heutige Gamer eh kA davon hat) und Billig-Schrott von Realtek, Asmedia und Co verbauen. Und alle renommierten Hardware Hersteller wie IBM, wie Yamaha, wie zahllose andere ziehen sich vom PC-Markt zurück weil ihre Qualität preislich nicht mithalten kann und der Kunde sie nicht zu schätzen weiß. Oder gehen in einer LowEnd-Welt unter, wie 3Com, und gehen pleite oder werden aufgekauft.

Ist aber auch egal. Akzeptiere es einfach als persönliche Präferenz.
 
Bisschen viel Info. Es geht hier um einen Nic. Was Du von Intel auf Konsumer Boards findest ist nicht besser oder schlechter, als das von Realtek. In gewissen Maße galt das mal vor 10 Jahren oder noch weiter zurück. Aber nicht mehr heute, bei den Nics. Aber wenn Du die Welt so siehst, dann bleibt nur Intel als Plattform übrig.
 
Jaein - das Problem ist hier die Kombi mit mikro-ATX. ATX AM4 MBs gibt es reichlich auch mit Intel-LAN-Chip. Auch mini-ITX übrigens. Käme auch in Frage, aber da ist man schon bei 110€ fürs MB. Und dann wird die Sache, auch nur mit 3200G verglichen, teurer als bei einem i3-9100 + günstigstes mikro-ATX MB.

Aber der PC meiner Frau soll mittelfristig in eine Schublade verbaut werden, und daher kommt ATX nicht in Frage.
 
Nun, was mit einer "harmlosen" GT1030 angefangen hat, ist zur einem völlig übertriebenem Upgrade ausgeartet. :D

1x Intel Core i5-9400, 6x 2.90GHz, boxed (BX80684I59400)
1x ASRock B360M Pro4 (90-MXB760-A0UAYZ)
2 x Crucial Ballistix Sport LT rot DIMM 8GB, DDR4-3000, CL15-16-16 (BLS8G4D30AESEK)
1x Corsair Force Series MP510 480GB, M.2 (CSSD-F480GBMP510)

Ich wollte eigentlich einen i3, aber der ist noch nicht lieferbar. Sie hatte zwar schon eine SSD, aber SATA SSDs habe ich schon zur Genüge verbaut, eine NVMe bisher nicht. Und bevor ich 2-3x 2TB Version für mein eigenes System kaufe, kann ich schon mal mit der kleinen "üben". Ich weiß völlig unnötig hoch 10, aber wenn ich schon ein Office-PC bauen muß, dann muß ja auch etwas Spaß für mich drin sein. Dafür muß sie dann aber auch mit mickrigen 16GB RAM auskommen.:evillol:

Werde berichten wie sich das Ganze mit ihrem Sony 49XF9005 macht, wenn es da und eingebaut ist.
 
Mal ne dumme Frage: kannst Du Dir wirklich vorstellen, dass Dein Weib Freude daran haben kann, den Sony mit 30 Bildern pro Sekunde (HDMI1.4 des Mainboards) zu betreiben? Oder kommt dann doch noch eine Grafikkarte in den Office-PC? Mit nem Ryzen 5-2400G oder 3400G wäre die überflüssig.

Ach ja: dass der 3.000er RAM auf dem B-Board möglicherweise nur mit 2.133 oder 2.400 MHz läuft, weißt Du?
 
Nun es ist wie bereits erwähnt ein reiner Office-PC. Im reinen 2D-Betrieb sollte es ausreichend sein. Ansonsten kann man immer noch über eine zusätzliche GraKa nachdenken. Der Sony wurde in erster Linie angeschafft um damit ihre Photos ansehen zu können. Da macht es kein Unterschied. Für HDMI 2.0 hätte es ein Z390 MB bedürft (ab ca. 180€). Das wäre dann wirklich der totale Overkill für einen Office-PC.

Zu dem Speicher: Da würden auch 2133 RAM mehr als ausreichend sein. Und CL15 bräuchte es auch nicht. Allerdings fällt der Preisunterschied bei der kleinen Menge nicht ins Gewicht. Ob jetzt 10-15€ mehr oder weniger spielt hier keine Rolle.

Ich möchte selbst auch meinen Rechner aufrüsten. Das einzige was ich bereits dafür habe (seit 2016 als die Preise unten waren), ist 64GB DDR4 2400er RAM. Der Aufpreis zu 3000er RAM war 2016 noch gewaltig, da hätte ich über 50% Aufschlag zahlen müssen. Mit dem 3000er RAM kann ich jetzt selber testen ob das einen fühlbaren Unterschied ausmacht in Games. Sofern ich endlich etwas finde (MB), das meinen Ansprüchen gerecht wird.
 
Zurück
Oben