News Denon: Neue AV-Receiver bieten 8K60 und 4K120 über HDMI 2.1

Daniel# schrieb:
Ich bin nicht der einzige der Dolby Vision für das bessere Format hält. Man kann sich da an Fakten halten.
Das ist kein Fakt, das ist deine Meinung. Fakt ist nur das Dolby durch seine Bekanntheit weit verbreitet ist wodurch sie es leichter haben bei allen Firmen die etwas mit dem Thema zu tun haben überhaupt erstmal einen Fuß in der Tür zu haben um sie für ihr Produkt zu überzeugen.

Daniel# schrieb:
Das macht durchaus einen sehr großen Unterschied wie schnell Inhalte und Geräte beim Endkunden ankommen.

Das wird die Zeit zeigen ich will gar nicht für HDR10+ Partei ergreifen. Ich will eigentlich auch gar nicht mit dir diskutieren. Ich habe nur darauf hingewiesen das die Aussage das "nur" Dolby Vision schon 12 Bit unterstützt falsch ist.

Daniel# schrieb:
während Dolby Vision von Anfang an eine 12 bit Distributionskette vorgesehen hat.
Daniel# schrieb:
deswegen war ich auch sehr verwundert als du über 16 bit geredet hast obwohl es nur Studio Masters sind.

Das betrifft Dolby Vision sowie HDR10+ :stacheln: Es gibt nur 10 Bit Inhalte zu kaufen/konsumieren bisher! Du redest von einer Distributionskette. Wo gibt es die zu kaufen leihen? Es gibt NULL Dolby Vision Inhalte mit 12 Bit. Oder meinst du damit die Erstellung Aufnahme, Nachbearbeitung, Lagerung in den Studios denn dann sind wir wieder bei den Studio Masters wie du sie (nur bei) bei HDR10+ genant hast. Die IMMER höher = am Maximum des möglichen ausfallen sollten damit man Luft für die Zukunft hat. So wie wenn man jetzt einen alten Film als Studio Remastern will, beauftragt man einen externen Anbieter der das DataCine durchführt = vom der 35mm Rolle in 8k anstatt 4k abtasten soll, da man das Geld für die Bild für Bild Abtastung eh bezahlen muss. Anstatt wenn die Technik endlich soweit sein wird 8k als Fließband zu liefern die 35mm Rolle erneut für viel Geld erst in 8k abtasten lassen muss.

SO das soll es jetzt für mich gewesen sein da wie gesagt ich gar nicht eine Diskussion was ist besser schöner toller blabla führen will sondern nur eine falsche Aussage korrigieren wollte.

PS:

Aktuell gibt es wohl nur eine begrenzte Auswahl an HDMI Chips für solche HDMI-Repeater-Geräte

Das ist das Problem es gibt "einen" Hersteller der Chips liefern kann und das NUR bis 40GB/s. Mehr geht aktuell nicht womit wir wieder bei dem Problem sind das die Technik nicht hinterher kommt.
 
Zuletzt bearbeitet:
Gamefaq schrieb:
Es gibt nur 10 Bit Inhalte zu kaufen/konsumieren bisher! Du redest von einer Distributionskette. Wo gibt es die zu kaufen leihen? Es gibt NULL Dolby Vision Inhalte mit 12 Bit.
...
SO das soll es jetzt für mich gewesen sein da wie gesagt ich gar nicht eine Diskussion was ist besser schöner toller blabla führen will sondern nur eine falsche Aussage korrigieren wollte.
Sry @Gamefaq aber das ist nicht richtig. Egal ob Single oder Dual Layer, Dolby Vision ist immer 12Bit wenn es mit einem Full Enhancement Layer ist. Es gibt keine 12Bit TVs, darum wird es aktuell nur in 10Bit ausgegeben... Bedeutet.. schaut man in Zukunft seine alte UHD mit DV auf einem 12bit TV wird es auch so wiedergegeben. @Daniel# hat da einfach recht und du bist da leider nicht 100% informiert.

SL
1591511699139.png

DL
1591511715751.png


Es gibt zwar Material mit Minimal Enhancement Layern aber das sind nur die aller ersten Filme.
 

Anhänge

  • 1591512340423.png
    1591512340423.png
    77,2 KB · Aufrufe: 336
Zuletzt bearbeitet:
Es ist völlig egal ob der Standard 12 Bit kann. Alle UHD Blurays sind nach dem H.265 HEVC Main 10 Profil kodiert, sowohl der Base Layer als auch der Enhancement Layer. Selbst Dolby gibt bei seinen Spezifikationen nur 10Bit an.
 
Gamefaq schrieb:
@KCX Wo kann man das nachlesen das die BluRays mit Dolby Vision auch so (also in 12 Bit HEVC Encodiert) ausgeliefert werden? Mir ist bisher noch keine begegnet.
Recht einfach... indem man schaut, was die Disc beinhaltet. Gibts diverse Programme für...

Enthält der zweite HEVC 10bit Layer eine Dolby Vision FEL, ist 12Bit drin.
Ergänzung ()

onetwoxx schrieb:
Es ist völlig egal ob der Standard 12 Bit kann. Alle UHD Blurays sind nach dem H.265 HEVC Main 10 Profil kodiert, sowohl der Base Layer als auch der Enhancement Layer. Selbst Dolby gibt bei seinen Spezifikationen nur 10Bit an.
Schau dir nochmal die Infos an, evtl verstehst du wieso es ein 10bit Layer ist.
1591521599526.png

1591512340423.png
 
shaggy86 schrieb:
Kann mir jemand helfen? 8K ist doch blödsinn!!! 4K ist ja noch lange nicht für alle verfügbar bzw interessant. Außer damit Geld machen zu wollen (& sonst nix), bringt 8K doch nix. In Deutschland wird es 8K streams erst in gefühlt 10 - 15 Jahren geben... oder gar später. Und den Unterschied zu 4K sieht man auch nur, wenn man quasi 20cm vor dem TV steht, oder??

Wobei genau brauchst du Hilfe? Ich z.B. will kein 8K, aber 4k@120Hz mit 4:4:4 und VRR und das geht nur mit HDMI2.1. Deswegen brauch ich das Ding trotzdem.
 
Gamefaq schrieb:
@KCX Wo kann man das nachlesen das die BluRays mit Dolby Vision auch so (also in 12 Bit HEVC Encodiert) ausgeliefert werden? Mir ist bisher noch keine begegnet.
onetwoxx schrieb:
Es ist völlig egal ob der Standard 12 Bit kann. Alle UHD Blurays sind nach dem H.265 HEVC Main 10 Profil kodiert, sowohl der Base Layer als auch der Enhancement Layer. Selbst Dolby gibt bei seinen Spezifikationen nur 10Bit an.
Der Basis Videostream ist weiterhin in 10 bit mit statischem HDR, der Dolby Vision Layer kann aber mit 12 bit Genauigkeit arbeiten sofern eben dieser Full Enhancement Layer benutzt wird.
Die allermeisten UHD Blurays mit Dolby Vision haben inzwischen diesen FEL und 12 bit Genauigkeit.
Es gibt gar keine Geräte die HEVC 12 bit in Hardware dekodieren können, deswegen ist Dolbys Lösung technisch ja so gut. Das Processing der Metadaten übernimmt eben der Hardwareteil der für Dolby Vision zuständig ist und weil es "nur" ein zusätzlicher Metadaten-Layer ist steigt auch der Leistungsbedarf kaum an obwohl mit 12 bit gearbeitet wird.

Hatte jetzt nicht mehr die genauen technischen Details im Hinterkopf, danke @KCX für das raussuchen der Infos.

EDIT:
Hier eine schöne Übersicht an Titeln und technische Details wie MEL, FEL und Bitrate des Metadaten Layers:
https://forum.blu-ray.com/showthread.php?p=12116287#post12116287
 
Zuletzt bearbeitet:
MeisterOek schrieb:
Wobei genau brauchst du Hilfe? Ich z.B. will kein 8K, aber 4k@120Hz mit 4:4:4 und VRR und das geht nur mit HDMI2.1. Deswegen brauch ich das Ding trotzdem.

Das versteh ich schon. Wenn de HDMI 2.1 nutzen willst ok. Aber mir gehts ja wie gesagt darum, WIESO man 8K brauch. Andere Technologien zu pushen schön und gut.
 
Biedermeyer schrieb:
ist das nun ein Denon-Werbeartikel, od. habe ich nur die Beitraege zu Pioneer, Onkyo, Sony, Arcam, Bryston, AVM... verpasst?

Nur weil die Industrie ankurbeln und verkaufen will, scheint alles recht zu sein, hier völlig sinnfreies/unausgegorenes 8k.
Hauptsache fuers Marketing: "neu" - bestehendes (z.B. 3D) wird gecancelt...

ich selbst bin inzwischen zu gutem Stereo zurueck, einfach nur geil ;)


Die 8k sind doch vollkommen Nebensachen und ja das ist werbe Tamtam aber die 4k120hz sind doch sehr wichtig

Ich hoffe inständig das die nächsten NV Karten den passenden HDMI Standard unterstützen

Wäre doch knorke wenn ich plötzlich an meinem LG auf 120 Hz stellen kann dann funst die gesync Kompatibilität wenigstens , aktuell müsste ich mit 1440p120hz vorlieb nehmen
 
Jetzt nur noch ein nativer 4k HDMI 2.1 Beamer auf den Markt bitte
 
scryed schrieb:
die 4k120hz sind doch sehr wichtig
Warum? Selbst in naher Zukunft dürfte das kaum eine Grafikkarte packen. Geschweige denn die neuen Konsolen. Und Filme und Serien werden leider nach wie vor zu 99% in steinzeitlichem 24p produziert. Ich glaube kaum, dass sich daran in den nächsten Jahren viel ändern wird.
 
BelaC schrieb:
Und Filme und Serien werden leider nach wie vor zu 99% in steinzeitlichem 24p produziert. Ich glaube kaum, dass sich daran in den nächsten Jahren viel ändern wird.

Und das ist auch gut so. Diverse Regisseure haben sich zu dem Umstand schon geäußert. Mir hat schon der High Framerate Hobbit in 48 Bildern gereicht, das sah aus wie ne billige Nachmittagsprogramm Show. Einfach zu flüssig und es wirkte einfach dadurch billig, schwer zu beschreiben wenn man es nicht selbst gesehen hat. Bei Filmen gibt's halt tatsächlich den "cinematic effect" durch die 24 fps, wenn die Wiedergabekette auch eine vernünftige 24p Wiedergabe beherrscht dann gibt's auch kein Ärger mit Bildstottern.
 
Ja und trotz 24p muss ich erst mal Motion Flow auf Stufe 3 über das Bild hauen damit es gescheit flüssig wirkt.
 
Ich persönlich mag echte 24p auch nicht. Habe bei mir (Sony) die schwächste Motionflowstufe, welche "Kino" heißt. Damit ruckelt es nicht, aber es gibt auch keinen Soap-Effekt. Ist alles geschmackssache, aber ich würde dem ungebildeten Kunden auch kein max. Motionflow voreinstellen.
 
Ja, wir alle haben uns an das Ruckeln der Kinofilme gewöhnt und deshalb sieht HFR-Material erstmal komisch aus. Schön ist deshalb das 24p-Geruckel trotzdem nicht. Selbst wenn die ganze Wiedergabelette das Material richtig abspielt (was in Zeiten von Android-TV leider auch sehr häufig nicht der Fall ist).
 
ChrisKer schrieb:
Hey Leute,

weil es gerade zum Thema passt und ich hoffe, dass ihr mir kurz weiterhelfen könnt.
Momentan habe ich den X4300H im Einsatz und bin soweit sehr zufrieden.
Da ich auch einen LG C9 im Einsatz habe und mir sehr wahrscheinlich die neue Xbox Series X holen werden, stellt sich mir die Fragen, inwieweit ich alle Features mit dem alten X4300 abdecken kann. Die Frage bezieht sich natürlich auf die HDMI-Features.
So fürchte ich, dass ich nicht um den 4700er herumkommen werde. Zumal bei der Series X wohl der opt. dig. Anschluss gestrichen wird. Das durchschleifen des Tones über HDMI zu TV und dann über ARC zum AVR funktioniert zwar, hat aber eigentlich immer ein Delay, was beim Zocken echt nervt.
Von daher sehe ich nur die Anbindung der Xbox an den AVR und dann weiter zum TV als gangbaren Weg.

Nun zur Frage: :o
Aktuell habe ich ein klassische 5.1 System im Einsatz sowie 4 Deckenboxen (auf Zone 2 und 3) für Hintergrundmusik. Diese laufen eigentlich immer unabhängig vom 5.1 System.
Aktuell läuft das auch prima.
Was wäre aber nun wenn ich zusätzlich 2 Atmos-Boxen nachrüsten wollen würde, also auf ein 5.1.2 System upgraden möchte?

Stichpunkt Verstärker und Kanäle?
Was kann ich mir unter einer zusätzlichen 2-Kanal Endstufe genau vorstellen?
Vllt. noch ein zusätzliches Gerät?
Mit dem 5.1.2 und den 4 Deckenlautsprechern käme ich ja dann auf 11 Lautsprecher.
Würde der X4700 reichen oder müsste es der X6700 sein?

Sry... ist nun leider ein etwas längere Text geworden. Hoffe dennoch, dass mich hier jemand zu meinen Punkten aufklären kann :)
Da ich einen AVR-X4500H, einen LG 65C9, eine Xbox One X und eine 5.4.1-Lautsprecherkonfiguration habe und mich mit dem Gedanken trage, mir den AVC-X6700H zuzulegen, antworte ich mal so gut ich kann (und es verstanden habe).

Zunächst: der Pre-Amp und der Soundprozessor des 4700er können 11.2 Kanäle in (fast) beliebiger Endstufen- bzw. Lautsprecherkonfiguration verarbeiten. Das reicht beispielsweise für eine Dolby-Atmos-Konfiguration mit 5 Hauptlautsprechern, 4 Deckenlautsprechern und 2 Subwoofern (5.4.2-Konfig). Oder für eine 5.1.2-Konfig mit einer separaten Stereozone. Oder für eine 5.1-Konfig sowie zwei weiteren Stereo-Zonen.

Das Teil hat zwar 11 Vorverstärker und ebenso viele Lautsprecherausgänge, aber nur 9 Endstufen. Um das von Dir angestrebte 5.1.2-plus-2-plus-2-Lautsprecher-Setup (also insgesamt 11 Lautsprecher, falls Deine beiden Subs "aktiv" sind, also über eine eingebaute Endstufe verfügen) in 3 Räumen zu verwirklichen, benötigst Du eine weitere Stereo-Endstufe (ja, ein separates Gerät, z.B. dieses), die Du an den Denon anschließt. So eine separate Endstufe kostet ihr Geld, wobei für die ausschließliche Verwendung für Hintergrundmusik deren Klangqualität ja sekundär wäre.

Anschlusstechnisch reicht mir bei meinem Lautsprecher-Setup AVC-X4700H, da ich nicht vorhabe, weitere Zonen neben der Hauptzone einzurichten. Trotzdem gehe ich auf den 6700er, vor allem wegen der hörbar besseren Klangqualität aufgrund des monolithischen Verstärkeraufbaus. Ich weiß, wovon ich spreche, denn vor dem 4500er hatte ich den 6200er, und schon der war klanglich hörbar besser - nur wenig bei Heimkino, aber recht deutlich bei Musik (Mehrkanal- und einfaches Stereo).

Kurz gesagt, würde ich Dir den 6700er anstatt eines 4700er plus separater Endstufe empfehlen. Der klingt besser und ist beim Setup dank der 11 echten Endstufen flexibler.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ChrisKer
BelaC schrieb:
Warum? Selbst in naher Zukunft dürfte das kaum eine Grafikkarte packen. Geschweige denn die neuen Konsolen.
Muss ich hier wirklich erwähnen, dass auch z.B. 60fps auf 120hz besser sind? 😁

@CMDCake naja das sieht jeder anders. Meiner Meinung nach, sind die Menschen das einfach nicht gewohnt. Ich persönlich will mehr davon. Kann die Argumente dagegen zwar teilweise nachvollziehen, sind für mich aber nach wie vor sehr subjektiv. Wirkt billig, ist nicht künstlerisch genug etc. sind alles subjektive Empfinden. Man kann auch sagen.. Endlich flüssiges und realitätsnahes Filmmaterial, wie konnten wir nur 24fps so lange ertragen? 😉

Schaut euch Gemini Man oder Billy Lynn an. Da seht ihr echte 60fps (59,97). Gemini Man auf UHD ist übrigens eine Kombi, die man so noch nicht gesehen hat. HFR, Dolby Vision und ATMOS 😍
 
KCX schrieb:
Endlich flüssiges und realitätsnahes Filmmaterial, wie konnten wir nur 24fps so lange ertragen? 😉

Das ist offenbar wirklich einfach sehr subjektiv, ich verbinde mit HFR das selbe schreckliche Bild wie beim Soap Effekt, wenn man die Glättung auf 100% reißt. Allerdings nur bei Filmen, bei games kann die Framerate nie hoch genug sein, aber das verhält sich ja auch vollständig anders als Filmmaterial.
 
Ganz ehrlich ich hab noch nie irgendwas von Soap Effekt oder so wahrgenommen. Für mich gibt es nur flüssige Bilder oder ruckelnde Bilder.
Wenn man 24fps auf 60Hz darstellen muss ruckelt es nun mal, aber man kann ja was dagegen tun, das sorgt vielleicht ab und zu für Bildfehler aber dafür läuft alles flüssig also passt mir das.
Einen Soap Effekt gibt es nicht.
 
Marcel55 schrieb:
Einen Soap Effekt gibt es nicht.

Für dich weil du ihn nicht wahrnimmst oder meinst du das allgemein? Letzteres ist klar falsch. Der Soap Effekt ist reichlich dokumentiert seit Anbeginn der Flatscreens.

Aber wenn du den Soap Effekt nicht wahrnehmen kannst dann hat sich das eh erübrigt darüber zu diskutieren, weil man das nur nachvollziehen kann wenn man es selbst wahrnimmt, aber es wird gerade glaube ich auch etwas OT ^
 
  • Gefällt mir
Reaktionen: Leeway
Zurück
Oben