News BDR-S 11 J-BK und J-X: Erste UHD-Blu-ray-Laufwerke für den PC von Pioneer

AxxDVD wird es schon (wieder einmal) richten. ;) Mein mitgeliefertes PowerDVD spielte meine Blu Rays nach einem Patch nicht mehr ab, da muss man auf solche Programme zurückgreifen. Dank diesem reicht jetzt der VLC-Player für Blu-Rays (und kann die BRs sogar auf dem VGA-Ausgang abspielen). Kopieren ging auch mit der Freeware IMGBURN dadurch ohne Probleme.

Ich bleib allerdings erstmal bei FullHD, UHD/4K schluckt nur unnötig Power und ich würde auf meinem 40"er wohl keinen Unterschied erkennen. Und Fernsehen läuft maximal per DVB-T2 mit FullHD, aber bei einer so schlechten Komprimierung, dass ein 720p-Kabel-Sender erheblich besser aussieht.

Was ich immer witzig finde sind User, die unbedingt UHD/4K haben wollen und als erstes die Skalierung einstellen "weil sie sonst die Schrift nicht mehr erkennen". Das heißt doch mit anderen Worten, dass sie die hohe Auflösung gar nicht erkennen können, sonst könnten sie ja die unskalierte Schrift lesen.
 
@Cool Master
Alle 10xx von nVidia haben HDCP 2.2 und HDMI 2.0 mit H.265 drin.
Und bei den ATI ist das glaub ich bei den aktuellen Karten auch drin.
DARUM fragte ich, warum man die CPU dazu braucht, wenn man die GraKa hat.
Wenn man von iGPU von intel spricht, ja, dann eventuell . .
 
Sehr schön, dass neue Technik Einzug hält.

Schön, dass es die neuen UHD Blu Ray Laufwerke auf dem PC gibt.
Schön, dass die Auflösungen weiter steigen.
Schön, dass es HDR gibt.
Schön dass sie im Kino HFR getestet haben.
Schön, dass wir einen inzwischen brauchbaren Neubeginn der VR- Ära haben.
Schade, dass keine 3D Fernseher mehr rauskommen. War für einige (nicht für jeden) ein schönes Feature.

JEDE technologische Weiterentwicklung ist mir willkommen (auch wenn ich nicht alle nutzen will/muss).
Wir leben nachwievor in aufregenden Zeiten rasanter Technikentwicklung. Hoffentlich hört das so schnell nicht auf.

Die Stimmen der Rückwärtsgewandten werden ja leider immer lauter (Gimmick, brauch ich nicht->braucht niemand etc.), was ich sehr befremdlich finde.
Wenn ich eine Technik nicht nutzen möchte, so tue ich das einfach nicht.

Mir würde aber im Traum nicht einfallen, deshalb eine neue Technik aktiv per immer wiederkehrenden Postings schlechtzureden, totzureden oder sonstiges in dieser Richtung.

Für mich völlig befremdlich. Was mag in diesen Menschen nur vorgehen bzw. was ist die Motivation dahinter?

Grüße
Zero
 
Es ist dennoch vollkommen unverständlich, warum ich eine neue CPU brauche, wenn es etwa die GPU genau so kann ... was ist da der technische Hintergrund bzw. gibt es den überhaupt oder sagt man: ja, nur für Kaby Lake gibt's Treiber und wenn ihr das wollt, dann müsst ihr halt trotz aktueller Grafikkarte auf-/umrüsten?

Wobei, mir ist es ohnehin gleich, schaue nur am TV in 4K, insofern komme ich nicht in die Verlegenheit am Rechner abseits Streaming schauen zu wollen.
 
Ich als Heimkinofan habe schon immer ein DVD und später einen Blu-Ray Brenner in einen meiner HTPC's .
Meine DVD's und Blu-Ray's sehen das Laufwerk aber nur genau ein mal, wenn ich die Blu-Ray's gekauft habe und
sie auf Festplatte rippe. Dann stehen die Hüllen nur noch als Staubfänger im Regal.
Einen UHD Blu-Ray Player werde ich mir erst kaufen wenn ich weiß das ich die Scheiben auch sauber auf die Festplatte bekomme.
Ich habe eben mal geschaut, meine größte Datei ist "Jagd auf Roter Oktober" mit 36 GB.
Alle meine anderen Blu-Ray Dateien sind kleiner.
Auf eine günstige 4 TB Festplatte (Netto 3,63 TB) bekomme ich also locker 100 Blue-Ray's.
Backup mache ich nicht, wenn mal eine Platte den Geist auf gibt habe ich halt die Arschkarte und rippe alles wieder neu.
Bei mir kommen im Monat Maximal 3 Blu-Ray's dazu, also reicht mir eine günstige Festplatte für 3 Jahre.
4K Netflix Streams sehen auch nicht besser aus als Blu-Ray's , wie den auch, eine Stunde UHD Stream bei Netflix sind 7,5 GB.
Wenn die Film Industrie mir das Leben schwermachen will, verzichte ich auf UHD Blu-Ray solange bis ich die Filme
sauber und zügig auf die Festplatte bekomme.
Wenn ein Dienst wie Netflix mir Zeitnah auch neue Kinofilme liefern würde, wäre ich bereit auch mehr als
bisher dafür zu bezahlen und würde mir keine Blu-Rays mehr kaufen.
 
Die Tabelle "Technischen Daten" hat die DVD auch zur BlueRay gemacht.

In den Namen BD-RAM und den sechs vorhergehenden Einträgen muß 'BD' durch 'DVD' ersetzt werden.
Es gibt nur DVD-RAM. :o
 
Hmm sehe das wie die Meisten, wozu das Ganze schaue sehr gerne Filme allerdings noch in BD das Andere bietet keinen Mehrwert momentan für mich noch dazu zahle ich sicher keine 32€ für einen Film, bei mir ist bei 15€ sense die Meisten nur7- 10€. (Müller 4für3Filme ist super 30€)
Habe nicht einmal ein BD Laufwerk im PC das mit der Abspielsoftware wollte ich mir nicht antun damals, lieber einen Player, noch besser dem Film am PC, und dank Prime wirds eh weniger.
 
Dem Ehrlichen wird Feuer unter dem Hintern gemacht... so erreicht man das genaue Gegenteil.
 
@CB

Preise sollen bei 35.000 Yen für den BDR-S 11 J-X bzw. 22.000 Yen für den BDR-S 11 J-BK liegen.
 
Da muß ich mal was fragen... weil hier mache vom roten Fuchs schreiben..
Früher (als ich noch jung war) gabs ja noch Videotheken und DVD´s und den Shrink... :D
Aber heute? Bei uns haben die letzten 2 Jahre allein 4 Videotheken dicht gemacht.. im Umkreis von 40 KM weiss ich keine mehr..
Also wieso noch ein Laufwerk kaufen, wenn man die "Ware" gar nicht mehr kriegt?
Also entweder brav Scheibe kaufen, oder streamen? Warum also dieses Laufwerk? Um am PC zu schauen? Wer macht das?
Da ist sowieso die Frage, wie oft man einen Film anschaut? 2 mal? 3 mal?
 
Zuletzt bearbeitet:
Ich unterstütze kein HDCP. Downgrades kommen nicht in Frage. ;)


2000 gekaufte BR's...? -> Kohle verpulvert für zweimal abspielen + alles Sondermüll + null Sammlerwert = reine mediengesteuerte Dummheit für Minipimm...! Und das betrifft auch mich oder interessiert sich hier jemand für die drei Original-VHS-Filme von Krieg der Sterne aus dem Jahr 1990. 300€ pro Teil und sie sind euch... lol sry da lade ich mir mal für lau die anderen Teile und bitteschön mindestens FHD... ja richtig gelesen: FÜR LAU und NULL schlechtes Gewissen!
 
Und wer braucht sowas?

Jetzt mal ehrlich, wenn ich mir schon so nen Käse wie UHD hole (gibts da überhaupt schon was für außer Spiele?), dann nur nen Player im Wohnzimmer mit nem anständigen Beamer oder entsprechend großem TV Gerät.
 
Stahlseele schrieb:
@Cool Master
Alle 10xx von nVidia haben HDCP 2.2 und HDMI 2.0 mit H.265 drin.
Und bei den ATI ist das glaub ich bei den aktuellen Karten auch drin.
DARUM fragte ich, warum man die CPU dazu braucht, wenn man die GraKa hat.
Wenn man von iGPU von intel spricht, ja, dann eventuell . .

"die gesamte Kette"

Da gehört nun mal eben auch die CPU dazu zumidnest interpretiere ich es so.
 
Taigabaer schrieb:
Was ich immer witzig finde sind User, die unbedingt UHD/4K haben wollen und als erstes die Skalierung einstellen "weil sie sonst die Schrift nicht mehr erkennen". Das heißt doch mit anderen Worten, dass sie die hohe Auflösung gar nicht erkennen können, sonst könnten sie ja die unskalierte Schrift lesen.

Nein! Die Schrift wird dann einfach schärfer. Auf deinem Smartphone ist ja auch nicht das GUI auf einmal kleiner geworden, weil jetzt alle High-DPI screens verbauen.

Wo es allerdings wirklich ein Problem gibt: Software deren GUI nicht mitskaliert. Gerade unter Windows noch immer ein großes Problem.
 
Postman schrieb:
Wenn ich meine über 2000 Blurays alle rippen wollte hätte ich viel zu tun und käme mit dem Festplattenkauf nicht nach
Und wieviele dieser Blurays hast du NICHT gesehen? Mehr als 70% davon? :evillol:
Wenn du alle 2000 Filme schon gesehen hättest, kämst du mit deinem Leben nicht mehr nach ;-)
Ergänzung ()

Galatian schrieb:
Nein! Die Schrift wird dann einfach schärfer. Auf deinem Smartphone ist ja auch nicht das GUI auf einmal kleiner geworden, weil jetzt alle High-DPI screens verbauen.

Natürlich ist die Schrift bei einem 4K-Monitor deutlich kleiner als bei WQHD bei gleicher Monitorgröße ;-) Und zwar deutlich kleiner
 
Die meisten hier machen sich Aufregungen wegen dem Kopierschutz ist nicht euer ernst? :freak:

Wer das Laufwerk ohne Ultra-HD-Blu-ray betreibt, kann auch ältere Hardware und Betriebssysteme von Microsoft bis zurück zu Windows 7 einsetzen

wie jetzt? nur wegen U HD Br muss das hier sein?

Um das Laufwerk zusammen mit Ultra-HD-Blu-ray-Datenträgern auch nutzen zu können, muss der PC laut Pioneer über eine CPU der Generation Intel Kaby Lake und Windows 10 verfügen.

Das ist doch wieder nur voll der Hardware und BS zwang pur und was ausser UHD hab ich noch von dem Laufwerk als Win7 nutzter?
Nichts weil dann kann ich auch auf BR hängen bleiben oder sind die GB Speicher bei UHD BR größer als bei BR ?
 
Stahlseeles Frage ist berechtigt, bisher hatte die CPU auch nichts mit HDCP zutun, außer die IGP wurde genutzt. Wenn man eine diskrete Graka verwendet, sollte es reichen, wenn diese HDCP2.2 unterstützt. Umgekehrt ist das bei Kabylake auch alles andere als gesichert, ohne DP-Wandler hat man auch nur HDMI1.4b und HDPC1.x.

Ich bin allerding verwirrt, was die Grafikfäigkeiten von Skylake angeht:

Zu den wenigen Details, die Intel zur neuen IGP-Lösung bereits bekanntgegeben hat, gehört die verbesserte Intel Quick Sync Video Technology. Diese bietet in der Gen9 erstmals vollständige Hardwareunterstützung für das En- und Decodieren in H.265 (HEVC), was speziell für 4K-Inhalte wichtig ist.
Hieß es im Skylake Test, aber

Kaby Lake ist die erste Architektur von Intel, die HEVC (H.265) mit 10 Bit Farbtiefe und höheren Bitraten (Profil Main 10) in Hardware de- und encodieren kann. Das Format wird unter anderem auf Ultra-HD-Blu-ray mit HDR genutzt. Skylake kann das ebenso wenig wie die Beschleunigung von HEVC (H.265) mit 8 Bit Farbtiefe (Profil Main) in Ultra HD. Auch Googles Codec VP9 für Web-Videos decodiert nur Kaby Lake bei 10 Bit Farbtiefe, das Encodieren ist immerhin mit 8 Bit möglich.
Im Kaby Lake Test.
Ja was denn nun? Kann Skylake HEVC in 4K, aber nicht mit 10Bit oder was?

Wenn ich das hier richtig lese, kann Skylakes IGP HEVC @4Kp60 in 8-Bit mit bis zu 240MBit/s vollständig dekodieren, bei 10-Bit aber nur tlw., wie vorher Haswell HEVC 8-Bit nur tlw. in der GPU dekodieren konnte.

Aber haben alle UHDs automatisch 10-Bit? Und reicht es nicht, wenn 10-Bit mit Unterstützung der GPU ruckelfrei dekodiert werden kann?

Es wäre schon irgendwie ärgerlich, wenn Intels stufenweise Einpflegung der HEVC-Dekodierung (Haswell, Broadwell, Skylake und Kaby Lake konnten immer ein bischen mehr) vollkommen unnütz ist und mit allem vor Kaby Lake (sonst ja eigtl. eine recht uninteressante Generation) UHD nicht ginge.
 
Zuletzt bearbeitet:
@jan fred.
Mal ne Frage:

Dauernd wird von kabylake als zwingende Voraussetzung für 4k Blu-ray gesprochen.

Reicht auch eine haswell desktop cpu mit einer externen GPU von nvidia oder amd mit den nötigen Standards?
Wenn ja welche wären das aktuell?
 
Taigabaer schrieb:
Was ich immer witzig finde sind User, die unbedingt UHD/4K haben wollen und als erstes die Skalierung einstellen "weil sie sonst die Schrift nicht mehr erkennen". Das heißt doch mit anderen Worten, dass sie die hohe Auflösung gar nicht erkennen können, sonst könnten sie ja die unskalierte Schrift lesen.

prinzipiell sehe ich die sache mit der jagd nach immer höheren auflösungen ähnlich...
aber skalierung ist an sich notwendig; es geht nicht um die auflösung an sicht, sondern um die bloße physikalische grösse der schrift. bei einer hypothetisch sehr hohen auflösung von mehreren 10k würde bei einem 30-50-zoll gerät die schrifthöhr unskaliert auf bruchteil eines millimeters schrumpfen.
schärfer/feiner wird die darstellung der schrift, wenn diese auf dem monitor gleich groß erscheint, aber wesentlich mehr pixel zur darstellung benutzt werden... ;)

und da kann man schon kritik anbringen...uhd auflösungen auf 24-zoll oder weniger sind kaum noch vom nutzen, zumindest wenn man die ressourcen bereachtet welche benötigt werden; von dem auflösungsvermögen des auges mal abgesehen. (alles unter 0,4 bogenminuten ist selbst für einen extrem gut seheneden menschen nicht mehr wahrnehmbar...)
bei großen tv's - also über 65-zoll, ist uhd schon ein erlebnis und man muss kein "adlerauge" haben um den unterschied klar zu sehen. :D


zum thema selbst:
was bei der uhd-bd bisher kaum erwähnt wurde und einen starken einfluss haben dürfte ist die 10-bit farbtiefe...gerade bei farbverläufen und dunken//grauen abstufungen dürfte das deutlich sichtbare verbesserungen bringen...

dazu fällt mir noch eines ein - ich habe privat vor halbem jahr mal älteres fhd-camcorder-material meines vaters das erste mal auf dem fhd tv meiner eltern wiedergegeben; vorher hatten sie nur einen alte röhre...da fällt einem erst auf wieviele fehler der autofocus bei der schärfe so macht. das dürfte gerade beim 4k-material der kinoproduktionen den alten unschärfe-wechsel-effekt alter tage wiederbringen...ich bin nicht sicher ob ich das haben möchte..
 
@Cool Master

Natürlich könnten auch heute schon Streams in Blu Ray Qualität umgesetzt werden. Dafür bräuchte man auch keine 100GBit Leitung.
100GB bei angenommen 2 Stunden Filmlaufzeit ~ 14 MB/sek oder ~ 110Mbits. Ist jetzt keine super utopische Internetleitung.
Aber warum sollte man das tun? Die meisten werden keinen Unterschied zu einem ordentlich komprimierten 20 - 30 Mbit Stream erkennen.
Und Leitungen in der Größenordnung sind ja schon ziemlich verbreitet.
 
Zurück
Oben