HDR Dolby Vision playback am PC?

  • Gibt es eine Möglichkeit Dolby Vision HDR Clips am PC richtig abzuspielen?

    Wenn ich mir die Beispiele von https://4kmedia.org/tag/dolby-vision/ am PC versuche abzuspielen, hab ich folgenden Effekt:

    MPC-HC spielt nur Ton und meldet, dass der LAV Splitter mit dem Videostream nicht klar kommt:

    ffplay spielt was ab, aber anscheinend werden die Dolby Vision infos nicht gelesen, man erhält jede Menge 'Skipping NAL unit 62' Warnungen.

    (Filter für Avisynth oder Vapoursynth der mit solchen Files umgehen kann ist auch akutell keiner zu finden.)

    Wenn ich mir https://lists.ffmpeg.org/pipermail/ffmp…uly/032633.html durchlese, sieht es auch nicht so aus, als ob Hoffnung besteht, dass LibAV/FFmpeg DolbyVision unterstützen wird.

    Würde mich freuen wenn da jemand mehr zu sagen kann.

    Cu Selur

  • Leider kann ich dir bei deinem Problem nur indirekt helfen.

    Soweit ich mitbekommen habe, gibt es für den PC noch keine alleinstehende Software für UHD und Dolby Vision zusammen, in Form eines Treibers.

    Von Dolby direkt gibt es, seit Neuesten, nur Firmware für TV-Geräte und Blu-ray-Abspieler, zum Nachrüsten dieser Funktionen.

    Ich sehe zurzeit nur eine Möglichkeit, 4k-Videos mit Dolby Vision und HDR abzuspielen.

    Das wäre eine entsprechende Capture-Software, die diese Funktionen unterstützt.

    Gamer haben es da leichter, die schließen ihre Konsole an den 4k-Fernseher an.

    Ansonsten auf LibAV/Ffmpeg warten.

    Beim VLC und MPC, ohne LAV-Splitter, habe ich einwandfrei Bild und Ton. Audio wird aber nur als AAC stereo 192Kbps und 384 Kbps angezeigt.

    5.1 Fehlanzeige. Die Decoder der Software-Player, könnten aber auch auf stereo muxen.

    Meiner Meinung nach, sind das aber keine hochwertigen Parameter, die die 4k-Testvideos bieten.

    Die Auflösung von 4k ist ja in Ordnung, aber 4:2:0 und HDR, was für ein Blödsinn.

    Die extreme Farbunterabtastung von 4:2:0, hat ja nur 25% vom eigentlichen Farbraum.

    BT.2020, ist da völliger Quatsch. Das würde heißen, dass von den 25% mit 4:2:0 bei HDR mit 75% von den 25%, überhaupt keine Vorteile zu erwarten sind. 10Bit bei dieser hohen Kompression? Ich vermute, dass das alles simulierte Streams sind.

    Im Profi-Bereich gibt es schon BT.2130, das sind 90% vom Farbraum.

    Blackmagic hat das ebenfalls erkannt und hat den angeblich besten Codec der Welt entwickelt.

    Blackmagic RAW, steht zum Download auf deren Homepage zur Verfügung. Leider muss man sich dafür anmelden.

    Das ist ein 4:4:4 Codec, und ist nicht für extreme Quetscharbeiten gedacht.

    Oder sehe ich das in Bezug, von den 4k-Videos falsch?

    Gruß

    Jo

  • Blackmagic RAW ist auch nicht besser oder schlechter als andere Formate die lossless sind. Einziger Vorteil den ich sehe ist, dass wenn man die Blackmagic Hardware hat, dass man auch GPU Unterstützung hat. Wie andere lossless Formate ist Blackmagic RAW aber außer als intermediate Format nicht wirklich zu gebrauchen.

    Um das Farbraumsampling mache ich mir wenig Sorgen, da:

    a. soweit ich mich entsinne UHD Blu-ray aktuell eh nicht mehr erlaubt als 4:2:0

    b. die meisten Leute den Unterschied nicht sehen

    Zitat

    Im Profi-Bereich gibt es schon BT.2130, das sind 90% vom Farbraum.

    Hast Du mal nen Link dazu, denn bei den normalen ITU-R Reports und Recommendations finde ich dazu nichts.

    Wobei ich mir nicht vorstellen kann, dass jemand mit dem Farbraum arbeitet, da es keine Hardware gibt zur Wiedergabe.

    Zitat

    Oder sehe ich das in Bezug, von den 4k-Videos falsch?

    Nicht unbedingt. Mir geht es erst Mal darum wie kann ich Dolby Vision HDR Material:

    a. Decodieren

    b. Enkodieren (wird ja von x265 unterstützt, jedoch ist mir momentan unklar womit man die zugehörigen RPU Daten erstellen kann)

    Cu Selur

  • Nicht unbedingt. Mir geht es erst Mal darum wie kann ich Dolby Vision HDR Material:

    a. Decodieren

    b. Enkodieren (wird ja von x265 unterstützt, jedoch ist mir momentan unklar womit man die zugehörigen RPU Daten erstellen kann)

    Die Frage ist, ob es von Dolby überhaupt gewollt ist, dass du DV dekodieren bzw. encodieren kannst (abseits eines externen Gerätes wie ein Bluray Player). Oder wurde DV an die Content Firmen als eine Art "weiterer Kodierschutz mit Farbinformation" verkauft.

    Dolby stellt kein SDK am PC zur Verfügung. Die bei makemkv vermuten, sie wollen nicht, dass man dann anhand solcher Programme wie PowerDVD nachvollziehen kann, wie DV aufgebaut ist.

    An einzelne Firmen gibt Dolby wohl das Wissen raus, es soll aber wohl nicht bekannt werden. Es ist also eher unwahrscheinlich, dass ffmpeg jemals DV unterstützen wird. Ich denke, es wird auf HDR10+ hinauslaufen. Da hab ich schon einen Patch für ffmpeg auf der Mailingliste gesehen.

    Das einzige, was es momentan gibt, ist das hier: https://github.com/DolbyLaboratories/dlb_mp4base

    Einmal editiert, zuletzt von monarc99 (13. Januar 2019 um 11:32)

  • Ja, das ist schon richtig, dass BM RAW kein intermediate Format ist, ist halt nicht für starke Kompression entwickelt worden.

    Die RAW- oder auch die Lossless-Formate bieten meistens 4:4:4 Farbsampling, bilden 100% vom Farbraum ab.

    Erst dann würde es Sinn machen, BT.2020 (75%) einzusetzen, besser wäre BT.2130 mit 90%. Das wäre richtiges 4k (UHD) mit HDR und 10bit.

    Diese professionellen Codecs drücken die Datenrate auf ca. 440 MBit/s. Unkomprimiert liegt echtes UHD mit HDR 10bit, bei 2- bis 3 GBit/s.

    4:4:4 haben z. Bsp. 4k-Sat-Receiver. Da würde HDR BT.2020 noch Sinn machen. Manche allerdings auch nur 4:2:2.

    Die Wiedergabe erfolgt auf einem UHD-Fernseher, der BT.2020 verarbeiten kann.

    Die interne Audioelektronik vom Fernseher, muss ebenfalls eine Tonwiedergabe von Dolby Vision ermöglichen.

    Ob das UHD-Fernseher für 333 Euro bieten, ist sehr zwefelhaft.

    UHD Blu-ray ist 4:2:0, das stimmt. Das hat man so belassen, weil sonst eine 50 GByte-Scheibe nur für ca. 30 Minuten Film speichern würde.

    In Bezug auf HDR, ist UHD Blu-ray eine Fake-Qualität. Volle Qualität will Hollywood nicht. Eine DVD 10, wäre da besser.

    Kann auf der Vorder- und Rückseite jeweils 100 GByte aufnehmen. Es kommen aber Kompatibilitätsprobleme bei den diversen Abspielern hinzu.

    Das setzt sich vermutlich nicht durch.

    Ich tippe da eher auf schnelle USB 3-Sticks. Hier bräuchte man kein zusätzliches Abspielgerät, es werden nur die UHD-Streams wiedergegeben.

    Zurzeit sind aber die 256 GByte-Sticks noch teuer. Man könnte aber auch SSD-Karten verwenden.

    Ja, bei Punkt b gebe ich dir recht. Man hätte locker bei 1080 bleiben dürfen. Es gibt Leute, die gute SD-Qualität nicht von 1080p unterscheiden können.

    Für die meisten Amateure gilt, UHD mit stereo. Eine Hardware gibt es da schon, nur nicht zum 0-Tarif.

    Dir liegen bereits echte Dolby Vision-Files mit 12 Bit vor.

    Dazu braucht man richtige 4k-Profi-Monitore in der Preisklasse zwischen 30.000 und 60.000 Euro, um die 12 Bit überhaupt echt darstellen zu können.

    Das kann zurzeit kein normaler UHD-Fernseher abbilden, den man weltweit kaufen kann. 10 Bit liegen nur auf UHD Premium Blu-rays vor.

    Dolby Vision 12 Bit


    Dynamisches HDR mit madVR

    Decodieren und enkodieren müsste über ein Schnittsystem mit den entsprechenden Codes, oder auch mit einer Encoder-Software möglich sein.

    Mich wundert es, dass man dies mit AviSynth nicht erstellen kann.

    Die RPU Daten werden im Chip des Fernsehers gespeichert. Wie diese ausgelesen werden können, weiß ich nicht.

    Vielleicht hilft ein Kalibrierungs-Programm. Habe mich noch nicht damit befasst.

    Gruß

    Jo

    2 Mal editiert, zuletzt von Pro Jo (14. Januar 2019 um 01:22)

  • Also der MPC-BE macht das. Nur habe ich hier noch einen i7-860 mit einer ATI Hd5770 da kommt er etwas ins stocken. Aber Bild und Ton sind da.

    Jetzt versuche ich nochmal meinen Xeon W3690 mit der ATI HD5800 Serie..... Auch mit MPC-BE

    Edit: Stockt genauso. Xeon CPU rund 65 Prozent Auslastung aber ich denke mal die ATIs sind der Flaschenhals. Und als Audiofilter habe ich AC3-Filter mit reingesetzt.

    Einmal editiert, zuletzt von Propaganda (14. Januar 2019 um 19:43)

  • Die werden vermutlich beim Dekodieren von 4k schon die Fahnen streichen. ;)

    Und dann müssten sie ja noch Skalieren (z.B. von 4k auf FullHD), DV Layer, tone mapping usw ...

  • Ich überlege ja auch, ob ich ne neue CPU brauche, aber es kommt ja regelmäßig ein neuer Codec raus. Da meine alte Grafikkarte sowieso den Löffel abgegeben hatte, musste ich mir ne neue zulegen (mit HEVC support - das ist also schon abgedeckt).

    Aber bald kommt AV1. Und 4K AV1 wird mein alter i5 nicht mehr schaffen. Und die ersten AV1 HW-Decoder kommen so Ende 2020. So lange warte ich auf jeden Fall noch mit einer CPU, weil selbst i7 oder i9 kommen teilweise bei 4K HEVC mit hohen Bitraten an ihre Grenzen.

  • War einige Tage verhindert.

    BT.2020, BT.2130:

    Zurzeit beträgt der Farbraum für 4k-, 8k- und 16k, offiziell BT.2020. BT.2130 steht frühestens, aber nur im Profi-Bereich, im September oder Dezember 2019 zur Verfügung. Ausführliche Infos zu BT.2130 gibt es noch nicht, denn die Parameter dafür, muss die EBU-Kommission erst verabschieden.

    Das war nur eine kurze Info von den Profi-Medien, für die nächsthöhere Qualität des Farbraums.

    Ich wollte nur auf Rec.2130 hier im Forum hinweisen, dass es nicht bei BT.2020 bleibt.

    Bis BT.2130 im Konsumer-Bereich eingeführt wird, kann es durchaus noch einige Jahre dauern.

    Es wäre eine tolle Sache, wenn z. Bsp. ein BT.2130-Plug-in (Filter) für VDub eines Tages verfügbar wäre.

    Aber dazu braucht man erst die entgültigen Spezifikationen von BT.2130.

    Gruß

    Jo

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!