Digitale Sendfiles - Workflow?

  • Nabend zusammen,


    ich weiss nicht genau ob ich hier Forum mit dieser Frage richtig bin. Es geht um die Erstellung von sendefähigen Mpeg2 Files für die Sendeanstalten.

    Die Sender brauchen ein Mpeg2 50MBit I-Frame only. Die Erstellung funktioniert ja über mehrere Encoder.

    Meine Workflow-Idee ist eine unkomprimiertes Quicktime (4:4:4 RGB) in ein Adobeprodukt zu importieren und dann den integrierten Mainconcept Encoder für den Export zu benutzen. Nach der Wandlung, würde ich das MPEG2 wieder importieren um Chroma- und Lumalevel in bspw. Colorfinesse zu prüfen.

    Oder ist es besser ein 4:2:2 Quicktime als Ausgangsformat zu benutzen?

    Die grösste Gefahr die ich sehe ist, dass es möglicherweise eine Gammaverschieben zum Ausgangsmaterial geben kann und das Material möglicherweise Falsch gesendet wird.

    Was denkt ihr zu dem Workflow? Hat jemand damit Erfahrung?

    Vielen Dank für die mögliche Diskussion :)

    Grüsse

  • Von Adobe-Tools habe ich nicht viel Ahnung ... der MainConcept-MPEG2-Encoder ist qualitativ nicht unbedingt hervorragend für typische Anwendung, aber für 50 Mbps Intra-MPEG2 vielleicht geeignet.

    Da MPEG2-Video letztlich wahrscheinlich ohnehin 4:2:0 speichert (oder ist hier High Profile gefragt?), dürfte das Chroma-Subsampling der Quelle nicht unbedingt ausschlaggebend sein. Dass die nötigen Wertebereiche eingehalten werden, kann man aber auch in AviSynth mit der Histogram()-Funktion prüfen (bei den sonstigen Funktionen auf "coring"-Parameter achten, also ob Y/C bereits da schon beschränkt werden).

  • [MPEG-2, 30 bis 50 Mbit/s, I-frame-only 4:2:2P@ML]
    Ist Vorraussetzung für die Ausstrahlung.

    EDIUS 5, FCPro, CS4, Vegas Pro mit den passenden Codec, eXtreme7pro und sicher noch ein paar andere Tools.

    http://www.bhphotovideo.com/find/newsLetter/GrassValley.jsp

    in Edius bei der "YUV-Kurve" wie auch bei "Farbabgleich" kann man bei "sendesichere Farben" oder bei "Sichere Farben"einen Haken reinsetzen.

    Datenrettungen Normwandlungen Restaurierungen Digitalisierungen

  • Hallo,

    vielen Dank für die Antworten. Also ist es in diesem Fall unerheblich, mit welchem Footage, ob 4:4:4 oder 4:2:2, gearbeitet wird, um die Beibehaltung der Farben und Helligkeitslevel zu gewährleisten.

    Ist 4:2:2 Footage grundsätzlich immer mit reduzierten Helligkeitewerten pro Kanal abgespeichert? Also mal digital gesprochen Helligkeitwerte von 16-235 anstatt 0-255. Oder gibt es auch 4:2:2 Footage welches den vollen Bereich abdeckt?

    Gruesse

  • Es kommt hier weniger auf das Chroma-Subsampling an, sondern eher auf den Farbraum überhaupt:

    Ein PC-Monitor arbeitet im RGB-Farbraum und stellt rot, grün und blau Pixel für Pixel mit der selben Auflösung dar (4:4:4). Da es hier gleichberechtigte Farbkomponenten gibt, die sich an der Physiologie und nicht an der Psychologie des Sehens orientieren, kann eigentlich auch noch nicht von Luminanz und Chrominanz gesprochen werden, die für ein "Chroma-Subsampling" eigentlich Voraussetzung wären.

    Erst nach der Umwandlung in einenYUV-Farbraum (je nach Matrix gibt es mehrere) existiert eine Luminanz-Komponente (Y) sowie Chrominanz-Komponenten (U = Cb, V = Cr). Letztere speichern nur Abweichungen von grau in Richtung blau/gelb bzw. rot/grün. Da extrem satte Farben selten in der Natur vorkommen, hat sich eine Begrenzung des Wertebereiches als sinnvoll herausgestellt; und weil sich die Farbigkeit einer Fläche (Farbton und Sättigung) meist weniger ändert als ihre Helligkeit, bot sich zum Platzsparen die Verwendung einer geringeren Auflösung für die Chroma-Komponenten an.

    Grundsätzlich ist ein YUV-Farbraum durchaus in der Lage, den vollen Farbumfang des RGB-Farbraums abzudecken. Am PC sollte das keine größeren Probleme bereiten. Bei einer Umwandlung in Frequenzmischsignale (FBAS, Composite) für ältere Fernsehtechnik können jedoch Signale mit Überpegel zu Darstellungsfehlern im Fernseher führen. Der darstellbare Werteumfang ist dort auf etwa 70% begrenzt, und Signale mit vollem Umfang werden nur als Steuersignal verwendet (Synchronisation).

  • Hallo,

    ok ich glaube das mit dem 4:4:4 und 4:2:2 habe ich verstanden, dass es dabei nur um die Reduzierung der Signalbandbreite geht und man dabei nahezu Verlustfrei bleiben kann.

    Dann ist wohl eher die Problematik ob ein Videofile, nach CCIR601 oder bswp CCIR709 gewandelt ist und ob der Encoder oder das Videobearbeitungstool, beim Importiren von Footage den Gammawert richtig interpretiert, damit die Schwärzen nicht "absaufen" und die Lichter nicht "ausbrennen".

    Das Problem, was Canopus Procoder manchmal hat bei der Source-Nutzung von unkomprimiertem Quicktime.

    Schöne Diskussionrunde haben wir hier :)

    Gruesse

  • Zitat

    Source-Nutzung von unkomprimiertem Quicktime.


    Habs auch schon gemerkt.
    Glaube aber dass da eher der Fehler bei QT liegt,zumindest hab ichs mal so verstanden.Ev.seit ProRes nicht mehr in QT eingebunden ist.

    Zitat

    Schöne Diskussionrunde haben wir hier


    :ani_lol:
    bisserl mager...aber schön..nee
    Ausser LigH sagt ja niemand was.

    Zitat

    Das Problem, was Canopus Procoder manchmal....


    wie bitte....auch wenn Du da statt am PC-Moni auf einen ext.Moni gehst?

    Datenrettungen Normwandlungen Restaurierungen Digitalisierungen

  • Genau das ist der Kern...

    AviSynth bietet als Frameserver eine Reihe Funktionen (und Parameter für andere Funktionen), mit denen sich das Verhalten beeinflussen läßt. So beachten viele Kernfunktionen, die im YUV-Farbraum (YUY2 = 4:2:2 gepackt oder YV12 = 4:2:0 planar) arbeiten und einen "coring"-Parameter (o.ä.) haben, den Wertebereich zwischen 16 und 235 zu halten, außer man schaltet das mit diesem Parameter ab. ConvertTo..., ColorYUV und ColorMatrix (per Parameter oder in Zusammenarbeit mit Hinweisdaten aus einigen Decoder-Plugins) sorgen für die Anpassung oder die Korrektur der Farbigkeiten für (CCIR bzw. ITU-R BT.) 601.

    Und ... na ja ... ich erinnere mich an viele Details, aber ich verstehe auch nicht immer jeden Zusammenhang komplett. Unser Goldi hat da zumindest eine Menge Praxiserfahrung und das Equipment, das 99% unserer Nutzer nicht zur Verfügung steht. Und ständig alles an Didée und scharfis_brain weiterzugeben ist auch nicht gerade fair ... (wenn auch oft hilfreich).

    ;D

  • Hallo,

    aber wie kann ich genau feststellen ob meine Footage nach bspw. CCIR601 erstellt wurde? Wenn ich das Material dann falsch interpretiere sieht es ggf. zu hell oder zu dunkel aus. Teilweise ist es ja nach Sichtung möglich, fest zustellen ob es falsch importiert wurde. Aber manchmal ist es ja auch Kundenwunsch dass die Helligkeitwerte etwas "komisch" sitzen.

    In After Effects habe ich ja die Möglichkeit per Colorfiness mit ein Vectorsscope anzeigen zu lassen aber irgendwie "trau" ich AFX in dieser Hinsicht nicht so richtig :) Gibt es noch andere Programme mit denen man sich die YCbCr Level anschauen kann? Welche die das File so nehmen, wie es ist.

    Hat jemand schonmal das Editstudio Pro von Mediachance ausprobiert? Mpeg2 Schnitt mit Waveform und Verctorscope...

    Grüsse und einen schönen Sonntag.

  • Hey, diese Einstellung kannte ich auch noch nicht. Das behebt auf jedenfall das Problem, der zu hellen h264 Quicktimes auf einem Windowssystem.
    Situation war immer, aus QuicktimePro7 ein h264 gerechnet und es war auf einem Windowssystem zu hell und unter OSX sah es super aus.
    Wenn das File mit Procoder über den Quicktime6 exporter gerechnet wurde sah es auf einem Windowssystem immer gut aus und unter OSX war es zu dunkel.

    Danke....

  • wie bitte....auch wenn Du da statt am PC-Moni auf einen ext.Moni gehst?[/QUOTE]

    Hallo Goldwingfahrer,

    Beim Import von Quicktimes in Procoder gibt es ja noch einige Source Settings mehr als bspw bei AVI. Ich kann das Farb-Ausgabeformat angeben (RGB, YUYV, UYVY), den Gammawert der Ausgangsdatei. Wenn Alles auf default stehen bleibt, dann "säuft" das Mpeg2 total in ab.

    Bei Benutzung eines unkomprimierten AVIs ist das Mpeg auch etwas dunkler als das AVI aber nicht so viel wie beim über das Quicktime.

    Kontrolliert sind die Files mit Virtualdub MPEG2 MOD mit Quicktimesupport.

  • Hallo Goldwingfahrer,

    ich glaube, ich habe das Problem der zu dunklen Mpegs gefunden.
    Bei der Benutzung von Quicktimes als Quelldatei sollte immer als Ausgabeformat YUYV ausgewählt sein, da er bei RGB oder DEFAULT die Lumawerte falsch umrechnet.

    Aber zur Überschrift des Threads, der digitalen Sendefiles.
    Der Sender will ein 50MBit 4:2:2 MPEG2 I-Frame haben. Mit Lumawerten nicht über 100%. Wenn ich mir das File in AfterEffects mit Colorfinesse anschaue, dort habe ich ja den ganzen Satz an Vectorscopen, dann kann ich mit den Waveform in 100% bei 0-255 oder auch 100% bei 16-253 einstellen. Die Frage ist, welche 100% der Sender will.

    Grüsse...

  • Zitat

    Die Frage ist, welche 100% der Sender will.


    Gute Frage,das würde ich jemand vom Sender fragen oder explizit jemand der solche Files herstellt.Manchmal habe ich den Eindruck,die beim Sender wissen auch nicht immer was sie wollen.
    Mir reicht das Resultat das im Screen angezeigt wird.
    Zudem bin ich mir nicht mal sicher ob AE intern nicht in RGB arbeitet und dann den Farbraum wechselt.
    Vor AE habe ich mich immer etwas gestreubt.....Lernkurve ist gar etwas flach.

  • Hi,

    das mit dem intern in RGB arbeiten denke ich passiert. Aber wird ein Mpeg2, wenn es erstellt wird grundsätzlich mit reduziertem Farbraum erstellt?

    Also wenn ich als Ausgangsmaterial ein RGB/YUV File benutze, dass von 0-255 geht und dann ein Mpeg2 daraus rechne, sei es 4:2:2 oder 4:2:0, sind die Werte danach auch von 0-255 für YCbCr oder sagt der Mpeg Standard, dass das Mpeg die Werte Y 16-235 und CbCr 16-240 haben muss ?

    Grüsse

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!