Qualitätsfrage Interlace vs. Non-Interlace

  • Durch mein gefährliches Halbwissen gelte ich in manchen Kreisen bereits als Experte ... :nein:
    ... darum frage ich lieber die wirklichen Experten :ja:
    Eine Frage zur Qualität beim Encoden: Das Ausgangsmaterial ist zB. Filmclip vom Handy oder einer Video-Kamera. Hieraus wird ein Ausschnitt entnommen und passend beschnitten (trim und crop), anschließend dann auf DVD-Format rezised.
    Da jedes Frame sowieso neu berechnet werden muss, müsste es für die resultierende Bildqualität doch egal sein, ob ich beim Encoden Interlaced oder Progressiv wähle und das unabhängig davon, ob das Ausgangsmaterial Interlaced ist oder nicht?
    Oder bieten für dieses Szenario bestimmte Kombinationen Vorteile?

    Grüße Thomas

  • Ganz und gar nicht egal. Und das haben wir auch schon (wenn man mehrere Autoren zusammen nimmt) "dutzende Male" erklärt:

    Wenn der Inhalt tatsächlich "combed" ist (mit Kamm-Effekt, gut sichtbar bei einem horizontalen Kameraschwenk), weil ein Halbbild einen Inhalt von einem anderen Zeitpunkt zeigt als das andere Halbbild, dann ändert sich bei progressiver Encodierung (der MPEG-2-Encoder "sieht" das gesamte Videoframe einzeln) der Inhalt eines DCT-Blocks in der Luminanz = Helligkeit (8×8 Pixel) von Zeile zu Zeile erheblich. Dieser zeilenweise Wechsel lässt sich durch die Diskrete Cosinus-Transformation nur schwer abbilden, erfordert also sehr hohe Bitrate, damit auch hohe Frequenzen durch ihre stärkere Quantisierung nicht ganz unberücksichtigt bleiben (verlinktes Bild: niedrige Frequenzen links oben, höhere rechts unten). Bei Encodierung im Progressiv-Modus des MPEG-2-Videoencoders mit mäßiger Bitrate würde das also einen erheblichen Qualitätsverlust zur Folge haben, mit deutlich sichtbaren Blockartefakten. Bezüglich falscher Zuordnung der Farbigkeiten bei YUV 4:2:0 Chroma Subsampling will ich gar nicht erst ins Detail gehen (quer fliegender roter Ball vor blauem Himmel wird als "lila" gespeichert, und das ist nicht mehr zu retten).

    Im Interlaced-Modus eines MPEG-2-Videoencoders werden dagegen die Halbbilder voneinander relativ unabhängig betrachtet (tatsächlich ist es etwas komplizierter, es gibt da zwei verschiedene Varianten). Wie das wirkt, schaust du dir am besten mit einem AviSynth-Skript an, das gleich nach einem geeigneten Source-Filter und u.u. Festlegung der Halbbild-Reihenfolge – AssumeTFF() / AssumeBFF() – die Funktion SeparateFields() verwendet. Der Encoder wird dann diese Halbbilder (zusammengesetzt aus abwechselnd immer jeder zweiten Bildzeile) als neues halbhohes Bild encodieren. Im Vergleich zur progressiven Encodierung des Originalbildes (auch in ruhigen Szenen, ohne erkennbares Combing) braucht das nur wenig mehr Bitrate; dafür aber ist in diesem Modus ein Combing egal, weil gerade das ja durch das Aufteilen der Halbbilder nicht in die DCT gelangt, diese muss also nur ein wenig mehr an höheren Frequenzen durch die halbe vertikale Auflösung jedes Halbbildes verkraften.

    Auch beim Skalieren ("rezisen" gibt es nicht, besonders mit diesem Buchstabendreher) muss auf Combing Rücksicht genommen werden, wenn es durch Interlaced-Aufnahme vorhanden ist. Wer da einfach so die Höhe verändert, vermatscht zeilenweise abwechselndes Interlacing zu dicken Balken, die sich nicht mehr zurückrechnen lassen. Vereinfacht skaliert man die getrennten Halbbilder auf halbe Höhe und setzt sie danach wieder zusammen; perfektionistisch (^ Didée) muss man da sogar noch ein Bobbing ausgleichen.

  • Es muss immer auf die Urprungsquelle Rücksicht genommen werden.

    Was ohne Probleme klappt,wenn du mit der Kamera in HD zum Bsp.in 25p aufgenommen hast und da den Shutter auf 1/50 eingestellt hast.Feine Linien und auch Details gehen aber beim runterscalieren immer verloren.

    Datenrettungen Normwandlungen Restaurierungen Digitalisierungen

  • LigH:
    Danke für die kompakte und dennoch sehr einleuchtende Darstellung. Etwas recherchiert hatte ich ja schon, habe es aber nicht geschafft, die einzelnen Beiträge so in Zusammenhang zu bringen, dass mir die Antwort selbst klar wurde.
    Spannend finde ich den Effekt des Resizens (you are right!) bei interlaced-Material. So tief hatte ich noch gar nicht über die Problematik nachgedacht.

    Goldwingfahrer:
    Ebenfalls Danke, der Effekt von feinen Details beim Runterskalieren ist so trivial, dass er sogar mir bekannt ist.

    Zusammenfassend:
    Wenn man viel Zeit hat ist das ein schönes Spielfeld zum Experimentieren. Anlass war ein recht triviales Handy-Video ohne Zoom aus dem Urlaub einer Freundin und die Frage ob man das zentrale Motiv ausschneiden kann (oder den unnützen Rand weg bekommt) und das Ganze dann wieder vergrößern kann, so dass es für eine Dia-Show zum gesamten Urlaub zu gebrauchen ist. Neben dem technischen wie (konnte ich eigentlich sofort beantworten) kam aber auch die Frage zur Qualität. Interlaced bzw. Progressiv haben die meisten ja schon mal gehört oder zumindest im Manual gelesen ("Meine Kamera kann aber ...."), was das aber genau bedeutet, wissen die Meisten dann schon nicht mehr und, wie man wieder mal gesehen hat, hab ich auch bestenfalls Halbwissen.
    Ich warte mal ab, bis ich das Video habe und Schneide / Vergrößere es wie gewünscht. Beim Encodieren lasse ist es so, wie es im Quellvideo ist und dann sieht man ja, ob zum Schluss was brauchbares rauskommt. Mehr Aufwand lohnt hier sicher nicht.

    Danke Euch, Thomas

  • Zitat

    Beim Encodieren lasse ist es so, wie es im Quellvideo ist



    so sollte es eigentlich richtig heissen.
    Beim codieren stelle ichs wieder so her, wie es im Quellvideo war.


    Schau mal was in avisynth [Q]GTMC mit interlaced Material zuerst gemacht wird.
    Einzelbilder und dann kannst scalieren wenn willst.
    Anschliessend_
    AssumeTFF().SeparateFields().SelectEvery(4,0,3).Weave()
    [oder BFF je nach Quelle]

    Datenrettungen Normwandlungen Restaurierungen Digitalisierungen

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!