Wiedereinstieg in VHS Digitalisierung (Workflow Check)

  • mrg

    Du hast nicht richtig gelesen...
    Hier im Thread gehts in erster Linie ums Digitalisieren

    Das man hervorragende Ergebnisse mit Avisynth und hochscalieren erreichen kann ist unbestritten,das ist aber eine andere Baustelle und sollte in einem anderen Thread abgehandelt werden.

    Quote

    :ja: Treffer, genau das ist heute der entscheidende Punkt. Viele Profis setzen immer noch auf PAL 50i als Endformat.

    das ist kompletter Unsinn.

    Der Kunde wünscht seine Filme in sauberem unkompr.YUY2 [oder UYVY] Format oder in leicht komprimierten aber immer noch verlustlosem Lagarith.
    Und so bekommt er es auch.
    Was er dann selber mithilfe von Avisynth und Co.erstellt ist dann seine Sache.

    Frank2000 schrieb

    Quote

    Die Frage, die sich mir stellt: Wo (auf welchem Display) soll später das Ergebnis ausgegeben werden?

    Die Qualität einer Arbeit erkennt man nicht am Kontrollmonitor der Postproduktion sondern erst am TV Gerät des Zuschauers.

    Rübezahl schrieb

    Quote

    Bloß keine Wissenschaft daraus machen, es geht auch ohne Kontrollmonitor!


    Komisch ist dass das nur diejenigen schreiben die noch nie weder einen Kontr.Monitor besessen noch mit einem gearbeitet hatten.
    Klar kann man unterschiedlicher Meinung sein,aber doch nicht solchen Unfug schreiben.

    Kontroll-Monitor.jpg

    und jetzt noch was zu Class 1 und Class 2 Monitore........

    Gleichzeitig bei der ganzen Monitor Diskussion muss man bedenken, das selbst im Profi Bereich 2 verschiedene Monitor Modelle vertreten sind, die beide gleichermassen sinnvoll sind, weil sie für zwei unterschiedliche Einsatz Szenarien gebaut sind. Klasse 1 Monitore, die per Definition keine Schärfe Anhebung haben dürfen (wie es jeder Fernseher hat) und sich dadurch in keinster Weise eignen einen Look (eine Farbkorrektur) zu beurteilen, sondern lediglich dazu gedacht sind Fehler aufzuspüren (zumindest vorrangig) und Klasse 2 Monitore, die nicht wie landläufig angenommen Monitore 2ter Wahl sind, sondern die genau diese Schärfe Anhebung haben wie sie in jedem TV stattfindet. Die sind natürlich grundsätzlich geeignet für die Farbkorrektur, aber nicht so dolle wenn es darum geht Fehler im Bild zu entdecken.

    Um sinnvoll eine Farbkorrektur durchzuführen ist es also ungemein wichtiger, ein gleichbleibendes Sichtgerät zu haben, von dem man weiss was es anzeigt, und sein bearbeitetes Zeug selbst auf möglichst vielen Kisten gesehen zu haben um zu wissen was dabei heraus gekommen ist,
    als einen super hyper mega monitor zu besitzen, aber keine ahnung zu haben wie das ergebniss zu deuten ist.

    Der wirklich grosseVvorteil an den Broadcast Kisten ist, das die Streuung relativ gering ist, und wenn ich als Freelancer vor einem Sony PVM in München sitze, der genau so aussieht wie ein PVM in Basel.Ich kann also meine Erfahrungswerte direkt 1:1 übertragen, aber eine wirkliche Referenz zu dem was zu Hause passiert sind beide nicht.Die Referenz ist nur in meinem Kopf und nennt sich Erfahrung.

    Datenrettungen Normwandlungen Restaurierungen Digitalisierungen

    Edited once, last by Goldwingfahrer (January 23, 2016 at 8:43 AM).


  • Komisch ist dass das nur diejenigen schreiben die noch nie weder einen Kontr.Monitor besessen noch mit einem gearbeitet hatten.
    Klar kann man unterschiedlicher Meinung sein,aber doch nicht solchen Unfug schreiben.

    Das ist kein Unfug, sondern einfach das Resultat von dem, wieviel Platz für das Hobby vorhanden ist und wieviel dafür aus der Haushaltskasse übrigbleibt.
    Es wird die meisten betreffen.


    Wenn man wirklich das letzte Quentchen aus seinen alten VHS, S-VHS, Hi8 usw. Videos beim digitalisieren rausholen will, sollte man sich an einen Profi wenden und ihm das machen lassen..



    Die Qualität einer Arbeit erkennt man nicht am Kontrollmonitor der Postproduktion sondern erst am TV Gerät des Zuschauers.

    Na also, geht doch! :cool:

  • Quote from Goldwingfahrer


    Der Kunde wünscht seine Filme in sauberem unkompr.YUY2 [oder UYVY] Format oder in leicht komprimierten aber immer noch verlustlosem Lagarith.
    Und so bekommt er es auch.

    Jetzt würde mich als Laie mal interessieren der Unterschied zwischen YUV und RGB beim digitalisieren. Warum ist es besser im Format YUV zu capturen? Verlustlos - ist klar, aber der Farbraum. Was für Nachteile hat RGB gegenüber YUV?

    Quote

    ...... sondern erst am TV Gerät des Zuschauers.

    ... und die TV's heutzutage sind doch in aller Regel RGB-basiert (LCD,TFT)

    Edited once, last by frank2000 (January 23, 2016 at 10:20 AM).

  • Oh je, wenn du noch nicht mal die Vorteile von YUV gegenüber RGB kennst, dann hast du dich aber wirklich noch nie mit den Grundlagen analoger und digitaler Videosignale beschäftigt ... und zumindest die Ära analoger Videosignal-Speicherung bzw. -Übertragung geht ja nun mittlerweile fast vorbei!

    Es gibt da sicherlich reichlich ausführliche und anschauliche Erklärungen, die gehören alle gar nicht mehr hier in diesen Beitrag; nur eine kurze Zusammenfassung: Der YUV-Farbraum im Allgemeinen (es gibt da verschiedene konkrete Varianten) basiert auf der Tatsache, dass der Mensch in seinem Auge in der Netzhaut sowohl lichtempfindliche als auch farbempfindliche Sinneszellen hat (Fotorezeptoren: Stäbchen und Zapfen). Die lichtempfindlichen Stäbchen sind deutlich häufiger und grundsätzlich empfindlicher (daher sind "nachts alle Katzen grau", weil das Farbempfinden nur mit ausreichend Licht zuverlässig funktioniert). Die Zapfen gibt es zwar in drei Varianten, analog den Farbbereichen im RGB-Raum, aber die Farbigkeit spielt v.a. bei der Erkennung von Objekten und ihren Grenzen (Kanten) eine geringere Rolle als die Helligkeit.

    Aus dem RGB-Farbraum, der für PC-Bildschirme und für Kameras mit Sensoren für drei Wellenlängenbereiche zunächst technisch naheliegend ist, lässt sich – bis auf Rundungsfehler wegen geringer Auflösung von oft nur 8 bit pro Komponente – theoretisch verlustfrei in YUV umrechnen. Dabei enthält die Komponente Y (Luminanz) in voller Auflösung die gewichtete Helligkeit, entsprechend dem psychologischen Helligkeitsempfinden bei der Farbwahrnehmung des Menschen (gelbe und grüne Anteile wirken stärker, blaue und tiefrote schwächer auf die gesamte Helligkeit).

    Der Farbton und die Farbsättigung (Chrominanz) sind für den Eindruck des Gesehenen weniger wichtig, diese werden daher mit geringerer Auflösung gespeichert, das spart erheblich Speicherplatz und sieht nur unmerklich undeutlicher aus. Dafür genügen "Farbdifferenzwerte", also Abweichungen von grau, einerseits in Richtung blau oder gelb (Komponente Cb bzw. U), andererseits in Richtung rot oder grün (Komponente Cr bzw. V). Da in der Natur sehr satte Farben eher selten vorkommen, sind die Differenzen "von grau weg" bei gedeckten Farben eher klein, lassen sich so also gut komprimieren. Auch in der analogen Übertragung (z.B. getrennt per S-Video-Kabel, oder frequenzmoduliert per Composite/FBAS) wird die Luminanz meist bevorzugt, die Chrominanzwerte dagegen werden paarweise mit Hilfstechniken wie Spannungsdifferenzen und Phasenlagen übertragen, was deren Genauigkeit einschränkt.

    Digital lassen sich Videosignale in einem YUV-Basis-Farbraum und mit "Chroma-Subsampling" besser komprimieren und platzsparender speichern bzw. übertragen als im RGB-Farbraum; zur Darstellung auf einem RGB-basierten Monitor ist das Zurückrechnen eine Kleinigkeit. Wenn allerdings die Kompression mit verlustbehafteten Technologien (z.B. MJPG, DV, MPEG-1/2/4) zu verlustreich war, merkt man dann die Fehler bei der Quantisierung eventuell an Streifenbildung in sehr sanften Verläufen. Bei verlustlosen Verfahren (Huffyuv, Lagarith usw.) kann es lediglich die Rundungsfehler durch die Begrenzung auf 8 bit pro Komponente geben, wodurch statt 256 Abstufungen dann vielleicht ein paar weniger bleiben, also ab und zu mal ein Sprung von 2 bit passiert. Schon minimales Rauschen in der Quelle dürfte das aber gut kaschieren.

    tl;dr: RGB ist für die Anzeige optimal, YUV für das Speichern und Übertragen

    Auf gute Zusammenarbeit:

    REGELN befolgen | SUCHE benutzen | FAQ lesen | STICKIES beachten

    Edited 8 times, last by LigH (January 23, 2016 at 2:59 PM).

  • Oh je, wenn du noch nicht mal die Vorteile von YUV gegenüber RGB kennst, dann hast du dich aber wirklich noch nie mit den Grundlagen analoger und digitaler Videosignale beschäftigt ... und zumindest die Ära analoger Videosignal-Speicherung bzw. -Übertragung geht ja nun mittlerweile fast vorbei!

    Deswegen habe ich Laie ja unterstrichen.
    Schön erklärt.... Danke!!!
    Mit Videobearbeitung hab ich mich schon beschäftigt, um die Farbcodierung habe ich mich da aber nie gekümmert. Nun bin ich wieder 'n bissle schlauer..... ;)
    Habe seiner Zeit (Ende 80'er Anfang 90'er) mir mal eine Capturekarte gebaut. Da bin ich aber hingegangen und hab die 3 Farben (Ausgang vom PAL-Decoder(TDA3561)) einzeln gespeichert, hatte somit das Bild als RGB vorliegen.

    Zur Comprimierung beim capturen: mit MediaExpress geht avi8bitYVU (75GB pro Stunde). Lagarith (ca. 28GB pro Stunde) geht dort nicht auszuwählen. Wohl aber mit VDub. Was für Einschränkungen hab ich, wenn ich statt mit MediaExpress nun mit VDub capture?

    Edited 2 times, last by frank2000 (January 23, 2016 at 11:15 PM).

  • Was für Einschränkungen hab ich, wenn ich statt mit MediaExpress nun mit VDub capture?

    Wenn du VirtualDub nimmst, wird empfohlen vor (und optional auch nach) jedem Capture einen Sync-Test ins Capture aufzunehmen, da laut Gubel (und meiner eigenen Erfahrung) bei der Verwendung von VirtualDub mit der Intensity bei jedem Capture am Anfang ein kleiner Delay des Audios auftritt, der bei jedem Capture unterschiedlich ist. Außerdem würdest du mit dem Sync-Test auch den kleinen ebenfalls jedes Mal unterschiedlichen Audio-Delay, der vom DMR selbst erzeugt wird, ausmerzen (letzterer tritt also auch über MediaExpress auf). Beide sind für sich eigentlich zu vernachlässigen, aber können sich in ungünstigeren Fällen addieren.

    Ich selbst benutzte nur VirtualDub und mache bei jedem Capture einen Sync-Test.


    Ich zitiere mal Gubel

    Inzwischen habe ich auch die Sache mit dem Sync-Test weiter perfektioniert:
    Ich stelle einen einfachen DVD-Player mit der Schwarz-Weiß-Test-DVD nebendran (hier benutze ich gerade den ES10 dafür). Dort muss man dann 2x ein Videosignal abgreifen (benutze hier 1x den FBAS-Cinch und einmal den Y-Komponent). Das kommt dann auf die Front-AVs vom VHS-Recorder (1x auf Video und 1x auf Audio). Mit einem Doppelstecker geht es natürlich auch.
    Der VHS wird auf den Front-AV-Eingang gestellt, d.h. bevor ich die Kassette starte, geht das Testsignal vom DVDP automatisch durch auf den EH585.

    Genauso mache ich es auch (allerdings mit Doppelstecker/Y-Kabel am Composite-Ausgang eines beliebigen DVD-Players). Mehraufwand durch den Sync-Test: minimal.

    Edited 5 times, last by Skiller (January 24, 2016 at 12:58 PM).

  • naja, Tonversatz kann man auch in der Nachbearbeitung wieder anpassen, sehe ich daher nicht ganz so krittisch. Sozusagen kein K.O.-Kriterium.... Ich werd wohl dann VDub zum capturen nehmen, durch Lagarith wird die Platte nicht ganz so schnell voll.....

    Edited once, last by frank2000 (January 24, 2016 at 3:45 PM).

  • naja, Tonversatz kann man auch in der Nachbearbeitung wieder anpassen, sehe ich daher nicht ganz so krittisch.

    Grob...ja. Ich behaupte mal, wenn man sich Mühe gibt, könnte man es auf etwa 100 Millisekunden genau bekommen, nachdem man minutenlang rumfrickelt und eine geeignete Stelle im Capture gefunden hat, aber genau (also nahezu 0 Millisekunden) kann man das ohne Sync-Test nicht anpassen.

    Und so groß sind die beiden Delays nicht, um die es gerade geht, dass man das "blind" ohne Sync-Test im Capture korrigieren könnte. Dann kannst du es auch ganz ignorieren. Das sind bei mir immer so +50 bis +120 Millisekunden, also meiner Meinung nach – auch weil der Ton voreilt – durchaus bemerkbar. Daher nie ohne Sync-Test.
    Es nachträglich "blind" zu korrigieren ist ungenau und dürfte auch länger dauern als den Sync-Test mitzucapturen und daran den Delay abzulesen.

    Edited 6 times, last by Skiller (January 25, 2016 at 1:43 AM).

  • Dabei kann u.U. VisualSubSync helfen, das stellt Bild und Ton (als Waveform) parallel dar, um daran Untertitel zu synchronisieren, aber das kann auch schon helfen, asynchrone Tonspuren relativ zum Video zu "sehen". Das allerdings nur laut Multiplexing. Ob es beim Heimkino-System auch noch Verzögerungen gibt, ist wieder ein ganz anderes Thema.

    Und in AviSynth wird sicherlich das Histogram() in verschiedenen Modi helfen, z.B. mit der überblendeten Pegelanzeige.

  • Grob...ja. Ich behaupte mal, wenn man sich Mühe gibt, könnte man es auf etwa 100 Millisekunden genau bekommen, nachdem man minutenlang rumfrickelt und eine geeignete Stelle im Capture gefunden hat, aber genau (also nahezu 0 Millisekunden) kann man das ohne Sync-Test nicht anpassen.

    Und so groß sind die beiden Delays nicht, um die es gerade geht, dass man das "blind" ohne Sync-Test im Capture korrigieren könnte. Dann kannst du es auch ganz ignorieren. Das sind bei mir immer so +50 bis +120 Millisekunden, also meiner Meinung nach – auch weil der Ton voreilt – durchaus bemerkbar. Daher nie ohne Sync-Test.
    Es nachträglich "blind" zu korrigieren ist ungenau und dürfte auch länger dauern als den Sync-Test mitzucapturen und daran den Delay abzulesen.

    Der Nachteil (naja, "Nachteil" ist wohl etwas übertrieben) bei der Methode den Synctest mit capturen ist dann, daß man bei der Bearbeitung dieses Stück dann wieder raus schneiden muß. Aber egal, ist natürlich schon eine gute Methode. Da das Video zum Schluß 50p sein wird, nicht kommerziell weiterverwendet wird (wo es dann wohl wirklich auf Millisekunden Synchronität ankommt), sondern eher für den privaten Gebrauch gedacht ist, denke ich mal, daß man den Tonversatz auch so gut korrigieren kann (auf 20 ms genau bei 50 Frames pro sec.), nämlich bei Scenenwechsel (neue Szene -> neuer Ton (das sieht man dann auch an der Wellenform)). Ich werd es probieren..... Ich denke dann auch, daß alles was unter 20 oder 40 ms Tonversatz ist, wird man beim Späteren Anschauen nicht merken, zumal der Originalton sowieso zumeist hinterlegt wird mit Zusätzen wie Musik etc.....

Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!