VHS-Material mit VirtualDub / StaxRip restaurieren (filtern per VDF / AviSynth)

  • Zitat

    Ich habe gestern Abend festgestellt, das ich den Röhrenmonitor doch für meinen anderen PC brauche.

    Hänge beide PCs an einen KVM.
    Hab selber mehrere davon,aktiv zurzeit einen 4fachen aber mit Duallink und Audio.
    Den Röhrenmoni würde ich,wie Dir schon früher empfohlen,als Bildkontrolle einsetzen.

    Gleichzeitig wird das Signal ab der TL an das Röhrending geleitet.
    Ist die Bildfolge flüssig..ists okay...ansonsten umstellen.

    Das Folgende kann ich mir demzufolge sparen

    Zitat

    Mit "AssumeBFF().Bob()" oder "AssumeTFF().Bob()" kann ich doch mein Aufgenommens Video hinterher überprüfen ob es BFF oder TFF ist...

    Man braucht ja eh ein Röhrending weil der PC Moni die Farben nicht so anzeigt wie ein Flach-Moni.
    Mein EIZO SX habe ich geeicht,Spyder 3......aber nebendran ist der Kontr.Moni......Unterschied ist immer noch sichtbar.

    Zitat

    Laut der AviSynth Video Information ist es "BFF"

    Avisynth arbeitet intern in BFF.
    Wie die Box 500 wie auch die 700er capturt,weisst Du ja inzwischen,habs ja genug gepredigt.

    Zitat

    Aber so wie ich das verstanden habe, gibt es doch auch fälle wo BFF flüssig läuft


    Ja...wenns Material ab Mini-DV Band [PAL+NTSC] auf den PC eingelesen werden...das ist immer BFF.

    Datenrettungen Normwandlungen Restaurierungen Digitalisierungen

  • Nun ja ... was könnte Goldwingfahrer auszusetzen haben, v.a. an preiswerten Modellen: Farbtreue, Blickwinkelstabilität, Gammakurve, Kalibrierbarkeit ... aber grundsätzlich haben ein Röhren-PC-Monitor und ein LCD-PC-Monitor eines gemeinsam: Im Gegensatz zu einem Röhren-Fernsehbildschirm stellen sie das Bild üblicherweise progressiv dar, nicht interlaced. Deshalb sieht man am PC-Monitor auch die Streifen, weil die Halbbilder zur selben Zeit dargestellt werden, nicht zeitlich nacheinander. Für die Nacheinander-Darstellung am PC sorgt der AviSynth-Filter Bob() in den Test-Skripten.


    Zurück zu meinem Problem wo ich mir unsicher bin...

    Laut der AviSynth Video Information ist es "BFF"
    ...

    Also hat sich doch die AviSynth Video Information total verschätzt und TFF ist in diesem fall richitg?

    :daumen: Korrekt erkannt!

    AviSource() hat gar keine Möglichkeit, aus dem AVI irgendwie herauszulesen, ob es TFF oder BFF ist. Es hat keine Ahnung. Einen von beiden Werten muss es aber erst mal vorgeben. Und das einzige Video-Format in AVI-Containern, bei dem das halbwegs zuverlässig ist, ist DV – das hat BFF.

    Und ich muss doch dem DeInterlacer mitteilen was flüssig läuft.

    Richtig. Du musst das deshalb selber tun, weil AviSource() keine Ahnung hat.

    Ein Decoder wie MPEG2Source() hätte im Gegensatz zu AviSource() durchaus die Möglichkeit, aus dem Videostream herauszulesen, wie der MPEG2-Encoder eingestellt war, und könnte das an AviSynth weitergeben. Dann könnte sich nur noch der Encoding-Mitarbeiter geirrt haben... also auch hier wäre manuelles Testen nicht pauschal überflüssig.

  • Den Röhrenmoni würde ich,wie Dir schon früher empfohlen,als Bildkontrolle einsetzen.

    Ich vorhin beim Nachbar gewesen, der wiederum noch einen alten Röhrenmonitor im Keller rumstehen gehabt hat, der jetzt mir gehört :)
    Es ist ein: Smile CA1718 Röhrenmonitor ( 15 zoll )
    So sieht er aus: http://www.ebay.de/itm/Smile-15-F…=item35c3114cd4
    Ein einziger ist bei Ebay drin.

    Taugt der Smile CA1718 was?

    Ich habe den Flachbildschirm gestern Abend nur kurz getauscht, da er bestimmte Bild Bereiche von meinem Flachbett Scanner nicht darstellen konnte!
    Es war ein Schwarz / Weißes CD Cover wo ich die Außenränder nicht sehen konnte.
    Mein Röhrenmonitor: Samsung SyncMaster 1100p kann alles darstellen was ich mit meinem Flachbett Scanner einscanne ( einfach Göttlich )
    Nun habe ich ja 2 Röhrenmonitore!

    Ich versteh die Leute nicht, die keine Röhrenmonitore mehr haben wollen ( Nur wegen dem Platzverbrauch )
    Ein guter Bekannter von mir hat noch einen alten Amiga 500 Röhrenmonitor von 1987 der bis heute läuft und auch funktioniert!!
    Das nenne ich mal Qualität :) Bestimmt: Made in Japan, beste Materialien! Wenn es Made in Germany gewesen wäre, wäre es für die Ewigkeit bestimmt ;)
    Ein Beispiel habe ich:

    Code
    [URL]http://www.bhkw-infozentrum.de/links/kurios_gluehbirne.html[/URL]

    Das ist für Ewigkeit :)
    Sie wird noch weitere 100 Jahre leuchten...
    Und heute zu Tage heißt es: Made in China, nach 2 Jahren ist alles kaputt.



    Gleichzeitig wird das Signal ab der TL an das Röhrending geleitet.
    Ist die Bildfolge flüssig..ists okay...ansonsten umstellen.

    Diesen Punkt verstehe ich leider nicht :(
    Ich arbeite jetzt weiterhin mit einem Röhrenmonitor an meinen Video PC.

    Punkt 1.) Ich nehme ein VHS oder Camcorder Video mit der Pinnacle USB-Box 500 auf ( Lagarith YUV2 )
    Das Bild ist beim Capturen flüssig ( das kann es nicht sein oder? )

    Punkt 2.) Nach dem das Video aufgezeichnet worden ist, gehe ich hin und verlasse den Capture Modus und sehe mir das Video in VirtualDub an...
    Muss ich oben in der Menüleiste irgendwo was umstellen?

    Wie meinst du das genau?


    Man braucht ja eh ein Röhrending weil der PC Moni die Farben nicht so anzeigt wie ein Flach-Moni.

    Ich kann mir das so vorstellen: Ein Video in VirtualDub öffnen und beim KVM zwischen Röhren und Flachbildmonitor switchen um die Bilder zu vergleichen!



    Mein EIZO SX habe ich geeicht,Spyder 3......aber nebendran ist der Kontr.Moni......Unterschied ist immer noch sichtbar.

    Wie groß sind denn die Unterschiede zwischen einem guten PC Röhrenmonitor und einem Kontrollmonitor?



    Avisynth arbeitet intern in BFF.
    Wie die Box 500 wie auch die 700er capturt,weisst Du ja inzwischen,habs ja genug gepredigt.

    Ja die Pinnacle USB-Box 500 zeichnet die Videos immer als Interlaced im oberen Halbbild auf.
    Das heißt doch dann, das ich immer TFF habe!
    Ich verstehe leider nicht, was ich dann noch genau kontrollieren soll?
    Zum DeInterlacen kann ich ja dann für immer und ewig diese Script hier verwenden?
    Ausser ich kauf mir mal eine andere Capture Karte oder ein DV dingsbums da...

    Code
    AVISource("V:\VHS\Camcorder Aufnahme 123.avi") 
    AssumeTFF() 
    ConvertToYV12(interlaced=true) 
    QTGMC(Preset="Slow") 
    SelectEven()


    Ja...wenns Material ab Mini-DV Band [PAL+NTSC] auf den PC eingelesen werden...das ist immer BFF.

    Und dann benutzt man beim DeInterlacen: AssumeBFF() + ConvertToYV12(interlaced=true)


    aber grundsätzlich haben ein Röhren-PC-Monitor und ein LCD-PC-Monitor eines gemeinsam: Im Gegensatz zu einem Röhren-Fernsehbildschirm stellen sie das Bild üblicherweise progressiv dar, nicht interlaced. Deshalb sieht man am PC-Monitor auch die Streifen, weil die Halbbilder zur selben Zeit dargestellt werden, nicht zeitlich nacheinander. Für die Nacheinander-Darstellung am PC sorgt der AviSynth-Filter Bob() in den Test-Skripten.

    Ich habe einen alte Röhren Fernsehbildschirm von Panasonic ( aber leider nur mit einem einzigen SCART eingang ) und vorne am Fernseher kann man per Gelb, Weiss, Rot ( FBAS ) reingehen.
    Vorlanger Zeit habe ich mal die Grafikkarte von meinen PC mit meinem Fernseher über einen SCART Adapter verbunden!
    Mit dem Programm: TV Tool konnte ich dann umschalten zwischen PC Monitor & Fernseher
    Die maximale Auflösung an meinem Fernseher ist: 800x600 (mehr ist wirklich nicht drin) + 50 HZ. Aber immer hin: Alles war in Farbe :)
    Ich könnte den Aufwand ja noch mal betreiben... ( Nur ich muss den Unterschied auch erkennen können )

  • Heutzutage heißt das: "Geplante Obsoleszenz". Oder auch Murks – nein danke!

    Genau so heißt der Fachbegriff.
    Kennst du die Dokumentation: Kaufen für die Müllhalde? ( Eine Richtige geile Dokumentation )

    Kann man sich aktuell noch auf YouTube anschauen:

    Code
    [URL]http://www.youtube.com/watch?v=zVFZ4Ocz4VA[/URL]

    Jetzt weiß ich aufjedenfall, was ich mir gleich noch vor dem Schlafen gehen... anschauen werde


    Nach dem Capturen wird hier demuxt und Bild und Ton sep.restauriert.[Avisynth und Wavelab]

    Hab jetzt mal meine Liste aktualisiert:

    1.) Auswahl des Richtigen Zuspielers für das jeweilige VHS oder Camcorder Band
    2.) VHS oder Camcorder Material per VirtualDub capturen mit der Pinnacle USB-Box 500 als Verlustfreie AVI Datei ( Lagarith YUV 2 )
    3.) Nach dem das Video aufgezeichnet worden ist, gehe ich hin und verlasse den Capture Modus und öffne nun das Aufgenommene Video in VirtualDub.
    4.) Per "File Info" tue ich die Aufnahme kontrollieren --> http://img.xrmb2.net/images/501095.png
    5.) Jetzt wird das Aufgenommene Video per "DirectStreamCopy" geschnitten ( meisten am Anfang und am Ende )

    Und jetzt kommt der Punkt den ich euch eigentlich die Tage erst fragen wollte:

    6.) Die Audiospur vom Video trennen ( DeMuxxen )

    Ich weiß, wenn ich das Video nun mit dem Programm: StaxRip öffne,
    das StaxRip das Video automatisch in einem neuen Ordner deMuxxen tut!
    Hab dann eine große *.WAV Datei und verschiedene *.avs Dateien...

    Diese WAV Datei kann ich ja auch ganz zum Schluß wieder hinzufügen, wenn das Video fertig gefiltert ist..?

    Tut ihr die Audispur direkt per "DirektStreamCopy" in VirtualDub trennen? ( Ich glaube, das müsste per AviSynth script gehen? )


    anschliessend beide Streams auf die TL von Edius.Überprüft,vielleicht noch etwas geschnitten.

    Das Programm: Edius habe ich ja nicht.



    beispiel:
    Ich lege ein gecapturtes File [USB Box 500] auf die TL und klicke auf Play......nun ruckelt die Bildfolge am Kontr.Moni......In Edius auf Bildeigenschaften geklickt,wird mir unteres Halbbild angezeigt...schwupps auf oberes Halbbild gestellt und wieder auf Play gedrückt.......jetzt ists okay.

    Und das kann ich auch in VirtualDub einstellen?



    Nun gehts entweder direkt in mpeg2 [höhere Datenrate als DVD konform,wird ja an Stehallein-Mediaplayer zumeist abgespielt,oder direkt auf DVD gebrannt,ab der Timeline..oder auch ab TL direkt zu MP4]

    Du tust direkt in einem Rutsch das Video filtern + komprimieren ins gewünschte Endzielformat: z.B. MPEG2, MP4...
    Das möchte ich ja nicht machen!
    Ich möchte die Verlustfreie AVI Datei ( Lagarith YUV2 ) noch weiter bearbeiten!
    Erstmal von "Lagarith YUV2 Interlaced" zu "Lagarith YV12 Progressiv" per QTGMC. ( Fast Recompress )
    Mit der neuen Verlustfreien AVI soll es dann "schritt für schritt" im Baukastensystem vorgegangen werden:

    z.B.

    1.) DeInterlacen mit QTGMC --> ( Neue Verlustfreie AVI Datei wird angelegt )
    2.) Rauschfilter --> ( Neue Verlustfreie AVI Datei wird angelegt )
    3.) Schärfe --> ( Neue Verlustfreie AVI Datei wird angelegt )
    4.) ein wenig Farbe --> ( Neue Verlustfreie AVI Datei wird angelegt )
    5.) etc.. --> ( Neue Verlustfreie AVI Datei wird angelegt )

    Das ist zwar sehr Zeitaufwendig und kompliziert aber ich möchte gerne "schritt für schritt" die einzelnen AviSynth Filter kennenlernen...
    Und hinterher nach ein paar Monaten ( hoffe das ich dann mit AviSynth besser umgehen kann ) alles in einem Rutsch machen.

    Oder hast du für mich ein fertiges AviSynt Script inkl. QTGMC, Rauschfilter, etwas Schärfe, etwas Farbe auffrischen etc...
    was ich in einem Rutsch mal ausprobieren könnte?

    Am besten eins was zu dieser Camcorder Aufnahme passen würde:

    Code
    [URL]http://www.file-upload.net/download-6976841/Camcorder-Aufnahme-Test123.avi.html[/URL]

    Das würde mich echt mal interessieren wie es vom Experten gefiltert ausehen tut :)
    Vielen Dank im vorraus :)

    So kann ich den Camcorder und die 8 Bänder meinem Kollegen nächste Woche schon zurückgeben. ( Hab die Sachen ja schon über 7 Monate hier liegen )
    Ich mache das aus Freundschaft und bekomm nix dafür ( höchstens ein paar Bierchen beim gemütlichen zusammensitzen :)



    das heisst Du könntest da einen ADVC110 anschliessen und von diesem das Signal an einen kleinen TV leiten,der sollte aber keine "Bildverbesserungen" aufweisen und natürlich die Möglichkeit bieten...umzuschalten Overscan/Underscan.

    Was passiert denn, wenn ich diese möglichkeiten mit dem Overscan/Underscan zum umschalten nicht habe?



    ...kontrollieren......ich meinte wenn Du den Stream in einem Videobearbeitungsprogramm auf die Timeline legst dass dann das Programm statt TFF ...den Stream als BFF erkennt.

    Laut der AviSynth Video Information wird es doch als "BFF" erkannt
    Und wenn ich folgendes Script benutze, läuft es flüssig als TFF.

    Camcorder Aufnahme 123 - AviSynth - Interlacing TFF testing.avs --> Hier läuft das Video flüssig ab ( Vor-Vor-Vor-Vor )

    Code
    AVISource("V:\VHS\Camcorder Aufnahme 123.avi")
    AssumeTFF().Bob()

    Heißt das, ich kann erst weiter arbeiten / filtern wenn ich dieses Overscan/Underscan umschalten kann?

    Ehrlich, ich verstehe es wirklich nicht, wie Ihr das meint :(
    Ich versuche es ja schon so gut wie es geht zu erklären..



    Auch noch wichtig.......vor dem Capturen mit der besagten Box [gilt eigentlich immer auch bei teureren Capturekarten oder --Boxen]...geht das gleiche Signal,Y/C oder per FBAS vom Zuspieler auch an den Kontr.Moni..oder in Deinem Fall,an den TV 50 Hz...hier lasse ich den Film mal laufen und schaue wie die Farbigkeit,Farbversatz,head switch Noise aussieht und ob das Bild clippt.

    Geht das denn nicht, wenn man den Videorecorder direkt am Fernseher anschließen tut, um zu schauen wie das Bild ist und danach die Kabel in die Pinnacle USB-Box 500 stöbseln?



    An den meisten Zuspielern kann ich dann die Farbigkeit etwas anpassen,wie auch den Farbversatz und den Helligkeitswert,ab und zu nach eingesetztem zuspieler auch gleich den unteren Head switch Noise abdecken.

    Dafür habe ich ja an allen meinen S-VHS Zuspielern den "Edit Mode" Passiv schalter

    [Blockierte Grafik: http://img.xrmb2.net/images/442667.png]



    Für das Letztere gibts aber auch Zwischengeräte,Filter im Videobearb.Programm oder halt Avisynth.

    Als Zwischengerät habe ich doch den ES10 als TBC ersatz.
    Und die Verbesserungen wollte ich mit AviSynth machen :)



    Sollte ausreichen...schau aber trotzdem ob der Scartanschluss ev.doch Y/C akzeptiert.

    Ja, per S-Video im SCART Adapter ist das Bild nur Schwarz / Weiß :(



    Sollte ausreichen...50 Hz ist gut und richtig für unsere Capturearbeiten.Ich will ja da nicht das ganze Bild wie am PC-Moni haben sondern nur das eigentliche Bild vom Stream.

    Das könnte ich mit FBAS in Farbe hinbekommen.
    Muss mal schauen wie das mit dem TV Tool heute zu Tage funktioniert ( Damals war es eine fummel arbeit um das Bild vernüftig auf dem Fernseher zu switchen )

    3 Mal editiert, zuletzt von H264x (6. Januar 2013 um 13:21)

  • Zitat

    Als Zwischengerät habe ich doch den ES10 als TBC ersatz.


    Das ist nur ein einfacher "Bildstabilisator" und nicht zu vergleichen mit
    [Blockierte Grafik: http://img51.imageshack.us/img51/1954/tbccontrol.jpg]

    Rest aus obigem Beitrag habe ich gelöscht,Du interpretierst falsch.

    Zitat

    ;D Hach, ist AviSynth schön...


    Einverstanden

    BeHappy war bekannt,

    Zitat

    ......direkt an einen Audio-Encoder zu leiten,


    Zum Probehören und "feinjustieren" der benötigten Filter muss nun mal ne Wav Datei vorliegen,das geht nicht ohne.
    Auch fürs eigentliche Bild gilt...es muss zur Kontrolle sichtbar sein,wie soll man denn den Farbversatz,die Schärfe,Sättigung usw.
    beurteilen und anpassen können.Waveformmonitor [exakt=Wellenformmonitor]und Vectorscop gibts nicht nur als externe Geräte
    sondern auch in besseren Videobearb.Programme.

    Nachtrag:
    Eine Farbkorrektur wird, falls erforderlich, anhand von zwei Kriterien durchgeführt. Das subjektive Kriterium, also die Kontrolle am laufenden Bildsignal, erfolgt an einem kalibrierten Röhren-Videomonitor von JVC Professional, welcher regelmäßig über Blue-Check Testbilder kontrolliert und gegebenenfalls kalibriert wird. Die noch viel wichtigere objektive Kontrolle erfolgt über Waveform-Monitor und Vectorscope. Im Optimalfall besitzt das Quellmedium einen Testvorspann mit EBU-Colorbars, dann ist die Farbeinstellung in jedem Falle verlässlich. Sollten sich auf dem Quellmedium keine EBU-Bars finden, können immer noch die Einhaltung der maximalen Schwarz- und Weißwerte sowie der maximalen Farbintensität überprüft werden.

    Genauso stehts auch hier bei Volker S.
    http://www.vs-mediendienste.de/index.php?lang=de&page=ingest

    Datenrettungen Normwandlungen Restaurierungen Digitalisierungen

    Einmal editiert, zuletzt von Goldwingfahrer (6. Januar 2013 um 11:36)

  • Rest aus obigem Beitrag habe ich gelöscht,Du interpretierst falsch.

    Ich stecke wirklich an diesem Punkt hier fest und ich verstehe es einfach nicht :(


    H264x.....schau dass Du immer im "oberen" Halbbild bleibst in Avisynth,so capturt die Box 500.
    Zur Bildkontrolle hast Du ja zusätzlich einen Röhrenmoni.
    An einem PC Moni kannst die Kontrolle vergessen.

    Nun ja ... was könnte Goldwingfahrer auszusetzen haben, v.a. an preiswerten Modellen: Farbtreue, Blickwinkelstabilität, Gammakurve, Kalibrierbarkeit ... aber grundsätzlich haben ein Röhren-PC-Monitor und ein LCD-PC-Monitor eines gemeinsam: Im Gegensatz zu einem Röhren-Fernsehbildschirm stellen sie das Bild üblicherweise progressiv dar, nicht interlaced. Deshalb sieht man am PC-Monitor auch die Streifen, weil die Halbbilder zur selben Zeit dargestellt werden, nicht zeitlich nacheinander.


    Soweit ich das sehe, vermutlich richtig... Zwischen TFF oder BFF gibt es soweit keine wesentlichen problematischen Unterschiede, das ist aber auch nachvollziehbar, wenn du verstanden hast, "in Halbbildern zu denken", wie die Kamera arbeitet, wie ein Röhrenfernsehbildschirm arbeitet, und wie das "Verweben" – AviSynth-Funktion "Weave()" – funktioniert..

    Das könnte es jetzt sein!
    Wenn ich mir jetzt das Aufgenommene Video auf einen Kontrollmonitor oder Röhrenfernseher anschauen würde, anstatt auf einen PC Monitor
    sieht man diese "schlieren" im Bild nicht mehr, http://upload.wikimedia.org/wikipedia/comm…ar_wheel%29.jpg
    weil es nur auf einem Kontrollmonitor oder Röhrenfernseher so gesehen Progressiv ( klar und deutlich ) dargestellt wird.

    Ich versuch es mal so zu erklären:

    PC Röhrenmonitor + LCD Monitor = Sie können das Bild nur Progressiv darstellen
    PC Röhrenmonitor + LCD Monitor = Man sieht anhand von "schlieren" (streifen) im Bild --> http://upload.wikimedia.org/wikipedia/comm…ar_wheel%29.jpg das es sich sofort um Interlaced Material handelt.
    PC Röhrenmonitor + LCD Monitor = Progressives Material kann man sofort erkennen da die Bilder klar und deutlich sind

    Kontrollmonitor + Röhren Fernseher = Sie können das Bild nur Interlaced darstellen ( aber man sieht keine "schlieren" (streifen)
    Kontrollmonitor + Röhren Fernseher = Man sieht das Interlaced Material als Progressiv an, weil man es mit dem bloßen Auge nicht erkennen kann
    Auf einem PC Röhrenmonitor + LCD Monitor = Man sieht dann die "schlieren" (streifen) im Bild

    So kann man bei "Interlaced Material" auf einem Kontrollmonitor oder Röhrenfernser von Anfang besser erkennen was noch zu tun ist...

    Oder liege ich da jetzt komplett falsch?
    Ich veräppel euch nicht, nur ich Raff das wirklich nicht...



    Avisynth arbeitet intern in BFF.

    Jetzt versuch ich es mal so zu erklären:
    Das heißt also AviSynth arbeitet immer in BFF nach diesem Schema = Ruckelne Bilder ( Vor-zurück-Vor-zurück ) ?

    Für die Nacheinander-Darstellung am PC sorgt der AviSynth-Filter Bob() in den Test-Skripten.

    Hiermit:

    Code
    AVISource("V:\VHS\Camcorder Aufnahme 123.avi")
    AssumeTFF().Bob()


    das ist aber auch nachvollziehbar, wenn du verstanden hast, "in Halbbildern zu denken", wie die Kamera arbeitet, wie ein Röhrenfernsehbildschirm arbeitet, und wie das "Verweben" – AviSynth-Funktion "Weave()" – funktioniert..

    Da fällt mir ein Beispiel zu ein :)
    Habe gerade dieses Bild bei Google gefunden:

    http://icrontic.com/images/draco/a…_interlaced.jpg

    Stellt euch vor dieses Bild ist auf einem Röhrenfernseher eigentlich klar und deutlich zu erkennen ohne streifen!
    Wenn ich jetzt meine Digitalcamera nehme und ein Foto vom Röhrenfernseher mache, enstehen solche Bilder mit Streifen im Foto.
    Ich bekomm mit meiner Digitalcamera vielleicht alle 20 Versuche ein klares Bild zustande, wenn ich mal eins erwische, wo die Streifen einen kurzen Moment verschwunden sind...
    Mit dem bloßen Auge kann man das auf dem Röhrenfernseher nicht erkennen!
    Das sieht man dann, wenn man sich die Fotos von der Digitalcamera anschaut.

    Einmal editiert, zuletzt von H264x (6. Januar 2013 um 21:16)

  • Hallo LigH,

    du hattest ja folgendes geschrieben gehabt..

    das ist aber auch nachvollziehbar, wenn du verstanden hast, "in Halbbildern zu denken", wie die Kamera arbeitet, wie ein Röhrenfernsehbildschirm arbeitet,

    Mir fällt dazu nur das beispiel mit der Digitalcamera ein:
    Ich hatte vor langer Zeit mal versucht gehabt, ein paar Schnappschüsse mit meiner Digitalcamera von meinem Röhrenfernser zu machen!
    Warum?
    Ich wollte auf die schnelle ein Kochrezept abfotografieren was gerade in einer Fernsehsendung lief..
    Und dabei sind dann solche Linien auf den Fotos entstanden... ( Siehe Beispiel Bild )

    http://icrontic.com/images/draco/a…_interlaced.jpg

    Ich musste ca. 20 Fotos hintereinnander mit meiner Digitalcamera machen um mal ein Bild zu erwischen, was wenig Streifen hatte ( ohne Streifen war )

    Kannst du mir erklären, warum das so ist?

  • Dein Auge und dein Gehirn sind so langsam, dass du das Fernsehbild als dauernd-leuchtend wahrnimmst. Der Fotoapparat jedoch verwendet meist Belichtungszeiten von weniger als 1/25 Sekunde und zeichnet dadurch nur einen Bruchteil des Fernsehbildes auf: Nur das Stückchen, was während dieser kurzen Zeit aufleuchtet.

  • Dein Auge und dein Gehirn sind so langsam, dass du das Fernsehbild als dauernd-leuchtend wahrnimmst.

    Kann man diese Beispiel im Zusammenhang mit "Interlaced" sehen? ( oder liege ich da komplett falsch? )
    Du sagstes ja, man muss erstmal verstehen in Halbbildern zu denken...

    Weil dieses Bild hier ist als Bezeichnung ( Kirk.Interlaced ) von jemandem im Netz hinterlegt worden...

    http://icrontic.com/images/draco/a…_interlaced.jpg

    Und in diesem Bild sind 25 Linien zu sehen.



    Der Fotoapparat jedoch verwendet meist Belichtungszeiten von weniger als 1/25 Sekunde und zeichnet dadurch nur einen Bruchteil des Fernsehbildes auf: Nur das Stückchen, was während dieser kurzen Zeit aufleuchtet.

    Verstehe ich das so richtig?

    1 Sekunde Filmmaterial besteht aus 25 Einzelbildern
    und
    1 Bild besteht aus genau 25 Linien

  • Dieses Bild ist nur eine ziemlich grobe Skizze. "Die exakte und vollständige Wahrheit" ist sie nicht.

    Verstehe ich das so richtig?

    1 Sekunde Filmmaterial besteht aus 25 Einzelbildern

    Mehr oder weniger. Es werden zwar 25 Einzelbilder pro Sekunde abgespeichert. Aber beim Fernsehen wurden 50 Halbbilder pro Sekunde übertragen. Je zwei davon werden beim Speichern zu einem Vollbild gemischt. Beim Speichern!

    1 Bild besteht aus genau 25 Linien

    Ganz falsch. 25 ist schon mal von der Größenordnung her viel zu wenig. Hast du das aus dem Bild abgezählt? Oder dich nur beim Abschreiben von irgendwo vertippt?

    PAL hat (zumindest auf DVD gespeichert) 576 Bildzeilen. Jedes Halbbild hat also 288 Zeilen.

    Das stimmt nicht absolut exakt mit den Vorgängen in einem Röhrenfernsehbildschirm überein, Fernsehsignale haben bei PAL allerdings auch mehr als nur die sichtbaren Bildzeilen; noch genauer hat scharfis_brain das auf seiner Seite "exotisches Interlacing" erklärt.


  • Hast du das aus dem Bild abgezählt?

    Ja :(


    Ein neues Problem ist aufgetreten:

    Ich wollte gestern mal dieses Script hier Testen, um zu sehen, welche AviSynth Version auf meinem PC installiert ist:

    AviSynth - Version Testing.avs

    Code
    # Eine Frage an VirtualDub:# Welche AviSynth Version ist auf meinem PC installiert?Version()



    [Blockierte Grafik: http://img.xrmb2.net/images/637324.png

    Ich weiß ganz genau als ich damals StaxRip auf meinem PC installiert habe, das danach folgende Datei installiert wurde: AviSynth 2.5.8.exe

    C:\AviSynth 2.5.8

    Warum sagt mir das Script, das ich jetzt die Version 2.60 installiert habe?

    Ich hoffe das es hinterher keine Probleme gibt, wenn ich bei MaskTools eins von den beiden DLL Dateien auswählen möchte:

    Code
    LoadPlugin("C:\AviSynth123\MT_MaskTools2-25.dll") # für AviSynth Version 2.5x
    LoadPlugin("C:\AviSynth123\MT_MaskTools2-26.dll") # für AviSynth Version 2.6x



    Konkret: Du hast beispielsweise sowohl MT_MaskTools-25.dll als auch MT_MaskTools-26.dll im Verzeichnis.
    Beide stellen Funktionen mit den selben Namen zur Verfügung.
    Aus welcher der beiden DLLs wird AviSynth die nun verwenden, welche wird bevorzugt?



    Ist das so korrekt?

    -----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

    Nun ja ... was könnte Goldwingfahrer auszusetzen haben, v.a. an preiswerten Modellen: Farbtreue, Blickwinkelstabilität, Gammakurve, Kalibrierbarkeit
    ... aber grundsätzlich haben ein Röhren-PC-Monitor und ein LCD-PC-Monitor eines gemeinsam: Im Gegensatz zu einem Röhren-Fernsehbildschirm stellen sie das Bild üblicherweise progressiv dar, nicht interlaced.

    Heute habe ich mal folgendes Ausprobiert:

    Ich habe ein S-Videokabel von meiner Grafikkarte über den Y/C ausgang mit meinem Röhren Fernseher über einen SCART Adapter über Y/C verbunden!
    Danach habe ich in der Grafikkarten Configuration den Switch Modus aktiviert.
    Nun kann ich endlich umschalten zwischen PC Monitor oder Röhren Fernseher :)

    Du sagtes ja, das auf einem Röhren-Fernseher das Bild üblicherweise progressiv dargestellt wird...
    Und siehe da, auf meinem Röhren Fernseher sind die Interlaced Streifen im Video verschwunden.
    Switch auf den PC Monitor und die Interlaced Streifen sind wieder im Video zu sehen!

    Und nun kommt die 1 Millonen Euro frage von Günter Jauch:

    Warum sollte man überhaupt DeInterlacen, wenn das Video hinterher ey auf dem Fernseher als Progressiv dargestellt wird?
    Wo ist der Sinn?

    2 Mal editiert, zuletzt von H264x (15. Januar 2013 um 01:01)

  • Die Existenz von AviSynth 2.60 stört vielleicht StaxRip, aber wahrscheinlich nicht den Konvertierungsvorgang, es sollte weitgehend kompatibel zur 2.5.8 sein. Vielleicht wurde es mit anderen Tools installiert, die auch auf AviSynth basieren, oder du hast selber mal die MT-Version aktualisiert...

    Unter AviSynth 2.6.x können sowohl die Masktools *-25.dll als auch *-26.dll verwendet werden. Die *-26.dll unterstützt neue Farbräume, die nicht kompetibel mit AviSynth-2.5-Plugins sind, insofern kann es sinnvoll sein, die *-25.dll trotzdem zu verwenden, weil die vielleicht mit anderen Plugins sicherer zusammenarbeitet. Auf jeden Fall sollte man nicht beide gleichzeitig ins plugins-Verzeichnis entpacken.

    Der Fernsehbildschirm "stellt es nicht progressiv dar". Auf ihm leuchten Halbbild für Halbbild nacheinander auf, eigentlich sogar Zeile für Zeile, und die auch noch "Punkt für Punkt" (besser Fleck für Fleck) durch eine Schlitzlochmaske hindurch. Jeder Leuchtfleck, der durch den Elektronenstrahl zum Aufleuchten angeregt wurde, leuchtet noch eine gewisse Zeit lang nach, wodurch die nacheinander aufleuchtenden Halbbilder sich miteinander leicht vermischen. Für einen Röhrenfernseher wäre es eigentlich optimal, wenn das Video interlaced bliebe, dann können Bewegungen von Halbbild zu Halbbild schön flüssig voranschreiten. Auch moderne Flachbildfernseher können aus Interlaced-Material mit Bewegungsschätzung und Interpolation (Zwischenbildberechnung) ziemlich flüssig auf die heute verbreiteten 100 oder 200 Hz hochrechnen. Nur ein PC-Monitor kann leider diese Darstellung nicht nachahmen, die meisten LCD-Monitore wollen nicht mehr als 60 Hz können, und 60 ist nun nicht gerade ein ganzzahliges Vielfaches von 25.

  • Für einen Röhrenfernseher wäre es eigentlich optimal, wenn das Video interlaced bliebe, dann können Bewegungen von Halbbild zu Halbbild schön flüssig voranschreiten.

    Dann brauche mir ja eigentlich garkeine gedanken mehr um das Thema DeInterlacing machen und lasse die Videos als Interlaced Material so wie sie sind :)
    Wo ist jetzt der (eigentlich) Haken?
    Ich schau mir ja meine Filme auf einem Röhrenfernseher an!
    Bin mehr der Old Schooll Typ und möchte nix Modernes haben:
    Das heißt, wenn mein Röhrenfernseher irgendwann mal kaputt geht, hole mir einen (neuen) gebrauchten Röhrenfernseher vom Trödelmarkt und sieh weiter damit Fern...
    Was soll ich mit LCD / Plasma / LED / 3D Flachbild fernseher usw...



    Auch moderne Flachbildfernseher können aus Interlaced-Material mit Bewegungsschätzung und Interpolation (Zwischenbildberechnung) ziemlich flüssig auf die heute verbreiteten 100 oder 200 Hz hochrechnen.

    Das heißt, nicht alle Flachbildfernseher können Interlaced Material darstellen?
    Wenn man aber weiß das man einen guten modernen Flachbildfernseher hat, der mit Interlaced Material umgehen kann, dann brauch man sich ja keine sorgen zu machen!
    Auch hier kann man das Material als Interlaced belassen.
    Dann müsste ich in ferner Zukunft schauen ( 50 Jahre Später wenn die Röhrengeräte endgültig gestorben sind ) das ich mir einen Flachbildfernser kaufe der Interlaced Material verarbeiten kann..
    Ist das so korrekt?



    Nur ein PC-Monitor kann leider diese Darstellung nicht nachahmen, die meisten LCD-Monitore wollen nicht mehr als 60 Hz können, und 60 ist nun nicht gerade ein ganzzahliges Vielfaches von 25.

    Ok das verstehe ich!
    Wer schaut sich gerne seine Filme auf einem PC Monitor an?

    Zusammenfassung:

    DeInterlacing wurde nur eingeführt für Leute die sich gerne ihre Filme auf einen PC Monitor oder bestimmte Flachbildfernseher ( die kein Interlaced können ) eingeführt?

  • Zitat

    DeInterlacing wurde nur eingeführt für Leute die sich gerne ihre Filme auf einen PC Monitor oder bestimmte Flachbildfernseher ( die kein Interlaced können ) eingeführt?


    Jein. DeInterlacing wurde eher eingeführt um eine für den Transport geändertes (= interlactes) Material wieder in seine Ursprungsform zurück zu bringen, denn die Welt erscheint den meisten Leuten eher progressiv als interlaced. :)

  • Was soll ich mit LCD / Plasma / LED / 3D Flachbild fernseher usw...

    "4K" ist bereits in der Entwicklung, weniger als Full-HD (1080) wird also bald gar nicht mehr zu kriegen sein; oder produziert man immer noch Schummelgeräte mit "HD Ready"-Veilchen? [Blockierte Grafik: http://cosgan.de/images/smilie/muede/s015.gif]

    Das heißt, nicht alle Flachbildfernseher können Interlaced Material darstellen?

    Doch doch ... darstellen schon. Mehr oder weniger sinnvoll. Nur arbeiten Flachbildschirm-Fernseher nun auch progressiv, stellen also das ganze Bild von oben bis unten auf einmal dar, nicht mehr nur jede übernächste Zeile pro "Zeitpunkt". Bei Interlaced-Video müssen also die "Lücken" aufgefüllt werden, und das kann ganz simpel über Mittelwerte passieren, oder aufwändiger über Bewegungsschätzungen aus den Inhalten vorheriger Bilder...

    Dann müsste ich in ferner Zukunft schauen ( 50 Jahre Später wenn die Röhrengeräte endgültig gestorben sind ) das ich mir einen Flachbildfernser kaufe der Interlaced Material verarbeiten kann..
    Ist das so korrekt?

    Dank "geplanter Obsoleszenz" ohnehin schon viel früher. Und wer weiß, wie lange es noch SD-Sender geben wird... ;D

    Bei heute aktuellen Modellen musst du dir sicher keine Sorgen um die gute Unterstützung von Interlacing machen. Die Hersteller werden bestimmt damit werben, wenn sie besonders tolle Methoden für extra flüssige Bewegungen verwenden.

    Interlacing ist ja auch im HD-Zeitalter noch nicht tot, Blu-ray und AVCHD beispielsweise unterstützen ja auch 1080i, und moderne Fernseher sollen auch das ordentlich darstellen.

    DeInterlacing wurde nur eingeführt für Leute die sich gerne ihre Filme auf einen PC Monitor ... (anschauen)?

    Nun ja, es geht eben um grundsätzlich verschiedene Verfahren, Videos aufzunehmen, zu übertragen und wiederzugeben. Interlacing stammt aus der Fernsehtechnik und basiert auf physikalischen Grenzwerten bei der Signalübertragung und dem Nachleuchtverhalten der BRaunschen Röhre. Das sind völlig andere Bedingungen als die Aufzeichnung auf Kinofilm und das Abspielen von Filmrollen im Kino. Fotofilm hat keine Bildzeilen (Lines). Wenn aber ein Kinofilm von einem Fernsehsender ausgestrahlt oder von einem DVD-Player über analoge Video-Kabel an den Fernseher gesendet wird, dann vermischen sich die beiden gegensätzlichen Welten.

  • denn die Welt erscheint den meisten Leuten eher progressiv als interlaced.

    Hat das was mit Wahrnehmung und Vorstellung zu tun?
    z.B. jeder Mensch sieht die Welt aus einem ganz anderen Blickwinkel...


    "4K" ist bereits in der Entwicklung, weniger als Full-HD (1080) wird also bald gar nicht mehr zu kriegen sein; oder produziert man immer noch Schummelgeräte mit "HD Ready"-Veilchen?

    Ich bin da nicht so auf dem laufenden, was der Stand der aktuellen Technik ist ( Massenkonsum sein dank ;)
    Von diesen HD Ready Schummelgeräten, habe ich schon mal was gehört.



    Für einen Röhrenfernseher wäre es eigentlich optimal, wenn das Video interlaced bliebe, dann können Bewegungen von Halbbild zu Halbbild schön flüssig voranschreiten.

    Ich habe 20 wichtige VHS Bänder von denen ich die Verlustfreie Aufnahme behalten möchte... ( Lagarith YUV2 / Interlaced im oberen Halbbild )
    Und der Rest der VHS Bänder sollen als x264 im MKV Container landen.

    Am ende soll es in x264 gehen, welches IMHO wieder YV12 braucht.

    Stört das "x264" wenn das Material Interlaced bleibt?
    Bin mir gerade unsicher was ich machen soll ( Interlaced behalten oder doch DeInterlacen )


    Dank "geplanter Obsoleszenz" ohnehin schon viel früher.

    Mein Röhrenfernseher von Panasonic ist jetzt 13 Jahre alt und er läuft 1a :)
    Ich habe das Gefühl, die guten alten Röhrenfernseher von damals halten ewig...


    Und wer weiß, wie lange es noch SD-Sender geben wird...

    Die frage ist, sobald die SD-Sender verschwunden ist, ob das nicht alles in (zwangs) PayTV endet?
    Für HD Sender gibt es zur Zeit nur eine möglichkeit: PayTV ABO
    Vielleicht gibt es ja im HD bereich irgendwas auf DVB-T basis?



    Interlacing ist ja auch im HD-Zeitalter noch nicht tot, Blu-ray und AVCHD beispielsweise unterstützen ja auch 1080i, und moderne Fernseher sollen auch das ordentlich darstellen.

    Brother John sagte einmal folgendes dazu:


    Leider gibt es keine einfache Lösung. Interlaced ist ein ekelhaftes Überbleibsel aus der analogen Urzeit und hätte spätestens mit den aktuellen HD-Formaten aussterben müssen. Stellt eucht interlaced am besten als schwere Beschädigung des Quellvideos vor, die eine Reparatur mit genau abgestimmten Filtern erfordert. Wer viel mit interlaced Video zu tun hat und auf Qualität wert legt, muss sich intensiv mit dem Thema auseinandersetzen.


    Es gibt fürs Deinterlacing keine befriedigende Pauschallösung.

    TGMC sollte schon befriedigend sein ( Kostet viel Zeit und Rechenaufwand )



    Interlaced Video erkennst du am besten immernoch mit deinen eigenen Augen.

    Ich erkenne Interlaced Material nur an einem einzigen Merkmal: An den schlieren im Bild -->

    [Blockierte Grafik: http://www.videonet.webspace.virginmedia.com/images/i_in1.jpg]

    Einmal editiert, zuletzt von H264x (16. Januar 2013 um 22:42)

  • Hat das was mit Wahrnehmung und Vorstellung zu tun?
    z.B. jeder Mensch sieht die Welt aus einem ganz anderen Blickwinkel...

    Nein, weder deine Augen noch dein Gehirn "sehen interlaced". Du nimmst deine Umgebung bestimmt nicht stückchenweise wahr... ;)

    Stört das "x264" wenn das Material Interlaced bleibt?
    Bin mir gerade unsicher was ich machen soll ( Interlaced behalten oder doch DeInterlacen )

    Es "stört" x264 nicht; aber man sollte dann auch den x264-Encoder im Interlaced-Modus arbeiten lassen, wenn man Interlaced-Material damit speichern möchte (--tff).

    Die frage ist, sobald die SD-Sender verschwunden ist, ob das nicht alles in (zwangs) PayTV endet?

    :eek: NEEEIIINNN!!!!1elf — die digitale Übertragung wurde ausschließlich nur wegen ... äääh ... "besserer Qualität" eingeführt. Ehrlich! :anizunge:

    Ja, gut, digitale Verschlüsselung als Kopierschutz ist natürlich viel effizienter als analoge; ich erinnere nur an "American Pie" und die Socke unter dem Kissen...


    Ich erkenne Interlaced Material nur an einem einzigen Merkmal: An den schlieren im Bild

    :ja: Fast richtig.

    Aber wenn man sich die Halbbilder nicht zeitlich nacheinander anschaut { Assume?FF().Bob() } kann man nicht zuverlässig erkennen, ob da aus Versehen vielleicht doch bloß ein Phaseshift vorliegt (einfach bloß die falschen Paare aus je zwei Halbbildern gebildet, mit der anderen Paarbildung wäre es progressiv), oder aber Normwandlung mit Überblendung (die rettet ein einfacher Deinterlacer nicht, der kommt durch die Geisterbilder eher durcheinander).

  • Fast richtig.

    Jetzt aber...

    1.) Ich öffne einen Videofilm mit VirtualDub und gehe mit den Pfeitasten >> ganz langsam durch das Video und schaue mir am PC Monitor an, ob ich Schlieren sehen kann.
    ( An einem Röhrenfernseher kann man das ja nicht feststellen, wenn der PC über die Grafikkarte mit dem Fernseher verbunden ist )

    Am PC Monitor wird nach Interlaced streifen geschaut:

    Wenn Schlieren zu sehen sind ist das Video = Interlaced
    Wenn keine Schlieren zu sehen sind = Progressiv


    2.) Dann gehe ich hin und Teste das Video mit folgenden AviSynth Scripten:

    Code
    # Ist die Bildreihenfolge: Vor-Vor-Vor-VorAviSource("C:\1.avi") AssumeTFF().Bob()
    Code
    # Ist die Bildreihenfolge: Vor-zurück-Vor-zurück 
    AviSource("C:\1.avi")
    AssumeBFF().Bob()

    Ich habe noch kein Video dabei gehabt, das bei AssumBFF().Bob() flüssig vorwärts läuft ( Vor-Vor-Vor-Vor )
    und
    Ich habe noch kein Video dabei gehabt, das bei AssumTFF().Bob() rückwärts läuft ( Vor-zurück-Vor-zurück )


    Moment, jetzt klingelt etwas! Verstehe ich das so Richtig:


    Interlaced oberes Halbbild = TFF / Bildreihenfolge: Vor-Vor-Vor-Vor
    Interlaced untere Halbbild = BFF / Bildreihenfolge: Vor-zurück-Vor-zurück

    Könnte aber auch mal vorkommen das:

    Interlaced oberes Halbbild = TFF / Bildreihenfolge: Vor-zurück-Vor-zurück*
    Interlaced untere Halbbild = BFF / Bildreihenfolge: Vor-Vor-Vor-Vor*

    *An diesem Punkt blicke ich nicht durch :(



    Aber wenn man sich die Halbbilder nicht zeitlich nacheinander anschaut { Assume?FF().Bob() } kann man nicht zuverlässig erkennen, ob da aus Versehen vielleicht doch bloß ein Phaseshift vorliegt (einfach bloß die falschen Paare aus je zwei Halbbildern gebildet, mit der anderen Paarbildung wäre es progressiv), oder aber Normwandlung mit Überblendung (die rettet ein einfacher Deinterlacer nicht, der kommt durch die Geisterbilder eher durcheinander).

    Ist meine Beschreibung soweit Richtig?

    Einmal editiert, zuletzt von H264x (17. Januar 2013 um 20:13)

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!