Beiträge von LigH

    Je nach dem...


    Es gibt Quell-Plugins, die selbst schon IVTC durchführen können (z.B. DGMPGDec, wenn DGIndex das so eingestellt hat), und liefern dann NTSC-Film-Framerate; hier also AssumeFPS(24000,1001).


    Dagegen würden FFMS2 oder L-SMASH Works vermutlich ohne IVTC decodieren, dann müsste eine ordentliche Quelle von einer NTSC-DVD mit NTSC-Video-Framerate geladen werden, da passt AssumeFPS(30000,1001).TFM().TDecimate().


    Alternativ die benannten Konstanten: AviSynth-Wiki - FPS


    Stellt sich also die Frage: Welche Quell-Funktion liefert eine Framerate, die weder NTSC-Film noch NTSC-Video entspricht? DirectShowSource?

    Ich erkenne zwar hier noch ein gewisses Muster, aber ich bezweifle, dass das auch bis zum Ende regelmäßig bleiben würde. Und du hättest damit dann mit Sicherheit kein ganzzahliges Verhältnis der durchschnittlichen Frameraten mehr. Also statt 25 : 24 sieht das eher aus wie 25 : 24,4 oder so, und das nützt dir wohl wenig. Eine Tonspurkorrektur wäre dann wohl auch nicht mehr zu vermeiden.


    Was ist das überhaupt für Material, ist das eine kommerzielle Produktion, bei der jemand evtl. Lauflängenunterschiede durch Zensurschnitte oder Werbepausen vertuschen wollte? Wenn scharfis_brain hier noch aktiv wäre, ihn hätte dieses Material bestimmt interessiert, als weiteres perverses Beispiel.

    Nun suche ich nach einer Methode, wie man das jeweils 25. frame einfach löschen kann ohne die restlichen frames zu verändern.

    Das ginge u.U. mit SelectRangeEvery(25,24).AssumeFPS(24,1)AviSynth Wiki: Select / 3. SelectRangeEvery


    Oder alternativ mit einer "Decimate"-Funktion aus einem geeigneten Plugin (z.B. Decomb).


    Mir ist klar, dass danach der Sound ebenfalls etwas gekürzt werden muss, oder gibts ne methode, wie das beides in einem geht?

    Nein, der bleibt gleich. Zwar gibt es statt 25 nun nur noch 24 Bilder pro Sekunde, aber eine Sekunde dauert immer noch eine Sekunde.


    Noch ein wenig Grundlagenwissen zum Studieren: Exotisches Interlacing von scharfis_brain (von mir gerettettet...).

    Ich habe mal AiUpscale für AviSynth ausprobiert ... allerdings keinen deutlichen Unterschied zu NNEDI3_rpow2 feststellen können. Schuld war aber wohl v.a. die schlechte Qualität des Materials. Deren Methode ist nicht zum Ausbessern von Kompressionsartefakten geeignet. Tja, für alles andere muss ich mich wohl erst in VapourSynth einarbeiten...

    Ja, gut, den Laufschriftbereich ausschneiden, weichzeichnen und dann mit Abstand überblenden geht natürlich auch.


    Meine Idee war, eine Maske zu erzeugen, die festlegt, wo das überlagerte Video durchsichtig ist und wo deckend. Das klappt dann auch mit nicht rechteckigen Ausschnitten. Ist aber vielleicht nicht so schnell wie wenn man nur den kleinen Streifen filtert und einblendet.


    Statisch ist es bei mir nicht. Du hast in einer Ebene den Originalclip, in der anderen Ebene den komplett weichgezeichneten Clip, und die Maske definiert, an welcher Stelle die überlagerte Ebene wie durchsichtig ist.


    Einfach nur dass sie nicht mehr gut lesbar ist?


    Wahrscheinlich funktioniert das mit einer Maske, die in rechteckiger Form eine stark weichgezeichnete Version des Clips an dieser Stelle überlagert. Die kann man als PNG vorbereiten, mit ImgSource laden und so lang wiederholen, wie das Basisvideo ist.


    Layer + Mask

    Hier hab ich mal nachgefragt, anscheinend der einzige Beitrag bisher, wo das erwähnt wurde. Anscheinend wohl eine auf die aktuellen AviSynth+-Versionen optimierte QTGMC-Variante von realfinder. Vielleicht nutzt sie interne Eval-Funktionen und braucht weniger Plugins?

    Es gibt technisch ziemlich unterschiedliche SSDs. Nur auf den Hersteller und Preis schauen könnte zu Enttäuschungen führen... ist ja nicht unerheblich, ob man mit 500 oder 7000 MB/s lesen und schreiben kann.

    Das "Ruckeln" kann ich mir schlecht vorstellen, denn wenn es keine Bewegung im Bild gibt, kann es nicht am Videoinhalt liegen, dann muss es ein Problem der Encodierung sein, die bei der Decodierung Fehler erzeugt. Ich vermute, es könnte an zu vielen aufeinander folgenden B-Frames oder an der B-Frame-Pyramide liegen, die der Hardware-Player nicht unterstützt. Möglicherweise hilft es da, in x264 ein eher schnelleres Preset zu benuzten oder Kompatibilität mit mobilen Playern zu sichern. So gut ist mir XMR aber nicht bekannt, dass ich zu diesem konkreten Konverter Tipps geben könnte.

    Zu der Zeit war das mal eine Sonderseite jenseits der Foreninhalte. So müsste Michael wohl herausfinden, wie das in dieser Software analog möglich wäre.

    Ich kann mir vorstellen, was du als "Quietschen" bezeichnest, ich kenne ähnliches "Zwitschern" in defekten MPEG-1/2-Videos. Ich fürchte, da hast du Datenmüll in der Datei, der nichts mehr mit dem früheren Inhalt zu tun hat. Vielleicht durch ehemals kreuzverbundene Dateien.

    Eine Reduzierung der Farbigkeit passiert auch mittelbar, durch die Quantisierung. Die Sättigung ist im Allgemeinen bei natürlichen Motiven geringer, also ist der Wertebereich in den Farbdifferenzkanälen (U, V) meist wahrscheinlich eher etwas geringer als im Helligkeitskanal (Y).