Beiträge von Selur

    Mit ExBlend:

    gehts recht gut, siehe: https://forum.videohelp.com/th…-Omocha/page2#post2660590


    Aber leider hat StainLess keine Pläne nen Vapoursynth Port zu erstellen. :(

    Mit ExBlend + DPIR könnte man Animes&Cartoons sons vermutlich richtig gut von Blends befreien,.....


    Cu Selur

    Hi,

    wenn ich den AviSynth-Aufruf:

    Code
    1. mask = mask.mt_expand(mode="vertical")

    habe welchem Vapoursynth-Aufruf entspricht das?

    Soweit ich es verstehe würde man ja etwas in der Art:

    Code
    1. coordinates = [0, 1, 0, 0, 0, 0, 1, 0]
    2. mask = core.std.Maximum(mask, coordinates=coordinates)

    verwenden.

    https://forum.doom9.org/showthread.php?t=166842 + http://www.vapoursynth.com/doc…ideo/minimum_maximum.html

    Anders als bei AviSynth gibt man bei Vapoursynth ja eine 3x3-Matrix an und ich finde irgendwie keine Dokumentation wie die modes von masktools2 gemapped werden müssten.

    Sehe ich es richtig, dass "coordinates = [0, 1, 0, 0, 0, 0, 1, 0]" die richtige 'Überstzung' von 'vertical' sein sollte?


    Cu Selur

    Gibts für Avisynth oder Vapoursynth ein Skript oder einen Filter der automatisch blended fields erkennt?

    66:

    field-66.png

    67:

    field-67.png

    76:

    field-76.png

    77:

    field-77.png


    wenn ich mir das Ganze file gebobbed anschaue sind

    - von 0-1010 in einem Zykel von 10 Frames Frame 6 und 7 blends (= Schrott)

    - von 1010-1110 in einem Zykel von 10 Frames Frame 2 und 3 blends (= Schrott)

    - von 1120-1400 in einem Zykel von 10 Frames Frame 6 und 7 blends (= Schrott)
    - von 1410-1420 in einem Zykel von 10 Frames Frame 2 und 3 blends (= Schrott)

    - von 1430-1570 in einem Zykel von 10 Frames Frames 2, 3, 4 und 5 blends (= Schrott)

    - bei 1580 in einem Zykel von 10 Frames Frame 6 und 7 blends (= Schrott)

    - von 1590 bis zum Ende in einem Zykel von 10 Frames Frames 6, 7, 8, und 9 blends (= Schrott)

    könnte da manuell fixen in dem ich die Quelle splitte und dann auf den Teilen je einen angepassten SelectEvery-Aufurf ausführe.


    Da der Clip ein einfaches Cartoon ist, ist mir aber die Frage gekommen, ob es da nicht was automatisches gibt, was man vielleicht anpassen könnte.

    Wenn man die blended Fields erkennen könnte, dann könnte man diese vielleicht einfach rauswerfen und dann mit sRestore auf die gewünschte Zielframerate oder mit RIFE oder dergleichen die Frames durch Interpolationen ersetzen.


    Weiß da einer was?


    Cu Selur


    Ps.: mit Avisynths ExBlend kriegt man einige der Blends entfernt. Nice. (leider scheint es keine Vapoursynth Alternative zu geben. :()

    Denke richtig interessant wird das Ganze erst wenn der Decoder in libav unterstützt wird, so dass man seine Standardmediaplayer und Libavsource&co nutzen kann. ;) Aber schön zu sehen das sich da was tut.

    LigH: Ja, krieg das kompiliert.

    Hier die kompilierte .exe und die zugehörigen qt Libaries die benötigt wurden um zu starten. (MS runtime files habe ich nicht dazu gepackt)

    Man braucht aber wohl noch ne vvdecLib dafür, wenn man der Fehlermeldung die es Anzeigt glauben kann. ;)


    Cu Selur

    Kommt immer auf den Kontent an, wenn man da Zeug hat was eh mal 4:2:0 war und wieder 4:2:0 werden soll und warum auch immer jetzt jedoch als 4:4:4 oder 4:2:0 vorliegt kann man auch einen Großteil der Inputdaten verwerfen. :)


    Wenn man interlactes 4k auf SD Material runterskaliert kann man sich je nach dem auch das Deinterlacen sparen, da eh keine der Informationen das Downsizen überleben. *gig*


    Cu Selur

    Zitat

    Und hast du mal überlegt bei fft3dgpu die Konvertierung ins Zielfarbformat per default for den Filteraufruf zu setzen?

    Nope. Bin kein Freund von erzwungenen Konvertierungen.

    Aktuell macht Hybrid das so:

    1. Jeder Filter hat eine Menge an Farbräumen zu denen er kompatible ist.

    2. Konvertiert wird nur wenn der aktuelle Farbraum nicht in dieser Menge ist.

    Dadurch sollen so lange wie möglich Informationen aus der Quelle erhalten bleiben.


    Was Du machen kannst ist einfach wo immer Du willst in eine entsprechende 'Custom'-Sektion einen Convert-Aufruf packen und Hybrid mit:

    Code
    1. # colorformat <RGB/RGB24/RGB32/YUY2/Y8/YV411/YV12/YV16/YV24>

    wissen lassen, dass in der Custom-Sektion sich das Farbformat geändert hat.


    Cu Selur

    Ist mir vollkommen unklar, wenn man nicht irgendo im Urwald lebt wie man heutzutage noch SVCDs erstellen kann.

    Aber demletzt hat auch jemand gefragt wie man mit Hybrid grayscale erzeugen kann, da er alle Filme nach Grayscale wandelt und sie in Schwarz&Weiß auf seinem 50" LCD Fernseher schaut,.... jeder wie er mag.


    Cu Selur

    Nur der Vollständigkeithalber:

    Korrektur mit entsprechendem masking geht es schon,...

    mask1.png

    mask2.png

    mask3.png

    Idee ist einfach: Mask von LUTDeRainbow nehmen und filtern in dem man einfach die Auflösung stark verkleinert (und wieder vergrößert, man könnte auch einfach kräftig blurren), Dananch dann noch ein DeGrain/Noise zum Aufräumen. Das Skript was ich gepostet habe zeigt nur wie es an sich geht, man müsste das Aufräumen noch tweaken,.. (die Maske könnte man auch noch etwas verbessern)

    Lohnt aber meiner Ansicht nach nicht den Aufwand zu betreiben, aber wer will hat damit nen Ansatz.


    Cu Selur

    Problem wie wenn man Material hat wo die Leute ihr interlactes Material nehmen, es nicht deinterlacen, progressive resizen und progressive speichern. So Zeug kriegt amn auch irgendwie gesäubert, aber man kriegt hat ne Qualität dabei die schlechter ist als das eigentliche Original. Je mehr geresized wurde desto mehr ist kaputt und wenn da per Machine Learning resized wurde ist es nur schlimmer.

    Sowas zu machen macht halt nur Sinn, wenn es da Material nicht in besserer Qualität gibt, aber bei DVD upscales macht das keinen Sinn.


    Cu Selur