Hast du vsdpir und co eig auch portable hinbekommen?
Beiträge von FatFaster
-
-
Haha cool.
Jetzt fällt mir auf, dass man ja eig nichts sehen kann wenn der Helm geschlossen ist.
Letztes Jahr habe ich mir das zweite mal Stargate Continuum angeschaut und muss sagen es war doch besser als ich es in Erinnerung hatte. Oder man ist gnädiger nach der langen Abstinenz.
-
Avisynth läuft nun
Hier ist das Script
Codeclip = ffms2("f:\aa.jpg").converttoyv12() blurred = clip.GaussianBlur(varY=60) #return blurred x = 146 y = 966 cropped = blurred.Crop(x, y, -146, -50) #return cropped clip = Overlay(clip, cropped, x, y) return clip
Ein blur(1.4) ist sehr schwach und praktisch nicht zu sehen. Man müsste also sehr viele .blur(1.58) einfügen für ein starkes blurren. Daher nun mit GaussianBlur()
-
Den letzten Punkt kann ich nicht ganz nachvollziehen. Wofür braucht man eine PNG?
(ich habe kein Avisynth aktuell installiert, code ist daher nicht getestet)
Codeclip = ffms2("meinvideo") blurred = clip.blur(1.4) # glaube 1.4 ist der maximale Wert. Man kann auch einfach clip.blur(1.4).blur(1.4).blur(1.4) für einen stärken Effekt sorgen cropped = blurred.Crop(left=40, top = 600, right = -40, bottom = -100) # Werte anpasst # return cropped # zum testen clip = Overlay(clip, cropped, x = 40, y = 600) # x y wären dann die left + top Werte aus Crop() return clip # oder einfach # last = clip
Crop muss wahrscheinlich mindestes MOD 2 Werte haben, also krumme Zahlen könnten zum Fehler führen bei YUV422 Video. Man könnte den blurred clip daher vorher mit convertorgb() oder so umwandeln. Dann sollte es keine Probleme geben.
Einfach mal testen
EDIT:
LigH bei deiner Variante wäre die Laufschrift dann statisch. Weiß nicht ob das so gewollt ist.
EDIT2:
Das könnte man aber auch per FreezeFrame() erledigen, dann wird ebenfalls keine PNG benötigt.
-
Ich denke das ist wahrscheinlich wie "NotSmDegrain" zu sehen. NotSmDegrain = die "alte" version. SMDegrain = neuere von Dogway optimiert. Daher wäre STGMC = die "alte" QTGMC version mit 2.6 support.
Also nur für Leute interessant, die einfach nicht updaten wollen.
-
Der Codec war am Anfang kostenlos im MS Store zu haben. Jeder der ihn sich damals "geholt" hat, sollte diesen ja über seine Bibliothek installieren können.
Aktuell kostet der Codec etwas im Store. Man es aber anscheinend umgehen indem man die Appx Installations-Datei manuell herunterlädt und installiert.
Über Microsoft Rewards kann man sich übrigens in relativ kurzer Zeit einen Gutschein durch Punkt erklicken. Man muss nur jeden Tag 30 Sek Zeit investieren. (Die Antworten sind jeweils in 99% der Fälle unwichtig, einfach etwas anklicken. Der Rest sind einfach Links die man anklicken muss. Es gibt eine Extension von MS dafür)
-
Mit avisynth oder vapoursynth ausprobiert? Weil ich habe es extra paar mal durchlaufen lassen und doppelte frames sind mir eig nicht aufgefallen.
Sehr wichtig hier ist, dass dein source filter 100% framegenau arbeitet. Je nach ffms2 oder lsmash version ist das nicht immer der fall bei AVC interlaced.
-
Ja ist Vapoursynth, aber kann das avs script ja quasi ablesen. Es sind sowieso alles avs ports
-
Das beste Ergebnis habe ich mit Cdeblend + Srestore erhalten. Kann man sicherlich noch besser anpassen. Sind immer noch blends vorhanden, aber viel weniger oder man macht es per Hand (lol)
-
Für Plugins ja. Wobei für Api4 hat sich das glaube ich geändert.
Für Script-Module gibt es sowas nicht. Es gibt verschiedene Wege sich Python Funktionen auflisten zu lassen. Glaube mit dir() oder inspect geht das. Die sind aber nicht "perfekt" und listen auch Unterfunktionen oder anderen "Blödsinn" auf. Ich wollte das auch mal in vsdb.top einbauen. Muss mal endlich wieder daran arbeiten xD
-
Bei mir wird bei beiden keine UAC Abfrage getriggert (die steht auf Standard, habe da nichts verändert)
-
Bei mir startet beides. Win10 Pro 21H1
-
Die Vapo-Variante kennt wohl nur die 3 Funktionen Analyse, Super und SmoothFps
Ich vermute mal weil avs mvtools nicht kopatibel zu vs mvtools ist. Daher macht ein Convert keinen Sinn bzw müsste für vs "neu" entwickelt werden.
-
Da kenne ich mich jetzt auch zu schlecht aus.
Man könnte sich einige Stellen z.B. aus Dehalo_alpha oder edgecleaner raussuchen und dann als eigene Funktion bereitstellen.
-
Naja es kommt schon stark darauf für was man die Masken am Ende verwenden möchte.
Die Einsteigerkandidaten wären zb Prewit, Sobel, TCanny, TEdgeMask.
Siehe auch https://blog.kageru.moe/legacy/edgemasks.html
std.Binarize kann auch sehr nützlich sein. Das erzeugt eine gleichmäßige Maske ohne Abstufungen. Also jeder Pixel ist "aus" oder "an".
-
Man müsste quasi für jeden "Videotyp/Quelle" dann ein eigenes Model trainieren um gute Ergebnisse zu erzielen.
Zb Simpsons aus den 90ern würden ein anderes Model benötigen als die modernen Simpsons Folgen.
-
Sieht es den als Video halbwegs gut aus?
-
Das ist auch ein VapourSynth script was er gepostet hat. https://github.com/dubhater/vapoursynth-awarpsharp2
Seine Variante ist gleich zu chroma = 4, mit dem kleinen Unterschied, dass Luma (Y) jedoch nicht gefiltert und somit im Originalzustand belassen wird.
EDIT
Korrektur: chroma = 6 wäre das Äquivalent.
-
Das eine ist evtl mpeg1 das andere mpeg2 (encoding evtl sogar über die GPU?)
Würde beide Dateien mal mit mediainfo untersuchen.
-
Das sieht echt sauber aus. Hoffe es gibt bald einen VapourSynth-Filter davon