Noch nicht angetestet, aber HolyWu hat was neues:
High Performance GMFSS with RIFE and GAN for Anime Video Frame Interpolation, based on https://github.com/98mxr/GMFSS_union.
https://github.com/HolyWu/vs-gmfss_union
Cu Selur
Noch nicht angetestet, aber HolyWu hat was neues:
High Performance GMFSS with RIFE and GAN for Anime Video Frame Interpolation, based on https://github.com/98mxr/GMFSS_union.
https://github.com/HolyWu/vs-gmfss_union
Cu Selur
Vermutung: Es wird PowerShell benutzt. -> Wechsel zur normalen Command Line sollte helfen.
2023.01.22.1:
*fixed*
*changed*
*added*
*removed*
-> downloads: http://www.selur.de/downloads
Cu Selur
Hoffe bei FeMaSR gibt es noch weitere Entwicklungen, denn teilweise, sieht es schon ziemlich beeindruckend aus.
Aber, manchmal auch nicht (zoomed mal ins Gesicht): https://imgsli.com/MTQ3MDY2 und teilweise ist es einfach nicht gut https://imgsli.com/MTQ3MDcw
=> für einzelne Szenen ist der Filter brauchbar, aber für einen Film oder so nicht
Cu Selur
ZitatSpielen nicht heutzutage alle Medienplayer auch krumme Auflösungen ab?
Ja.
ZitatJe öfter das Band kopiert wurde, desto größer ist die Zone. Meist sind 14 Zeilen betroffen. Das tolle HowTo von Gubel schreibt dazu
Je nachdem kann EdgeFixer, Balanced Borders oder SpotLess&Co auch reichen,....
ZitatUnd muss das rechnerische Bildformat (abgeleitet aus dem Pixel-Verhältnis) überhaupt stimmen, oder nehmen die Player die aspect ratio nur aus den Header-Daten und sorgen durch generierte schwarze Ränder für die formatrichtige Darstellung?
Die meisten MediaPlayer sollten schwarze Ränder automatisch richtig hinzufügen können, wenn das Material richtig geflagged ist.
Anstelle von mode=2, würde ich eher mal mode=7 versuchen.
Vermute da muss noch was am Model trainiert werden damit es allgemein hilfreich ist,....
[Blockierte Grafik: https://i.ibb.co/8jBqMfR/grafik.png]
sieht eigentlich ganz nett aus.
Finde den DeBlur-Effekt an sich ganz nett, aber teilweise rennt das Verfahren da in die falsche Richtung.
noch ein Beispiel: https://imgsli.com/MTQzNTQ4
-> noch nichts gefunden, wo ich FeMaSR (uneingeschränkt) empfehlen würde.
Cu Selur
Hier mal was FeMaSR (https://github.com/HolyWu/vs-femasr) aus Suzi macht:
mit 2x Model:
[Blockierte Grafik: https://i.ibb.co/VSLg0ft/grafik.png]
mit 4x Model:
[Blockierte Grafik: https://i.ibb.co/XYP4M98/grafik.png]
Cu Selur
Danke fürs Abtrennen.
=> Dann müsst ihr mit den entsprechenden Entwicklern der Tools sprechen, dass sie eure custom-tags unterstützen.
Wenn Du Hybrid verwendest, könntest Du:
import os
import sys
import adjust
# Import scripts folder
scriptPath = 'PFAD zu Hybrid/64bit/vsscripts'
sys.path.insert(0, os.path.abspath(scriptPath))
# Color Adjustment
X=1.5
Y=1/X
Xc=1.3
Yc=1/Xc
B=8
C=-B
org=clip
clip1=adjust.Tweak(clip=clip,hue=0.00, sat=X,cont=Xc,bright=B,coring=True)
clip2=adjust.Tweak(clip=clip1,hue=0.00, sat=Y,cont=Yc,bright=C,coring=True)
clipa=core.std.StackHorizontal([org.text.Text("Original"), clip1.text.Text("Desaturated")])
clipb=core.std.StackHorizontal([clip2.text.Text("Resaturated"),core.std.MakeDiff(org, clip2).text.Text("Diff(Org, Resaturated)")])
clip=core.std.StackVertical([clipa, clipb])
Alles anzeigen
in einen Custom-Abschnitt packen.
Zitatwas sich letztlich aber nicht in der sichtbaren Videoqualität niederschlägt
manchmal
Cu Selur
X=1.5
Y=1/X
Xc=1.3
Yc=1/Xc
B=8
C=-B
org=clip
clip1=adjust.Tweak(clip=clip,hue=0.00, sat=X,cont=Xc,bright=B,coring=True)
clip2=adjust.Tweak(clip=clip1,hue=0.00, sat=Y,cont=Yc,bright=C,coring=True)
clipa=core.std.StackHorizontal([org.text.Text("Original"), clip1.text.Text("Desaturated")])
clipb=core.std.StackHorizontal([clip2.text.Text("Resaturated"),core.std.MakeDiff(org, clip2).text.Text("Diff(Org, Resaturated)")])
clip=core.std.StackVertical([clipa, clipb])
Alles anzeigen
Ist noch weniger lossless.
=>
Bequemlichkeit: Ja
Kompressionssteigerung: Nein.
Cu Selur
Du kannst alles, was Du willst, in einen mkv-Container-Tag schreiben, aber irgendwer muss halt die Daten auch auslesen und entsprechend umsetzen.
LUTs und HDR Daten wären nur eine allgemeinere Lösung dessen.
Kommt halt auf die Quelle an.
Wenn keine Daten verloren gehen, klappt es mit dem Kompensieren.
Aber das hängt stark vom Material und um wie viel Prozent Du da heruntergehst ab.
Kann man mit:
X=0.125
Y=1/X
org=clip
clip1=adjust.Tweak(clip=clip,hue=0.00, sat=X,cont=1.00,coring=True)
clip2=adjust.Tweak(clip=clip1,hue=0.00, sat=Y,cont=1.00,coring=True)
clipa=core.std.StackHorizontal([org.text.Text("Original"), clip1.text.Text("Desaturated")])
clipb=core.std.StackHorizontal([clip2.text.Text("Resaturated"),core.std.MakeDiff(org, clip2).text.Text("Diff(Org, Resaturated)")])
clip=core.std.StackVertical([clipa, clipb])
Einfach simulieren.
Hier ein Bild:
bei X=0.5
ZitatWenn ich bei einem Video über interne Filter den Kontrast und die Sättigung reduziere, verringere ich die Informationen pro Frame, die gerendert werden müssen und reduziere damit die erforderliche Bitrate.
Ja, wenn Dein Kontrast / Sättigung ändern Informationen vernichtet, sind die erforderliche Bitrate.
ZitatWenn ich also beispielsweise per Filter den Kontrast um 30 % reduziere und die Sättigung um 40 %, wird weniger Bitrate benötigt.
Anschließend würde ich mit dem Player Kontrast wieder um 30 % erhöhen und die Sättigung um 40 %.
Okay, aber die verlorenen Informationen würdest Du nicht zurückerhalten, entsprechend hast Du keinen Kompressionsgewinn.
Wenn Du die Sättigung vor dem Encoden auf 0 setzt (und damit Graustufen Videos hast), bring die Sättigung erhöhen im Player, nichts mehr.
Was Du Dir da denkst, ist HSV und im Prinzip, warum Filme als 4:4:4, sondern i.d.R. als 4:2:0 vertrieben werden.
Du eine Datenreduktion, nicht Datenkompression.
Ist wäre wie ein Denoisefilter, der erhöht nicht die Kompression, der reduziert die Daten.
Das Argument bzgl. der Bequemlichkeit, dass man für Player angepasste Werte in Dateien hat und der User sie nicht jedes Mal angeben muss, sehe ich ein. Problem ist, dass die Playerentwickler darin vermutlich nicht wirklich einen Sinn sehen.
ZitatWenn man das über Colorgrading mit HDR Informationen irgendwie so reinschreiben könnte, wäre das also in der Hinsicht interessan
Was machen den HDR Informationen anderes?
=> Das Problem ist nur, dass das Erstellen von HDR Informationen, die man einem HEVC Stream hinzufügen kann, umständlicher ist, als Sättigung und Kontrast zu setzen.
Was Du natürlich mal ausprobieren kannst, wäre, ob Du das, was Du willst, auch hinbekommst, wenn Du die HDR10 Daten im MKV Container einfach änderst. Wobei das eventuell auch nur bei manchen Formatkombinationen von den Playern unterstützt wird. Bei mir werden die HDR Metadaten zwar von MediaInfo angezeigt, aber haben keinen Effekt. (Das kann aber an meinem Setup liegen.)
Cu Selur
Ps.: Vielleicht kriegt man nen Playerentwickler überredet, dass er eine im mkv enthaltene LUT automatisch anwendet.
Wenn Du beim Colorgrading HDR Informationen erstellst, müsstest Du quasi nur etwas aufwendiger remuxen nicht reencoden.
Zitatbrauche ich definitiv mehr Bitrate.
Ne, nicht, wenn durch Dein Colorgrading nicht Informationen erschaffen werden.
Davon mal abgesehen, dass der Thread hier der total falsche Ort ist dafür. (da die allgemeine Diskussion nicht wirklich was mit Hybrid zu tun hat) Hab mal die Posts gemeldet und gebeten das in Generelle Laberunterforum zu schieben.
Okay, wenn ich Dich nicht missverstehen ist, was Du willst, Deiner Quelle ColorGrading (HDR) Informationen hinzufügen,
Wenn Dein Material als HEVC vorliegen würde, würde ich sagen, dass Du Dich mit ColorGrading und dem Erstellen und Austauschen der HDR10+/DolbyVision Metadaten beschäftigen solltest.
Zitat
- Man müsste bei Filmen, bei denen Farbe/Helligkeit/Kontast nicht passt nicht reencodieren, um eine dauerhafte Korrektur zu erwirken
- Mögliche Bandbreiteneinsparung (wollte ich demnächst mal austesten)
Zum ersten Punkt: okay.
Zum zweiten Punkt: sehe ich nicht. Das da irgendwas eingespart wird. Wenn die Informationen nicht da sind, bringt an der Helligkeit&Co drehen nix. Wenn Du einen zu dunklen oder zu hellen Film hast, werden da keine Informationen erfunden. Aus YUV 4:2:0 kann man nicht einfach bessere 4:4:4 machen.
Informationen in zu dunklen/hellen Stellen verwerfen ist ja, was alle hvs (human visual system) Optimierungen machen.
Cu Selur
Glaube nicht, dass das kommt, da die meisten Leute wohl keinen Nutzen dafür sehen. Aber wer weiß, sowas schon sicher ?
ZitatWenn dem nicht so ist, würde das ja bedeuten, dass die entsprechenden Videos auch immer nur mit dem entsprechend angepassten player wie gewünscht aussehen, richtig?
Richtig. -> das wesentliche Problem ist einen der Playerentwickler davon zu überzeugen, dass das, was Du willst ne sinnige Idee ist, damit das in die offizielle Version des Players kommt.