[Blocked Image: https://i.imgur.com/XbQ1Faz.png][Blocked Image: https://i.imgur.com/d9Ef4nx.jpeg]
Also geht bei mir.
[Blocked Image: https://i.imgur.com/XbQ1Faz.png][Blocked Image: https://i.imgur.com/d9Ef4nx.jpeg]
Also geht bei mir.
Weil mir gerade die Seite über den Weg gelaufen ist und auch evc und vvc verglichen wird, hier was zum durchklicken.
Eigentlich ganz gut gemacht.
videocodecs.info | mainverwende, input&output nicht identisch sind?
Und was gefunden?
Da du ja GLSL Shader hier gesucht hast, hab 2 neue für dich zum Testen. Sind auch noch nicht so bekannt.
AniSD ArtCNN (GLSL Shader) -> https://slow.pics/c/1Ibz4w8J
Ani4K v2 ArtCNN (GLSL Shader) -> https://slow.pics/c/gqrp7CsC
Dann geht der PAL-Speedup doch relativ gut hin.
1:49 h = 109 min = 6540 sek
6540 sek * 24fps = 156960 frames (im Film)
156960 / 25fps = 6278,4 sek = 104,64 min
1:44 h = 104 min
oder kurz:
109min / 25 * 24 = 104,64 min
Also du hast ein Video mit 24 fps, welches 109min geht. Du spielst es aber jetzt nicht mit 24 Frames pro Sekunde, sondern mit 25 Frames pro Sekunde ab (PAL-Speedup), dadurch spielst du es kaum merklich schneller ab. Der Ton wird - glaub ich - leicht höher.
PAL-Speedup bedeutet, Video und Audio schneller abspielen.
Und dann ist es nur noch 104min. Geht gut hin.
Wenn du solche Sachen dann wieder mit dem Original (24 fps) muxen willst, musst du die Audio Spur wieder langsamer umrechnen. Also den PAL-Speedup wieder rausrechnen.
Lies dir mal PAL-Speedup durch: https://de.wikipedia.org/wiki/PAL-Beschleunigung
Und zufrieden?
Zusammengestellte PC sind nix für dich?
z.B. https://www.dubaro.de/GAMING-PC/PCGH…:::829_918.html
Danke sehr. Finde ich besser, aber auch aus dem Grund, dass man beim Abspielen mehr machen kann.
Also je nach Abspielgerät nochmal Filter drauf. Würde man nochmal schärfen, sieht man Grain extrem. Aber das ist Geschmacksache.
Finde, das sieht schon sehr gut aus. Wie sieht es ohne addGrain aus?
Immer wenn ich Grain sehe, fühlt sich das nach VHS Quali an.
Denke aber generell wird das sicher kommen, dass man Diffusion Modelle und dergleichen zur Restauration verwenden wird, auch wenn man da immer auf die 'Authentizität' achten muss.
Das Problem ist halt, man bei Video i.d.R. nur eine Verbesserung und nicht ein Ersetzen haben will.
Wenn man bei codeformer als Gewichtung 0 verwendet, passiert halt so etwas: https://imgsli.com/MTY2NDI2
Wenn man ein Familienvideo aufbessern will und die Oma wird zu Cindy Crawford, weil man dem Model gesagt hat, es möge das Bild aufbessern,...
Cu Selur
Oma sah doch schon immer so aus
Da ist es ärgerlich, schwierig wirds, wenn die Leute sowas aus Absicht machen.
Also absichtliche Geschichtsfälschung und aus Politikgründen verbreiten oder aus Gier. Ich bin mir sicher, dass der Markt aus Stock Bildern bald zerstört ist.
Wer damit sein Geld verdient, tut mir leid.
Schaut nicht schlecht aus.
Wobei ich so langsam den Überblick über die verschiedenen Modelarten verliere.
Ich frage mich, ob man auch Diffusion Modelle irgendwann zur Restauration verwenden kann. Oder kommt da immer zufälliges raus.
Sind ja schon die ersten Text-to-Video da:
Das dürften ja Modelle sein, die Einzelbilder transformieren. Interessant würden Modelle sein, die über mehrere Frames - wie rife - gehen, dafür dürfte aber die Hardware lange noch nicht reichen. Selbst mit tensorrt bekommst du kaum realtime hin.
Wo nimmst du eigentlich deine Modelle her?
Beeindruckend ist die Kombination aus SwinIRx4+vsCodeFormer: https://imgsli.com/MTY2NDA3 aber als LiveFilter momentan nicht zu gebrauchen.
Schaut gut aus. Und wieso nicht als Livefilter zu gebrauchen, wenn es schnell genug wäre?
Erinnert an die Asia Filter, die es in Massen gibt.
Ist doch der Traum für Streamer, die eine Webcam benutzen.
Funktioniert es denn, wenn du es mit der mkvmerge GUI zusammenstellst? Da kannst du dann auch sehen, welchen command der ausführen würde.
Apropo FPS: bevor es verloren geht, weil es vermutlich nie in ffmpeg aufgenommen wird
hat schon jemand NVIDIA Optical Flow Accelerator (NVOFA) FRUC ausprobiert?
QuoteThe library exposes FRUC APIs that can be used for frame rate up conversion of video files. See https://docs.nvidia.com/video-technolo…uide/index.html for the API documentation and sample code.
This is important because NVIDIA GPUs since the Turing generation have hardware support for optical flow-based frame interpolation. MPV already includes --interpolation, but if the GPU supports optical flow-based frame interpolation, this should obviously be preferred for maximum smoothness and quality. I believe NVOFA FRUC only returns interpolated frames, so exactly which frames are interpolated would need to be decided (to match the user's monitor's frame rate, to match to an arbitrary fps, to just interpolate between all frames --> 2x fps, etc.).
wurde hier im mpv issue besprochen: https://github.com/mpv-player/mpv/issues/11060
philipl hat auch ein ffmpeg filter dafür geschrieben, der aber wegen den Lizenzen nie offiziell Teil von ffmpeg sein wird.
https://github.com/philipl/FFmpeg/tree/fruc-me
Wer es ausprobieren will. Ich würde gerne, man braucht aber eine neuere Nvidia GPU. RTX und so.
Für Interessierte: Ich habe bei meinen bisherigen Testfiles die Farbsättigung und den Kontrast per Filter jeweils um 50 % reduziert.
Die Bitratenersparnis betrug bei den 3 Testfiles zwischen 45-55 %.
Was mich interessieren würde, geht denn die Information alleine durch die Farbsättigung und den Kontrast Änderung verloren?
Oder ist das nur der Codec, der dann auf die verminderte Helligkeit reagiert und die Bitrate runterregelt.
Also wird die kodierte Datei schon kleiner, wenn man einmal die Farbsättigung und den Kontrast im Script runter und gleich wieder hochsetzt, bevor man dann kodiert?
Hat schon mal jemand den stable diffusion upscaler ausprobiert, was der aus Bildern macht?
Habe jetzt vapoursynth nicht probiert. Bei mpv funktioniert der Shader bei OpenGL ohne Probleme.
Wenn ich aber die gpu-api auf vulkan stelle, läuft der Shader nur mit den Intel Treibern. Bei den Nvidia Treibern meines Desktop Systems (Linux, 515.76) bekomme ich da nur grüne Punkte oder ganz schwarzes Bild.
ich denke schon, aber frag den ihn am besten selber. Am einfachsten selbst mit mpv ausprobieren.
in die input.conf von mpv z.B. folgendes rein:
input.conf:
F4 no-osd change-list glsl-shaders toggle "~~/shaders/nlmeans.glsl"; show-text "Non-local means (LUMA only)"
dann einfach mpv starten, Bild anhalten und mit F4 den Shader togglen.
2 Beispielbilder:
https://raw.githubusercontent.com/AN3223/dotfile…3D5_nlmeans.png
https://raw.githubusercontent.com/AN3223/dotfile…ena_nlmeans.png
Reddit Link:
https://www.reddit.com/r/mpv/comments…eans_denoising/
Vielleicht ist noch die next Variante interessant:
https://github.com/AN3223/dotfile…fig/mpv/shaders
https://raw.githubusercontent.com/AN3223/dotfile…means_next.glsl
What's the diff between thoes variants?
AN3223
The only variant in the repo worth using is nlmeans_next.glsl for temporal denoising, it's the same but it loads all of the storage textures for the frames, which is only compatible with vo=gpu-next (and they slow down the shader a good bit even if the feature isn't being used).