Beiträge von LigH

    Auf jeden Fall. Videocodecs wollen ja Bitrate effizient verteilen, und das tun sie meist, indem sie mehr davon dort verwenden, wo es detailreiche Inhalte gibt, weil es dort das Speichern hoher Frequenzanteile erfordert. Dadurch sparen sie in sehr detailarmen Szenen aber leider oft zu viel. Dagegen können Videomodelle helfen, die in der Lage sind, Verläufe über größere Distanzen zu modellieren. Das konnte H.264 (MPEG4 AVC) noch nicht so gut, da es nur Makroblöcke von 16² Pixeln verwendet. H.265 (HEVC), H.266 (VVC) und AOM AV1 haben auch größere Einheiten zur Verfügung. Und Wavelet-Formate könnten sogar Verläufe über das gesamte Bild hinweg modellieren (wenn es verbreitete Formate gäbe, die generell ähnlich effizient Videos codieren könnten wie MPEG und On2/Google/AOM).

    Zusätzlich kann es (auch bei AVC) schon helfen, mit einer höheren Präzision zu encodieren (10 bit statt 8 bit pro Kanal), und es gibt auch verschiedene psychovisuelle Tuning-Parameter (Stichwort "Anime").

    Der Video-Renderer madVR ist für qualitativ sehr hochwertiges Hochskalieren kleinerer Videos auf größere PC-Desktop-Auflösungen mit Unterstützung moderner Grafikchipsätze bekannt, sowie für eine ganze Reihe weiterer nützlicher Funktionen. Allerdings kosten einige Funktionen auch recht viel Rechenleistung, teils in der CPU, teils in der GPU.


    Auf die sparsameren Skalierungsfunktionen beschränkt sich MPC-VR von Aleksoid1978, der besonders von den Windows-Mediaplayern MPC-HC (in der Fortsetzung der Entwicklung durch clsid2) und MPC-BE unterstützt wird (letzterer ebenfalls von Aleksoid1978).


    Eine Variante des MPC-VR von emoose unterstützt zusätzlich spezielle SuperRes-Funktionen der modernsten Grafikkarten-Generationen, NVIDIA RTX VSR & Intel Xe VPE.

    Zu 3.: Ich weiß nicht, ob es einen speziellen optimalen Lua-Editor gibt; viele fortgeschrittene Texteditoren (PSPad, Notepad++, CONtext ...) unterstützen Syntax-Highlighting und evtl. auch den einfachen Aufruf von Hilfesystemen und z.B. Compilern.

    Es wird seit langer Zeit bemängelt, dass ffmpeg eine bestimmte Blu-ray-kompatible Variante von E-AC3 mit 7.1-Layout (zwei abhängige Unterspuren) nicht unterstützt. Ich bin mir aber nicht sicher, wie relevant das für deinen konkreten Fall ist...

    Für B2B, möglichst preiswert ohne Werbung, würde ich spontan empfehlen einen eigenen Server mit NextCloud oder dergleichen zu nutzen.

    Oder ownCloud. Der Server muss dann allerdings auch von außen erreichbar sein (u.U. mit Portweiterleitung im Router), und die IP muss ermittelbar sein (feste IP oder mit dynamischem DNS-Service). Manche DSL-Router bieten auch in ihrer Firmware solche Dienste an.

    Stichwort: long/short shutter


    Klar sind Bewegungen bei mehr Bildern pro Sekunde flüssiger, weil die Zeitscheiben der Aufnahmen jedes Einzelbildes kürzer und damit die Bewegungsunschärfe für die Dauer jedes Einzelbildes geringer ist. Durch mehr Bewegungsunschärfe haben herkömmliche Kinofilme weichere Bewegungen als moderne HD-Filme mit hoher Framerate, dadurch wirken sie eben auch noch ein wenig "unwirklich".

    Man kopiert nicht einfach so VOB-Dateien, denn ihr Inhalt kann nur in Kombination mit den Informationen der IFO-Dateien korrekt erkannt und verarbeitet werden. In den VOB-Dateien kann mehr als nur der Hauptfilm enthalten sein, und der Hauptfilm dürfte sogar in einer Reihenfolge enthalten sein, die nicht mit der Abspielreihenfolge übereinstimmt.


    Ich kann dir nur empfehlen, mit einem geeigneten DVD-Ripper (bei nicht kopiergeschützten DVDs, die vollständig auf der Festplatte sind, geht das mit PGCDemux) eine "PGC-VOB" zu erzeugen, das ist eine zusammenhängende Datei (dann oft größer als das auf Scheibe erlaubte Maximum von 1 GB pro Stück), welche nur den Videostream der Hauptfilm-PGC und die eine ausgesuchte Untertitelspur enthält, die deine gewünschte Untertitelvariante zeigt. Aus dieser speziellen Kopie können dann Programme, die Untertitel verarbeiten, gar nichts falsches mehr auswählen.

    Für Einzelbilder sieht er beeindruckend aus; ich bezweifle aber, dass er für Videos hinreichend stabile Ergebnisse generiert. ich würde befürchten, dass es bei Bewegungen künstlich flackert. Und es müsste überhaupt erst kompatibel zu VapourSynth nutzbar sein...