Beiträge von LigH

    In der Codec-Liste von ffmpeg taucht H.266/VVC auf als "V"(ideo codec) und "L"(ossy); allerdings weder mit "D"(ecoder) noch "E"(ncoder). Wird also vermutlich bisher lediglich identifiziert.

    Ich weiß jetzt nicht in wiefern man klar die "Schuld" zuweisen kann, wenn GPU-Funktionen betroffen sind. Zumindest kenne ich den Bedarf an VRAM für FFT3dGPU nicht. Aber wenn es nötig ist, Videoframes erst mal in den Grafikspeicher hochzuladen, dann hilft eine Erhöhung des Zugriffs auf normalen Arbeitsspeicher vielleicht wenig, wenn deine Grafikkarte zu wenig Grafikspeicher hat, um mehrere UHD-Videoframes aufzubewahren, die der Filter vielleicht von dort her verarbeitet.

    Dann gäbe es immer noch die Privatkopie in unerheblicher Anzahl, wenn man sich untereinander kennt, die dann ungestraft bleibt. Und der Nebeneffekt beim heimlichen privaten Tausch: Wo kein Kläger, da kein Richter. Man muss ja nicht über alles öffentlich sprechen.

    LoadPlugin: unable to load "D:\Neuer Ordner\MeGUI\tools\lsmash\LSMASHSource.dll", Module not found. Install missing library?

    Ziemlich sicher fehlt dir hier die Installation der dazu passenden Version der Microsoft Visual C++ Runtime. Leider weiß ich nicht, welche der vielen Versionen (mit Jahreszahlen wie 2010, 2013, 2015, 2017, 2019) du für diese Version des Plugins brauchst, aber MSVC-Runtimes aller möglichen Versionen brauchen ja sowieso viele Programme.

    Ja, das ist eine Kompromissfrage.


    Lässt man Interlaced-Material interlaced, korrekt gekennzeichnet, ermöglicht man dem Wiedergabegerät, selbst für optimale Darstellung zu sorgen. Im Falle von Röhrenfernsehern damals war das einfach, die haben ihr Bild ja ohnehin schon interlaced dargestellt. Heute bei den LCD/LED-Flachbildfernsehern ist dagegen progressive Darstellung sinnvoller. Hier haben die Fernseher aber auch recht hochwertige Methoden zum Bobben (Darstellung beider Halbbilder zu ihren jeweiligen Zeitpunkten als aufgefüllte Vollbilder).


    Sicherlich kann eine Vorausberechnung mit Software (v.a. QTGMC, CQTGMC) noch bessere Qualität bringen. Der Nachteil davon ist aber, dass man dann auch größere Ergebnisse bekommt, da ja doppelt so viele Frames pro Laufzeit gespeichert werden. Man braucht nicht unbedingt doppelt so viel Platz für vergleichbare Qualität mit Interlaced-Codierung des Originalvideos, aber dennoch wesentlich mehr, wenn man nicht eine Qualitätsminderung riskieren will. Dabei sollte man aber beachten, dass viele Fernseher beim Abspielen von Videomaterial von eingesteckten Datenträgern so ihre Grenzen der Bitrate haben können.


    Progressive Umwandlung kann also je nach Rahmenbedingung sinnvoll sein. Eine Rückumwandlung ins Interlaced-Format kann ich aber nicht im Allgemeinen empfehlen. Da müsste es schon sehr konkrete Gründe dafür geben. Beispielsweise Hochskalieren zu 1080i, weil Blu-ray kein 1080p unterstützt.

    Der hat aber auch eine zusammenhängende PGC-Datei erzeugt, wenn man ihn im Movie-Modus benutzt (bzw. IFO-Modus beim DVD Decrypter). Und so macht es MakeMKV im Grunde auch ... nur mit MKV-Container statt PGC-VOB oder Elementarstreams.

    Ich hoffe, du verstehst, was "interlaced" bedeutet: Die beiden Halbbilder (Fields) eines gemeinsam encodierten Vollbildes (Frames) zeigen den Inhalt verschiedener Zeitpunkte. Deshalb kann man nicht einfach so entscheiden, das mal so und mal so handhaben zu wollen.


    Sollte das Interlacing durch Telecine erzeugt worden sein, lässt es sich rückgängig machen, weil das Original eigentlich progressiv war; hat die Kamera dagegen die Szene interlaced aufgenommen, braucht man ein Deinterlacing-Verfahren, das mindestens das halbe Bild neu dazu erfindet, wenn man im Ergebnis progressives Video will. Man bekommt dadurch völlig neue Inhalte, die eine Kamera so nie aufgenommen hatte.

    Nicht unbedingt. Mehr so, dass ein Titleset vor und nach dem Hauptfilm noch Trailer oder manchmal sogar Bewegtmenüs mit enthalten kann, und das oft die Tonspuren asynchron macht. Oder noch schlimmer: Falls es Multi-Angle-Szenen gibt, könnte es passieren, dass man die gemischt bekommt, weil die parallelen Videostreams nicht korrekt auseinander gehalten werden.

    Vielleicht ist die DLL-Version zu alt und unterstützt diese Funktion noch nicht. Ich habe auf meinem PC über 20 Dateien mit diesem Dateinamen, die über verschiedene Verzeichnisse (WinSxS, servicing ...) verteilt sind, von 24 bis 961 KB Größe.


    Vielleicht weiß Mosu den Grund. Ob jetzt vielleicht Windows neuer als 7 nötig ist, oder wenigstens ein aktuelles DirectX...

    Grundsätzlich ja; sowohl LSMASHWorks (LwLibavVideo/AudioSource) als auch FFMS2 können mit dem MKV-Container und den darin enthaltenen A/V-Formaten gut umgehen. Was "diverse Schnittprogramme" angeht, ist die Unterstützung von MKV bei hochpreisiger Software eher schlecht, bei kostenloser (wie Avidemux oder ShotCut) aber teilweise vorhanden.

    Gegenwärtig ist mein Workflow so, dass ich das uralt Programm VOBMerge nutze und mir aus den vob Dateien eine mpeg Datei erstellen.

    Bloß nicht... Wenn du VOB-Dateien verarbeitest, ohne auf deren logische Struktur zu achten, wie sie in den IFO-Dateien definiert wird, hast du immer das Risiko, dass das Ergebnis ein Durcheinander enthält, nicht nur den reinen Hauptfilm.


    Verwende MakeMKV, das kann die Program Chain des Hauptfilms so extrahieren, wie sie ein DVD-Player abspielen würde, und packt das DVD-Material verlustfrei in eine MKV-Datei. Das Entschlüsseln von DVDs unterstützt es immer, auch ohne Jonglieren mit Testversionen und Ablaufdaten (wie bei Blu-rays).

    Einige Einsender von Dashcam-Videos verwenden DashcamCleaner, um Kennzeichen von Fahrzeugen automatisiert zu erkennen, zu verfolgen und wegen der DSGVO unkenntlich zu machen. Leider ist diese Software nicht so ganz einfach zu verwenden, da sie auf Python 3.8+ aufbaut. Mit pytorch kann GPU-Beschleunigung genutzt werden, die aber nur für eine Instanz.


    Nun würde jemand gern mal vergleichen, wie stark sich CPU- und GPU-Berechnung hinsichtlich der Geschwindigkeit unterscheiden. Es scheint aber nicht so ganz einfach zu sein, die Installation mal eben zu wechseln, da wohl schon bei Installation mehrerer abhängiger Pakete ausgewählt wird, ob die Variante mit oder ohne GPU-Unterstützung installiert wird. Vielleicht wäre hier ein Parallelbetrieb ganzer portabler Python-Umgebungen notwendig?


    Falls z.B. Selur Tipps hätte, der Auto-/Fahrraddashcam-Discord würde sich darüber sicher freuen.

    Du solltest besser keine kompletten DVD-Inhalte öffentlich teilen.


    Einzelne VOB-Dateien helfen ohnehin nicht weiter. Die Filminhalte darin können durchaus auch mit Lücken und in veränderter Reihenfolge abgespeichert sein, um direktes Abspielen ohne DVD-Navigator zu erschweren. Nur als komplette DVD, mit zusätzlichem Wissen aus den IFO-Dateien, würden eingestreute verwirrende Inhalte übersprungen werden.


    Wie dieser Kopierschutz heißt, finden wir vermutlich sowieso kaum heraus.

    Der CSS-Kopierschutz wirkt nur auf der DVD. Sobald du sie auf Festplatte ausgelesen hast, sind die Daten dort entweder korrekt unverschlüsselt (dann müsste sie jeder Software-Player wiedergeben können) oder fehlerhaft (dann ist keine Entschlüsselung mehr möglich).


    Es gibt noch andere Kopierschutzmethoden, die eher darauf zielen, die Struktur in den IFO-Dateien beim Auslesen mit dem ISO-9660-Dateisystem (so wie Windows-PCs eine Daten-DVD bevorzugt gelesen haben) falsch zu liefern, aber beim Lesen über das UDF-Dateisystem (was DVD-Player verwenden) muss es korrekte Informationen geben. Gute DVD-Ripper wissen das.


    Außerdem kommt es noch darauf an, wie die DVD ausgelesen wird: Entweder weitgehend alle Dateien so, wie sie sind (evtl. auch als ISO-Disk-Abbild), oder "der Hauptfilm" am Stück ausgewählt. Letzteres ist für eine Konvertierung nützlicher, dann bekommt man vom DVD-Ripper schon nur den Teil des DVD-Inhaltes, für den man sich interessiert. Wenn du nur die PGC des Hauptfilms rippst, gibt es eigentlich nichts, was Player noch verwirren könnte. Hast du sie vollständig, sind immer die IFO-Dateien ausschlaggebend dafür, dass die Struktur richtig verarbeitet wird.

    Also "Pillarboxing" (statt Letterboxing).


    Ja, das kann notwendig sein, wenn ein Zielformat ein 16:9-Seitenverhältnis erfordert.


    Im Allgemeinen sind schwarze Seiten nicht problematisch, moderne Videocodecs können tiefschwarze Flächen sehr effizient speichern. Wenn du aber sowas wie "ambient backlight" erzeugen willst, dann kostet das zusätzlich Bitrate, und in sehr sanften Farbübergängen wird wahrscheinlich hässliches Banding auftreten.


    Erzeugen könnte man so etwas vielleicht, indem man das Video auf sehr geringe Höhe herunter- und auf die Gesamtgröße danach hochskaliert (eventuell noch etwas die Farbsättigung drücken), und das Original dann per Layer einblendet.