Beiträge von RRAH

    Ich verstehe die Frage nicht :grübeln: - das eine hat doch mit dem anderen nichts zu tun.

    Resizing ist nur nötig, wenn man eine bestimmte Auflösung erzielen will oder muss. Selbst wenn man also ein Full-HD-Video vertikal UND horizontal croppt, gibt es im Normalfall keinen sinnvollen Grund, das Ergebnis auf 1920xwas-weiß-ich-was hoch zu skalieren, nur damit die horizontale Auflösung genau 1920 Pixel beträgt.


    Obwohl Du meine Frage nicht verstanden hast, hast Du sie beantwortet, :) Cropping hat nichts mit Resize zu tun.

    Ich war nur etwas verunsichert, da ich in Anleitungen immer mal wieder gelesen habe:

    Beispiel
    ...
    Crop(0,140,0,-140)
    LanzcosResize(1920,800)

    Dann kann ich mir "LanczosResize" aber wohl sparen.

    Hallo zusammen,

    als absoluter AviSynth-Anfänger stehe ich gerade auf dem Schlauch bezüglich Crop und Resize.

    Wenn ich bei einer HD-Quelle (1920x1080) lediglich die schwarzen Balken oben und unten entferne, um diese anschließend mit x264 zu encodieren, benötige ich dann überhaupt einen Resize-Filter? Nach meinem Verständnis wäre das doch nur erforderlich, wenn ich auch in der Vertikalen croppen würde.

    Bitte klärt mich auf. Danke. :)

    Hintergrund: DTS hat ja keine implementierte DRC, was regelmäßig dazu führt, dass es meine Frau und meine Kinder bei lauten Szenen aus den Sitzen haut und die Wände wackeln. Daher habe ich mir vor einiger Zeit vorgenommen, jeden Film mit einer separaten Stereo-Tonspur und reduzierter Dynamik zu versehen. Anmerkung: Der Nacht-Modus meines Sound-Systems ist grausam und scheidet aus. In den letzten Monaten habe ich mit diversen Methoden der Dynamikreduzierung experimentiert: Kompressoren verschiedenster Art, Limiter, Leveler, AC3-Filter, ffdshow, Sox, etc.. Dabei habe ich teils gute Ergebnisse erzielt, allerdings waren die einmal gefundenen Einstellungen für den nächsten Film wieder Schrott.

    Aktuell mache ich mir die DRC des AC3-Standards zunutze:

    1. Dekodieren der Original-Spur mit allen Kanälen (nutze dafür eac3to)
    2. Messen der korrekten Dialnorm (nutze dafür Nugen LM-Correct)
    3. Encodieren der WAV-Spur zu AC3 mit zertifiziertem Dolby Encoder (Film Standard oder Film Light je nach Dynamikumfang des Ausgangsmaterials)
    4. Dekodieren der AC3-Spur mit Stereo-Downmix und aktivierter DRC (nutze dafür ffmpeg)
    5. Normalisieren nach EBU R128 (nutze dafür Nugen LM-Correct)
    6. Encodieren der Spur zu FLAC

    Anschließend wird das ganze mit der Original-Spur, Untertiteln und Kapiteln in eine MKV gemuxt. Funktioniert gut, klingt gut, ist aber recht umständlich.

    Deswegen meine Frage: Kennt jemand eine andere, bessere oder gar die ultimative Methode der Dynamikreduzierung? :) Bin gespannt auf Eure Erfahrungen.

    P.S.: Bin jetzt erstmal eine Woche im Urlaub, beantworte danach aber auch gerne Rückfragen jeglicher Art. Bis dann.

    P.S.:

    Da ich das gerade im Beitrag zur media-autobuild_suite mitlese, solltest du mal schauen, ob du eine SoX-Variante findest, die libsndfile als Bibliothek für Audioformate enthält. Das ist leider ziemlich schwierig, ich bin zwar nicht ungeübt mit Google, finde aber selber nichts passendes.

    Die aktuelle Version 14.4.1a auf SourceForge hat es nicht dabei. Also hab ich mal im HydrogenAudio-Forum gefragt; wer sonst, wenn nicht die, sollte es wissen?


    Ich bin jetzt mal auf die vorletzte Version gegangen (14.4.0) und siehe da, es funktioniert reibungslos. :)

    Vielen Dank für Deine Hilfe und vielleicht findet sich ja noch eine aktuelle Version mit w64 Unterstützung.

    Hallo,

    ich möchte die Sox Compand-Funktion auf ein mit Eac3to erstelltes 5.1 W64-File anwenden. Mein Kommando lautet:

    C:\sox.exe C:\input.w64 C:\output.w64 compand 0.3,1 5:-80,-79,-42 -8 -90 0.2

    Sox meldet: no handler for file extension

    Wo liegt der Fehler? Wie lautet das richtige Kommando?

    Vielen Dank. :)

    Hallo zusammen,

    wenn ich einen AC3-Stream zu 6 Mono-Wave Dateien dekodiere und dann wieder zu einem AC3-Stream encode (Sinn und Unsinn dieser Aktion mal außen vor gelassen :) ) und dabei im Encoder den Parameter "90 degree phase shift" aktiviere, habe ich dann eigentlich ein doppeltes Shifting mit Auswirkungen auf die Audio-Qualität oder geht die ursprüngliche Information bei der Dekodierung zu 6 Mono-Waves verloren?

    Vielen Dank für Eure Antworten

    Hallo zusammen,

    wenn ich eine DTS Datei mit Eac3to zu 6 Mono-Wavs decode, bekomme ich bei Benutzung von ffmpeg immer die Meldung, dass Clipping entdeckt worden ist. Es findet dann nach dem 2nd Pass eine entsprechende Absenkung der Lautstärke statt.

    Wenn ich den Arcsoft Decoder benutze, ist das nicht der Fall und die Wavs sind auch entsprechend lauter, klingen aber nicht unbedingt besser.

    Wie ist das zu erklären?

    Vielen Dank