AC3 in AAC 5.1 encodieren mit welcher Bitrate?

  • Hallo,

    ich möchte eine AC3-Tonspur möglichst verlustfrei (ich weiß, dass AC3 bereits selbst ein verlustbehaftetes Komprimierungsformat ist) in AAC umwandeln. Eine 5.1.-Tonspur soll dabei auch in AAC im 5.1-Format bleiben.

    Im AAC-Artikel bei Wikipedia finde ich die Angabe, dass bei 128 kbit/s nahezu Transparenz erreicht ist, andere Seiten im Internet zu Folge entsprächen 160 kbit/s bei AAC 192 kbit/s MP3, was man ja etwas auch mit AC3 vergleichen könnte.

    StaxRip hat als Standard-Einstellung für Stereo-AAC nur 96 kbit/s, für 5.1-Surround 192 kbit/s, Handbrake ebenfalls 192kbit/s, bei Fdk als Ecoder sogar nur 160kbit/s.

    Sind diese niedrigen Bitraten, die die Programme "empfehlen" wirklich ausreichend?

    (Würde ich 160 kbit/s für Stereo als Ausgangspunkt nehmen, wären das 80 kbit/s pro Kanal, bei 5.1 also 480 kbit/s - also sogar mehr als etwas DVDs als AC3-Ton haben - diese Rechnung von mir kann doch so nicht stimmen, oder?)

  • Soweit möglich, sollte man Ziel-Bitraten vermeiden, weil Ziel-Qualitätsstufen eine gleichmäßigere Qualität erzeugen können, auch wenn dadurch der Verlauf der Bitrate der Tonspur variabler wird.

    Leider verwendet der FhG-AAC-Encoder Bitraten als Zielvorgabe, auch wenn tatsächlich eine Qualitätssteuerung stattfindet. Das ist für solche Fälle nicht ganz intuitiv, wenn der Inhalt diese vermeintlichen Zielbitraten verfehlt. Nero und QAAC verwenden Qualitätswerte.

    Welche Bitrate im Durchschnitt wie viel Qualität erwarten lässt, hängt stark vom Inhalt ab (melodiös / still / lärmend). AAC hat ähnlich gutes bis besseres "Channel Coupling", also effiziente Encodierung des Zusammenhangs zwischen mehreren Tonspuren (bei Stereo die Mid/Side-Codierung, bei Mehrkanal analog und etwas komplexer). Insofern kann man als Faustformel auch (wie ich es mal in der DVD-Produktion gelernt habe) mit der Quadratwurzel der Kanäle schätzen: 2 Kanäle brauchen für ähnliche Qualität wie Mono etwa √2 mal so viel Bitrate, diskreter 5.1-Mehrkanalton etwas über √5 mal so viel (der LFE-Kanal zählt nicht voll, etwa als ein Drittel, weil er zwar geringen Frequenzumfang hat, aber auch relativ unabhängig vom Rest ist).

    Letztendlich hängt aber viel vom persönlichen Geschmack und Ansprüchen ab. Ich würde dir empfehlen, einfach mal mit QAAC jeweils eine Tonspur mit TVBR 64, 73, 82 und 91 zu konvertieren und von diesen Ergebnissen einerseits die durchschnittlichen Bitraten zu vergleichen, und andererseits mal aufmerksam hineinzuhören, ob man irgendwo Verluste bemerkt. Ich würde davon ausgehen, dass wirklich "akustisch transparente" Ergebnisse bei 5.1-Ton noch über 200 kbps benötigt; mit 96 kbps Stereo in AAC wäre ich wahrscheinlich kaum zufrieden, wenn der Ton viele feine Nuancen hat (vielleicht wegen ProLogic-Surround), so wie 128 kbps in MP3 dafür meiner Meinung nach auch nicht reichen.

  • AAC hat ähnlich gutes bis besseres "Channel Coupling", also effiziente Encodierung des Zusammenhangs zwischen mehreren Tonspuren (bei Stereo die Mid/Side-Codierung, bei Mehrkanal analog und etwas komplexer).


    "Ähnlich gut" wie was?
    Wenn ich mich recht erinnere, kodiert AAC maximal zwei Kanäle zusammen. 5.1 wäre wohl 2x Stereo (einmal vorne, einmal hinten), 1x Center und 1xLFE. Diese vier Streams können keine Informationen der anderen nutzen. (Wobei ich mich Frage, ob es beim typischem Filmsound überhaupt viel wiederzuverwerten gäbe.)

  • Ähnlich gut wie AC3.

    Und nein, AAC hat nicht die Einschränkungen der Kompatibilität wie MPEG-1/2-Audio. MPEG-2 MC auf DVD Video hatte den erheblichen Nachteil, die Front-Kanäle getrennt von den zusätzlichen Kanälen speichern zu müssen, deshalb gingen da die Bitraten bis auf 912 kbps hoch. AC3 mit gutem Channel Coupling brauchte nur max. 448 kbps für 5.1, und AAC kommt durchaus mit noch weniger klar durch die effizientere Encodierung.

    Aber unter 200 kbps für 5.1? :grübeln:

    Diese vier Streams können keine Informationen der anderen nutzen.

    Das musst du mir erklären. Als ich noch DVDs produziert hatte, wurde mir von allen Büchern, die ich da über Mehrkanalton lesen konnte, für Dolby Digital erklärt, dass hier im Unterschied zu MPEG-2 MC eine Art "mehrdimensionales Mid/Side" funktioniert.
    __

    P.S.: Kleine Übersicht über Bitraten bei der Konvertierung der FLAC-Tonspur von "Tears of Steel" (ich hoffe, LwLibavAudioSource liefert die korrekte Kanalreihenfolge).

    TVBR 63 ~284 kbps
    TVBR 73 ~316 kbps
    TVBR 82 ~349 kbps
    TVBR 91 ~430 kbps

    Für meine Musik verwende ich TVBR 82; für Kinofilme könnte mir TVBR 73 genügen, vermute ich. Muss aber jeder selber wissen, wie viel "ausreichend gut" klingt.

  • Ja eben. Warum sollte AAC immer noch unter den Abwärtskompatibilitäts-Krankheiten von herkömmlichem MPEG-Audio leiden? Das fände ich ausgesprochen peinlich. Umso mehr interessieren mich Quellen, die eine solche Aussage unterstützen oder widerlegen. Leider habe ich im Moment auch nichts konkretes greifbar.

  • Umso mehr interessieren mich Quellen, die eine solche Aussage unterstützen oder widerlegen. Leider habe ich im Moment auch nichts konkretes greifbar.


    Ich habe mal etwas nach Quellen gesucht, allerdings auch nicht viel konkretes oder belastbares gefunden (AAC-Standard nicht frei verfügbar).

    Die meisten Quellen scheinen sich einig zu sein, daß es Mono- und Stereo-Streams gibt, aus denen man entsprechend 5.1 zusammensetzen kann. Es gibt zusätzlich noch ein optionales "Channel Coupling Element", welches aber nur wenige Decoder bzw. Enkoder unterstützen und dessen Funktion mir nicht ganz klar ist (konkret, ob man es dazu nutzen kann, mehr als zwei Kanäle effizient zu verknüpfen). Der Microsoft-Dekoder beherrscht CCE z.B. gar nicht, kann aber meines Wissens trotzdem die üblichen 5.1-Dateien abspielen. Ich vermute daher, daß keiner der üblichen Enkoder CCE nutzt. (Apple, Nero, Fraunhofer)
    Ich konnte mich auch an Tests erinnern, bei denen ich 2.0 auf 4.0 aufgebläht habe, und der AAC-Encoder (weiß nicht mehr welcher, vermutlich entweder Nero oder Apple) die Dateigröße um Faktor 2 anwachsen ließ.

    http://spectralhole.blogspot.de/2010/08/aac-bi…nnel-model.html
    https://msdn.microsoft.com/en-us/library/…4(v=vs.85).aspx

  • 'Soweit möglich, sollte man Ziel-Bitraten vermeiden, weil Ziel-Qualitätsstufen eine gleichmäßigere Qualität erzeugen können, auch wenn dadurch der Verlauf der Bitrate der Tonspur variabler wird.'

    Nein das stimmt nicht. Also zumindest nicht bei Video. Ich muss eigentlich meine gesamte Sammlung von Fernsehaufnahmen - mit Werbung rausgeschnitten wiederholen, weil ich das geglaubt habe, dass man keinen 2-Pass mehr macht bei den neuen Verfahren H264 und H265.

    Das sitmmt NICHT. Es gibt immer eine eingeschränkte Qualität ins Sachen Schärfe - und auch Artefakte -dies aber ist nicht so wesentlich. Man errreicht fast die Qualtität des Digitalstreams bei 720x576 wenn man X264 und 1500K/Bit/s nimmt und dann 2-Pass, schneller 1. Durchgang. Auch in einem englischen Forum war einer verärgert, weil er darauf reingefallen ist. Ich arbeite nicht mit HD, vielleicht macht es da nicht so viel aus bzw. man sieht es nur auf einem 4K Fernseher. Aber bei DVD Qualtität ist das so. Es ist bei Nahaufnahmen schärfer, da die Bitrate einfach viel Luft nach Oben läßt, schält der Encoder auf viel mehr Details und eine höhere Stufe. Die Qualität des Encoders selbst habe ich soweiso auf höchster Stufe - als im Vidcoder bzw. Handbrake. Es ist eine Mittelmaß Lösung, wenn man konstante Qualität wählt - da sind die üblichen Stufen 20-22 deutlich schlechter in SD als eine konstante Bitrate von 1500KBit/s - selbst wenn die Dateien nicht viel größer werden oder gleich groß snd. Ob nun ein Film 850MB oder 1,19Gb hat ist heuzutage bei einer TB Platte egal. Man regt sich hinterher so auf, wenn man das nicht befolgt oder zumindest für sich selbst ausprobiert hat. Man bekommt sogar wieder eine DVD Qualität beim recodieren für einen normalen (alten) DVD Player hin.

    Grüßle

  • In diesem Beitrag geht es um Audio-Formate (besonders MPEG AAC). Und du redest von Video (H.264, H.265), da bist du knapp daneben.

    Abgesehen davon arbeiten x264 und x265 aber wirklich so: Sie ermitteln im 2-pass-Verfahren im ersten Durchlauf den Ratefaktor, bei dem eine vorgegebene Zielgröße möglichst genau erreicht wird, und führen dann im zweiten Durchlauf eine CRF-Encodierung mit diesem statistisch ermittelten Wert durch.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!