RoBa bei DVD->DVD-R wirklich sinnvoll? was genau der vorteil?

  • salve.

    die suche habe ich schon genutzt, konnte jedoch nichts zufriedenstellendes finden. auch google spuckt mir immer nur brockenhafte infos aus, die nich wirklich für aufklärung sorgen.

    und zwar folgendes: verwende gewöhnlich die Big3(000) mit CCE.
    nun bietet BatchCCEWS ja direkt die möglichkeit, die RoBa methode zu verwenden, was, wenn ich richtig beobachte und verstanden habe, lediglich die erstellung der VAF mit Constant Quality zur änderung hat.

    Nun ist genau dieser Schritt das, was ich bei ner DVD nicht ganz verstehe.
    Habe testweise einfach mal nen Film (16:9, 93min, sehr gute, scharfe, rauschfreie bildquelle) nur mit CQ25, CQ30 und CQ 50 encodet.

    ergebnis war:
    CQ25 - 2,0gb, quali 1
    CQ30 - 1,8gb, quali 1-
    CQ50 - 1,38gb, quali 2- (um die konturen herum wurds etwas blockig)

    nun bietet CQ25 schon ne exzellente quali, liegt aber noch über 1gb unter dem, was für das video für ne dvd5 zur verfügung stünde.
    ist das nu zufall, weil die source einfach so saugut ist und sich scheinbar exzellent komprimieren lässt (ist eigentlich sehr farbintensiv, kaum dunkel etc) oder kann ich da grundsätzlich so nen kleines ergebnis erwarten?

    wenn letzteres der fall ist, was hätte es für einen sinn, wenn ein qualitätslevel angestrebt wird, welches weit unter dem möglichen liegt? oder hab ich da irgend nen argument bei vergessen?

    sorry wenns das thema schon gab und ich es einfach nur übersehen hab (der link zur möglichen diskussion im gepinnten roba-thread führt ins 404), bitte nich übel nehmen :)

    danke scho mal für aufklärung

    wally

  • Welcher Link wo? Bitte exakt, damit er evtl. repariert werden kann.

    Ansonsten... Bei DVD-5 zu DVD-R wird nicht neu komprimiert. Da gibt es geeignetere Spezialtools, um evtl. Struktur zu ändern, Teile wegzulassen usw.; und dass man in "Top-Qualität" eine original DVD-9 sofort auf weit unter 4 GB kriegt, ist ohne mehr Details auch kaum vorstellbar.

  • Moin,

    auch wenn die Fragestellung nicht ganz klar ist - CQ25 ist ja bei weitem nicht das Ende der Fahnenstange, auch wenn es schon sehr gut aussieht. Und: Ja - das ist sourcenabhängig; d.h. ein anderer Film gleicher Länge kann bei CQ25 durchaus 7 GB groß werden (sonst identische Einstellungen vorausgesetzt)...

    Gruß Karl

  • Welcher Link wo? Bitte exakt, damit er evtl. repariert werden kann.

    Ansonsten... Bei DVD-5 zu DVD-R wird nicht neu komprimiert. Da gibt es geeignetere Spezialtools, um evtl. Struktur zu ändern, Teile wegzulassen usw.; und dass man in "Top-Qualität" eine original DVD-9 sofort auf weit unter 4 GB kriegt, ist ohne mehr Details auch kaum vorstellbar.

    http://forum.gleitz.info/showthread.php?t=4752
    beide links am ende des posts führen ins leere. ersterer scheint noch von vor dem boardumzug(oder änderung der forensoftware) zu sein, letzterer scheint beabsichtigt 'deaktiviert' zu sein.

    Bei DVD-5 zu DVD-R ist klar, da mach ich keinen reencode, wäre reichlich sinnfrei.

    Moin,

    auch wenn die Fragestellung nicht ganz klar ist - CQ25 ist ja bei weitem nicht das Ende der Fahnenstange, auch wenn es schon sehr gut aussieht. Und: Ja - das ist Sourcenabhängig; d.h. ein anderer Film gleicher Länge kann bei CQ25 durchaus 7GB groß werden (sonst identsche Instzellungen vorausgesetzt)...

    Gruß Karl

    @beide
    danke für die antworten :)
    also mir gings darum, obs beim reduzieren von DVD9 auf DVD5 sinn macht, die RoBa-Methode zu verwenden.

    Mit meinem Beispiel wollte ich nur zeigen, dass es bei diesem einen Test mit nem relativ niedrigen CQ wert bereits ne erstklassige quali ergab, das platzlimit der dvd jedoch ne ~60% höhere avg-bitrate zuließ.

    Daher drängte sich mir die Frage auf, welcher sinn und zweck dahinter steckt, die Video Information File auf Basis des 1-Pass-modus zu erstellen.

    Anders ausgedrückt:
    Welchen vorteil bietet die methode gegenüber nem alleinigen Multi-Pass encode (bei welchem ja die .vaf aufgrund der avg-bitrate erstellt wird(?)), also was genau wird da anders gemacht?
    Das ist der Punkt, der mir nicht so ganz klar ist.

    Hoffe, es ist nun etwas ersichtlicher, was ich überhaupt will ;D

    Wally

  • Mit meinem Beispiel wollte ich nur zeigen, dass es bei diesem einen Test mit nem relativ niedrigen CQ wert bereits ne erstklassige quali ergab


    Das ist immer so! ;D
    Je niedriger der CQ-Wert desto besser die Qualität. Erstaunlicher wäre also eher eine Aussage wie: trotz eines ziemlich hohen CQ-Werts wurde bereits eine erstklassige Qualität erzielt.

    Zitat

    Welchen vorteil bietet die methode gegenüber nem alleinigen Multi-Pass encode (bei welchem ja die .vaf aufgrund der avg-bitrate erstellt wird(?)), also was genau wird da anders gemacht?
    Das ist der Punkt, der mir nicht so ganz klar ist.


    Okay, dann hier mal grob gesprochen:

    MultiPass-VBR: Die Quelle wird untersucht und nach der Komplexität die Bitrate verteilt.
    Vorteil: Die Endgröße wird sehr gut getroffen.
    Nachteil: Dauert, je nach Anzahl der Passes, sehr lange. Auch können viele sehr komplexe Szenen dazu führen, dass für weniger komplexe nicht mehr genügend Bitrate zur Verfügung steht. (<= alles stark vereinfacht).

    OPV: Es wird bei der Analyse nicht auf die Komplexität geachtet, sondern auf die Quantisierung.
    Vorteil: Gleichbleibende Qualität über den gesamten Film bei hoher Geschwindigkeit.
    Nachteil: Die Endgröße wird öfter nicht gut getroffen.

    RoBa: Ein Zwitter aus beiden. ;)
    Die Analyse läuft nach OPV, das Ergebnis bildet die Grundlage für ein MultiPass Encoding.
    Vorteil: Gleichbleibende Qualität über den gesamten Film unter Ausmerzung der niedrigen Trefferquote was die Endgröße betrifft.
    Nachteil: Der Geschwindigkeitsvorteil von OPV geht natürlich flöten.

    Sagte ich bereits, dass das alles stark vereinfacht ist? ;)

    Cu Rippraff

    Blumige Grüße, Rippraff

  • verdammt, hin und wieder denk ich etwas verquer :D
    mit 'niedriger CQ-Wert' dachte ich umgekehrt, also 100=niedrig, 0=hoch, also nen qualitatives niedrig ^^

    Aber soweit isses mir dann erstmal klar, was genau die Unterschiede sind (so in etwa hatte ich mir es ja gedacht), wobei ich mit der Quantisierung noch nich so richtig was anfangen kann (muss wohl noch viel lernen ^^).

    Schon mal vielen dank für die erklärung, bin wieder etwas schauler :)

    Das einzige was mich noch grübeln lässt ist die Auswirkung des Wertes, den ich beim OPV angebe (in Verbindung mit der RoBa-Methode natürlich).

    Angenommen mit der verfügbaren Bitrate ist ein größeres Ergebnis möglich, als mit dem OP-Wert 'angestrebt' wurde (bei meinem Beispiel kam ich bei 25 auf 2GB, jedoch wären 3GB verfügbar), hätte der Wert dann eine spürbare auswirkung, auch wenn er höher (also z.b. bei 40, und damit das erzielte OPV-Ergebnis noch kleiner) wäre?

    Und die andere Seite... wenn mit dem eingestellen OP-Wert ein Ergebnis erreicht werden würde, welches ÜBER dem verfügbaren Platz liegt, könnte in dem Fall ein besseres Ergebnis erreicht werden, wenn man einen höheren OP-Wert nimmt, der eine Größe unter dem verfügbaren Platz erreichen würde?

    ...oder ist der OP-Wert in Verbindung mit Multipass völlig irrelevant und es wird bei jeden Wert die gleiche qualität erreicht?

    danke nochmals für aufklärende Worte :D

  • Moin,

    völlig unverständlich die "Fragestellung"! :hm:

    Grundsätzlich: Je kleiner der "Q" umso besser die Qualität und um so größer die Files...
    ..den "Q" gibts nur im OPV-Modus.

    Gruß Karl

  • ich habs erwartet :D

    Q gibts aber zwangsweise auch bei RoBa, da die VAF doch mit der Methode erstellt wird.
    da ich auf dieser basis ja mit festgelegter variabler bitrate encode, also festgelegter zielgöße, war meine frage, ob ein ändern des Q-wertes überhaupt eine auswirkung auf das finale file hat, oder ob allein die variante, die bitrate durch quantisierung anstatt komplexität (siehe Rippraff's post) zu bestimmen ausschlaggebend ist.

    ich versuchs mal grafisch darzustellen ^^

    Code
    Q20 (5GB)      Q30 (3,6GB)
    |             |              |
    |-------------|------|-------|-------------
    |                    |
                     Zielgröße (4,36GB)


    Q20(bessere Quali) -> One-Pass/CQ 5GB Ziel
    Q30(schlechtere Quali) -> 3,6GB (theorie;beispiel)

    Beim anschließenden Multipass müsste bei Q20 somit ja auf Bitrate verzichtet werden (die anbestrebte quali kann also nicht restlos gehalten werden)...
    bei Q30 kann jedoch noch dazugegeben werden (die angestrebte quali wird also gehalten).

    würde dies nun die quali beeinflussen, oder ist cce so intelligent, um es in beiden fällen perfekt anzugleichen?


    Wenn ich mir vorstelle, dass cce die Quantisierung ausliest und in der vaf speichert und dieser Wert mal Faktor Bitrate genommen wird, wäre der gewählte Q-Wert ja irrelevant, da ja ein einheitlicher Wert als Basis genommen wird.

    Wenn sich bei unterschiedlichen Q-Werten jedoch schon bei der Berechnung andere Werte ergeben (die also nicht bei jedem Frame denselben Unterschied haben), welcher Wert wäre dann besser?


    noch geb ich nicht auf... irgendwann verfass ich schon nen text, den jemand versteht :D

  • Hmmmm....

    ...ich verstehs immer noch net. Kann ja auch sein, daß wir aneinander vorbeireden, weil ich mich mit den Tools noch nicht auseinandergesetzt habe und eigene Werkzeuge benutze.

    Grundsätzlich: Der Ansatz ist, OPV einzusetzen, weil damit ein durchgängiger Qualitätslevel über den ganzen Film gewährleistet wird.
    - Problem1: Eine vorgegebene Endgröße sollte erreicht werden und das ist bei OPV bekanntlich schwierig.
    - Probem 2: Die Q-Stufen sind zu grob; d.h.: zwischen Q=20 und Q=19 können schonmal 350MB Größenunterschied leigen und während Q=19 3MB zu groß wäre, wird bei Q=20 347MB verschenkt.

    - Lösung 1.1: Prediction durch Testencodings
    - Lösung 1.2: Kompletter "First pass" als "Compressibility-check"
    Roba benutzt meines Wissens 1.2!
    - Lösung 2: Implementierung eines Mini-VBR auf Basis 1.2

    D.h.: Roba encodet quasi im OPV-Modus mit einem "Mini-VBR", der nix weiter tut, als den starren Q-Faktor ein wenig in Richtung Zielgröße zu korrigieren.

    Jetzt mußt Du mal erklären, ob Du in Deiner Soft den Q-Faktor vorgeben mußt, oder das Programm den alleine findet.
    Mein OPV-Predictor findet selbst den passenden Q und auf den VAF-Lauf verzichte ich völlig und nehme halt den evtl. Platzverlust in Kauf...

    Gruß Karl

  • Den Q-Faktor muss ich selbst vorgeben. Entweder ich mach das ganze mit BatchCCEWS oder ich stell CCE komplett manuell ein und da ist es ja zwangsweise auch nötig, Q selbst zu setzen.

    Bei RoBa verwendet CCEWS die OPV-Methode nur zum erstellen der VAF, danach wird nen multipass encode auf Basis dieser VAF durchgeführt. (damit wird dann ja sichergestellt, dass die gewünschte Zielgröße erreicht wird)

    Ich stelle also also für den ersten durchlauf
    - 1-pass VBR, Q=X, Output=nur 'Video information file' ein,
    beim 2ten durchlauf
    - Multipass VBR, feste avg-Bitrate, Output=nur 'Video files'.

    Eben deshalb war meine Frage ja, ob der Q-Faktor auf mein Ergebnis überhaupt Auswirkungen hätte, weil er ja 'nur' als Basis für die VAF verwendet, letztendlich aber mit multipass encodet wird.

    -------------------------------------------------------------

    Also wird der Quantization-Faktor bereits mit in das Video Information File einbezogen, oder würde der erst beim Encoden 'angewendet' werden?

    Denn wäre der Faktor erst beim Encode relevant, nicht aber beim erstellen der VAF, dann wäre es ja vollkommen irrelevant, welchen Wert ich dabei eingebe, da er nie verwendet würde.

    Wenn sich das Aussehen der VAF jedoch schon mit nem anderen Faktor ändert, hätte der Wert ja doch noch Auswirkungen auf die Qualität, ich müsste mich um diesen also auch kümmern.


    mir kommen beim schreiben selbst immerwieder irgendwelche neuen wirren gedankengänge, ich glaub deshalb wirds am schluss sehr schwer zu lesen ^^
    aber ich danke dir, dass du dich dennoch mit mir auseinandersetzt :D

  • Moin,

    Zitat

    Den Q-Faktor muss ich selbst vorgeben. Entweder ich mach das ganze mit BatchCCEWS oder ich stell CCE komplett manuell ein und da ist es ja zwangsweise auch nötig, Q selbst zu setzen.



    Hmmm - das ist ja doof....

    Da ich, wie schon geschrieben, die Tools nicht kenne, bleib ich einfach mal in der Theorie.

    Zitat

    Eben deshalb war meine Frage ja, ob der Q-Faktor auf mein Ergebnis überhaupt Auswirkungen hätte, weil er ja 'nur' als Basis für die VAF verwendet, letztendlich aber mit multipass encodet wird.



    Ja - definitiv! Wieviel - keine Ahnung! Der Q-Wert im CCE skaliert nicht linear zur Qualität/Filegröße.
    Ich spekuliere mal, daß +-10 Abweichung in der Vorgabe vermutlich keine Auswirkungen auf das Endresultat haben - liegt die Vorgabe heftig daneben, kann sich das qualitativ durchaus auswirken. Ich persönlich bleibe immer unter 40 und strebe so 20-25 (oder besser) an; reicht das nicht, setze ich eher Filter ein, oder gehe auf 2 DVDs, oder, oder...

    Zitat

    Also wird der Quantization-Faktor bereits mit in das Video Information File einbezogen, oder würde der erst beim Encoden 'angewendet' werden?



    Jein ;) - OPV steht ja erstmal für gleichmäßige "Quantisierung". Das sagt primär nix über die Qualität, aber anhand einer ermittelten Bitratenkurve mit einer gleichmäßigen Quantisierung kann man ja rechnen - die Kurve wird quasi anhand der verfügbaren Average nur "verschoben" (vermutlich). D.h. man hat auch im Ergebnis eine gleichmäßige Quantisierung - nur eben auf einem anderen Level.
    Hier wieder die Spekulation von oben: Das wird vermtl. nur dann hinreichend genau, wenn der "Vorgabe-Q" und der "End-Q" nicht extrem weit auseinanderliegen. Da spielen ja noch andere Faktoren (Bitraten-minima/maxima/Sättigung usw..) eine Rolle.

    Zitat

    Denn wäre der Faktor erst beim Encode relevant, nicht aber beim erstellen der VAF, dann wäre es ja vollkommen irrelevant, welchen Wert ich dabei eingebe, da er nie verwendet würde.



    Ich denke, somit ist klar, daß das nicht egal ist.

    Zitat

    Wenn sich das Aussehen der VAF jedoch schon mit nem anderen Faktor ändert, hätte der Wert ja doch noch Auswirkungen auf die Qualität, ich müsste mich um diesen also auch kümmern.



    Ja - vermutlich sollte man sich drum kümmern, den richtigen Q im Vorfeld wenigstens annäherend zu bestimmen. Evtl. tuns ja auch Erfahrungswerte - ich fahre z.B. mit einem Mittelwert von 25 ganz gut; hin und wieder muß man sich aber um "Ausreißer" kümmern, weil manche sources eben extrem gut und andere extrem schlecht komprimierbar sind...

    ...beim Auseinandersetzen mit dem Thema stellt sich mir hier die Frage, wozu das überhaupt gut sein soll. Ein durchschnittlicher "Verschnitt" von ca. 20-40 MB pro DVD spielt qualitativ definiv keine Rolle. Wozu dann also 2 passes, wenn die "Ausgangsposition" nur mit einigem Aufwand hinreichend genau ermittelt werden kann.
    Das bestätigt mein "Szenario", beim reinen OPV zu bleiben und der richtigen Q per prediction zu ermitteln. Das sind nur ca. "1,25 passes" und in dem (extrem seltenen) Fall, daß es am Schluß nicht paßt, fängt man halt nochmal von vorn an...

    Gruß Karl

  • huiiii, vielen dank für die Erläuterung, super super super!!! :D

    ich denke, alle meine fragen hast du damit mehr als hinreichend beantwortet.

    mir ist nicht so richtig klar, was du mit dem Q per prediction und dem "1,25 passes" genau meinst, aber gut, was du mir sagen wolltest, hab ich soweit glaub ich verstanden :)
    ...und ob ich opv für den bestmöglichen wert nu 1, 2 oder 3x durchlaufen lasse, stört mich auch nicht weiter... 1 durchlauf ist ja schöner weise in <20min erledigt und wenn ich gleich den passenden wert finde, spar ich sogar nich zeit.

    Vielen vielen dank für deine Mühen, hast mir wirklich weitergeholfen! :daumen:

    gruß Wally

  • Moin,

    Zitat

    ich denke, alle meine fragen hast du damit mehr als hinreichend beantwortet.



    Prima! :)

    Zitat

    ...und ob ich opv für den bestmöglichen wert nu 1, 2 oder 3x durchlaufen lasse



    3 ist im Durchschnitt sicher nicht ausreichend. Ich tippe mal auf 5-6, wenn man es mit Probieren schaffen will.

    Zitat

    ..was du mit dem Q per prediction und dem "1,25 passes" genau meinst..



    Prediction per Testencoding: ca. 4-5 Durchläufe mit 0,1% des Materials um sich grob an den passenden Q ranzutasten, dann ~3 mit 1% und 1 bis 2 mit 5-10%, dann finales Encoding.....

    Mein "Predictor" ist aber im Mom. noch Perl-Spagetticode und mein Delphi-Projekt ist seit 2005 in der Alpha-phase... :ani_lol:

    Gruß Karl

  • huii, 2 jahre alpha, das is auch ne leistung :D

    nuja, aber nu versteh ich wenigstens, was du mit den 1,25 meintest ^^
    manuell wird das so wohl nen bissl aufwändig, also werd ich einfach mehrere grobe einstellungen testen und voll durchlaufen lassen, zeitlich ja dennoch kein großer aufwand.

    nochmal danke für den beistand ;D

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!