Posts by Indy06

    Hallo!

    Ja, es funktioniert, wenn ich die VOBs mit DGIndex oder ProjectX in eine enzelne M2V-Datei demuxe. Dann kann ich in MeGUI mit L-SMASH-WORKS einen Index erstellen und die Datei rekodieren. Allerdings erschließt sich mir dann die Art und Weise der integration von L-SMASH-SOURCE in MeGUI überhaupt nicht, da man es ja quasi für VOBs so nicht benutzen kann. Ich finde sowieso nicht sonderlich viel über L-SMASH-SOURCE im Internet. Wozu ist das gut, was kann es besser und warum wurde es in MeGUI integriert?

    Viele Grüße,
    Indy

    Hallo!

    Vielen Dank für Deine Antwort! Hmh, das scheint ja komplizierter zu sein. Vielleicht sollte ich erst einmal fragen was denn der Vorteil von L-SMASH Source ist, im Vergleich zu DGIndex?!

    Der Indexer verarbeitet leider nur einzelne Dateien, keine Dateigruppen. Du müsstest dafür also die gesamte PGC zu einer zusammenhängenden Datei extrahieren, also evtl. eine "PGC-VOB", die größer als 1 GB werden kann, oder getrennt eine M2V-Datei nur für das Video und die Tonspuren einzeln.

    Viele Ripper lassen sich im "IFO"- oder "Movie"-Modus entsprechend einstellen; wenn schon alles auf Platte ist (inkl. IFOs), kann auch PGCDemux so etwas extrahieren.

    Daran habe ich mir aber gerade die Zähne ausgebissen. Für eine gegebene DVD erzeugt PGCDemux trotzdem mehrere VOB-Dateien, auch wenn ich "Create a PGC-VOB" anklicke und danach auch "One file per VID" auswähle.

    Quote

    Ich weiß nicht, ob man VFR maniac oder sonstige Entwickler von L-SMASH Source davon überzeugen kann. Aber normalerweise hat jemand, der VOB-Segmente noch in 1-GB-Häppchen vorliegen hat, überhaupt nicht darauf geachtet, nur eine PGC zu extrahieren, bevor er das Indexieren beginnt, und dann kann es leicht Asynchronitäten geben, wenn man die VOBs einfach so verarbeitet, wie sie auf der DVD lagen.

    Aber das Problem ist ja nicht neu. Schon in MeGUI muss man ja eine bestimmte PGC auswählen, woraufhin MeGUI im Hintergrund PGCDemux benutzt bevor DGIndex aufgerufen wird. Dabei entstehen bei mir immer genauso viele VOB-Dateien wie auf der DVD, aber trotzdem nie Asynchronitäten. Nur wenn man in MeGUI keine PGC auswählt kann das passieren. Sollte L-SMASH Source irgendwelche Vorteile gegenüber DGIndex haben, wäre die Frage welche Software wirklich eine PGC-VOB erzeugt, oder eine zusammenhängende M2V-Datei?

    Viele Grüße,
    Indy

    Hallo!

    Wenn ich im MeGUI-Indexer L-SMASH-Works als File-Indexer anticke, wir nur das erste VOB indiziert auch wenn ich bei Auswahl einer speziellen PGC sehen kann, dass MeGUI alle zusammengehörenden VOBs berücksichtigt. Die lwi-Datei beinhaltet trotzdem immer nur das erste VOB. Mit DGIndex funktioniert alles ganz normal.
    Warum ist das so und wie kann ich das verhindern?


    Danke,
    Indy

    Hallo!

    Hast du in den Settings einen Haken bei "Autostart Queue" gesetzt?

    Das ist schon mal ein guter Tipp! Vielen Dank, die Option hatte ich übersehen!

    Aber so ganz ist es das auch noch nicht, denn jetzt führt er DGIndex ja auch erst dann aus, wenn ich unter Queue auf Start klicke. Hatte ich zu diesem Zeitpunkt aber schon einen encoding job definiert, wird dieser auch ausgeführt. Auch dann, wenn ich ihn vorher an einen anderen Worker übergeben hatte. Damit habe ich, sobald ich unter Queue auf Start geklickt habe, das gleiche Problem wie vorher...

    Gruß,
    Indy

    Hallo!

    Ich möchte mehrere Videos mit meGUI in einem Rutsch verarbeiten. Im Einzelnen erstelle ich pro Video ein Avisynth-Script mit dem AVS Script Creator, wobei aber DGIndex aufgerufen werden muss. Als nächstes lege ich die Encoder settings fest und drücke auf Queue. meGUI startet dann allerdings sofort den encoding Job, so dass ich keine weiteren Avisynth Scripts erstellen kann, weil ja der DGIndex-Aufruf in der Warteschlange warten muss, bis der erste encoding job beendet ist. Ich kann zwar einen zweiten Worker anlegen, um ein weiteres Avisynth-Script erstellen zu können, aber das verlagert das Problem nur auf die Erstellung des dritten Avisynth-Scripts usw. Außerdem möchte ich ja auch nicht, dass später zu viele encoding jobs gleichzeitig laufen. Ich hoffe, es wird klar, was ich meine und dass ich wahrscheinlich das Bedienkonzept noch nicht komplett durchschaut habe. Es müsste eine Möglichkeit geben zu verhindern, dass die encoding jobs sofort ausgeführt werden, sondern stattdessen erst irgendwo zwischengespeichert werden. Ich denke im Moment nur an das encoding der Video-Streams, weil die am längsten dauern. Ich wage gar nicht zu fragen, wie Stapelverarbeitung funktionieren könnte, wenn man auch Audio-Encoding- und Muxing-Jobs hat (also voneinander abhängige jobs).

    Gruß,
    Indy

    Quote

    Wenn --tune film gesetzt ist, erhalten wir Level 4 auch bei 5 ReFrames, aber welche der anderen Parameter verursachen das und warum? Bitrate und Auflösung scheiden aus, denn sonst wäre der Zeichentrickfilm mit 4 ReFrames ebenfalls Level 5.

    --bframes?

    EDIT: Oder --bframes wirkt sich auf VBV buffer size und VBV max rate aus und das auf das Level?

    Gruß,
    Indy

    Hallo!

    Hmh... Ich habe die mp4-Datei mal mit mp4box demultiplext. Wenn ich jetzt in meGUI im MP4-Muxer die Elementarströme neu multiplexe und dabei unter "Device Type" iPod angebe, entsteht eine m4v-Datei, bei der zumindest der Quicktime Player nur eine Tonspur ausgibt und die andere auswählbar ist (iPod 4. gen habe ich jetzt noch nicht ausprobiert). Gebe ich bei "Device Type" Standard an, entsteht eine mp4-Datei, bei der der QuickTime Player wieder beide Tonspuren gleichzeitig ausgibt. Dabei zeigt er auch nur eine auswählbare Tonspur an. Prinzipiell unterstützen iPod und QuickTime Player ja nun aber schon mp4-Dateien....

    Gruß,
    Indy

    Hallo!

    Das alle Tonspuren gleichzeitig abgespielt werden ist meiner Ansicht nach ein Fehler der Playersoftware und nicht der Datei (bzw. des Muxers).
    Das keine Sprache vorhanden ist könnte daran liegen, dass die Datei nicht richtig getaggt ist.
    Was sagt denn eine MediaInfo Analyse (mit vollen Details)?

    Das sieht so aus:

    Und es gibt noch eine Neuigkeit, nämlich ich habe noch einen Player gefunden, der beide Tonspuren gleichzeitig abspielt: Der QuickTime Player V.7.7.3!

    Spielt beide Tonspuren gleichzeitig ab:

    QuickTime Player 7.7.3
    iPod 4. gen (iOS 6.1)

    Spielt nur eine Tonspur ab (Tonspuren auswählbar):

    VLC Player
    DVBViewer

    Spielt nur eine Tonspur ab (Tonspur NICHT auswählbar):

    iPod 2. gen (iOS 4.2.1)
    PowerDVD 10

    Hallo!

    Ich habe einige Filme in mp4-Dateien (h.264, aac) für den iPod touch umgewandelt. Die Dateien enthalten z.T. mehrere Tonspuren. Ein iPod touch 4. gen mit iOS 6.1 spielt alle Tonspuren gleichtzeitig ab, während ein iPod touch 2. gen mit iOS 4.2.1 richtigerweise nur eine Tonspur abspielt. Kennt das jemand? Ist das ein Fehler des iPods oder des Muxens? Auf beiden Geräten wird übrigends im Bedienfeld des Players nicht der Button für die Auswahl der Sprache angezeigt.

    Gruß,
    Indy

    Hallo!

    Du kannst es mal mit eac3to an der Kommandozeile versuchen.

    Ja, das scheint funktioniert zu haben.

    Also liegt es dann doch eher an meGUI? In meGUI kann man ja kaum Parameter für die Umwandlung nach flac setzen...

    Vielen Dank,
    Indy

    Hallo!

    Ich versuche mich gerade an der Umwandlung von THD nach flac. Das Encoding beginnt, bricht aber immer bei etwa 80% ab.

    Die Fehlermeldungen erzeugen den Eindruck, dass ich nicht genug Speicherplatz habe, aber das stimmt nicht.

    Was mache ich falsch?

    Gruß,
    Indy

    Den Film in den VLC-Player einlesen, Ansicht auf Erweiterte Steuerung einstellen und auf Frame nach Frame klicken. Wenn grundsätzlich nur nach jedem 2. Bild Bewegung feststellbar ist, ist das Video als 720p25 anzusehen.

    Ja, ok. Auch das leuchtet mir ein! VLC-Player habe ich eh installiert und AvsPmod gucke ich mir auch mal an. Es ging mir jetzt aber um Deine Aussage, dass man entscheiden müsste, ob man nach der Umwandlung in 720p25 durch SelectEven() progressiv oder interlaced kodiert. Wie kann man das entscheiden? DVD-Video unterstützt ja auch 576p25. Warum sollte man in einem solchen Fall interlaced kodieren? Zumal bei 720p50, das durch Verdoppelung der Frames erzeugt wurde, ja eh keine höhere zeitliche Auflösung vorhanden ist. Interlaced zu kodieren würde dann nur Sinn machen, um die höhere zeitliche Auflösung eines "echten" 720p50 auf eine DVD zu retten, dann aber zum Preis einer geringeren vetikalen Auflösung.

    Gruß,
    Indy

    Den Film in den VLC-Player einlesen, Ansicht auf Erweiterte Steuerung einstellen und auf Frame nach Frame klicken. Wenn grundsätzlich nur nach jedem 2. Bild Bewegung feststellbar ist, ist das Video als 720p25 anzusehen.

    Ja, ok. Auch das leuchtet mir ein! VLC-Player habe ich eh installiert und AvsPmod gucke ich mir auch mal an. Es ging mir jetzt aber um Deine Aussage, dass man entscheiden müsste, ob man nach der Umwandlung in 720p25 durch SelectEven() progressiv oder interlaced kodiert. Wie kann man das entscheiden? DVD-Video unterstützt ja auch 576p25. Warum sollte man in einem solchen Fall interlaced kodieren? Zumal bei 720p50, das durch Verdoppelung der Frames erzeugt wurde, ja eh keine höhere zeitliche Auflösung vorhanden ist. Interlaced zu kodieren würde dann nur Sinn machen, um die höhere zeitliche Auflösung eines "echten" 720p50 auf eine DVD zu retten, dann aber zum Preis einer geringeren vetikalen Auflösung.

    Gruß,
    Indy

    Hallo!

    Bei 720p50 sollte zunächst geprüft werden, ob es sich tatsächlich um 50fps handelt, oder - wie z.B. bei Spielfilmen - jedes Bild zweimal gesendet wird.

    Genau das wäre dann auch meine nächste Frage gewesen. Das zu prüfen scheint mir aber schon einigermaßen kompliziert zu sein. Was wäre denn das Ergebnis wenn man SelectEvery(4, 0, 3) auf eine Quelle anwendet bei der die Frames nur verdoppelt wurden?

    EDIT: Naja, klar ist, dass dann die beiden ausgewählten Halbbilder gar nicht von unterschiedlichen Zeitpunkten stammen würden. Aber was würde man dann sehen?

    Quote

    In diesem Fall sollte durch SelectEven() ein 720p25 erzeugt werden.

    Das leuchtet dann ein!

    Quote

    Anschließend prüfen, ob man besser progressiv oder interlace kodieren soll.

    Wie kann man soetwas entscheiden?

    Vielen Dank,
    Indy

    Hallo!

    Vielen Dank für Deine Antwort!


    AssumeTFF() # Halbbildreihenfolge "oberes Halbbild zuerst" wird angenommen


    Warum muss ich diese Annahme überhaupt machen, wo das Quellmaterial doch progessiv ist und also jedes Frame nur aus einem Vollbild besteht? Oder hat diese Annahme einen Einfluss auf SeperateFields, das...

    Quote


    SeparateFields() # Clip mit 50 Vollbildern pro Sekunde wird in 100 Halbbilder pro Sekunde aufgeteilt


    ...durch AssumeTFF() aus jedem progressiven Frame zuerst ein oberes und dann ein unteres Halbbild erzeugt und nicht umgekehrt? Aber was wäre der Unterschied zu AssumeBFF()? Die erzeugten Halbbilder bestehen nur aus jeder zweiten Bildzeile des jeweiligen Frames und haben die halbe vertikale Auflösung, ist das richtig?

    Quote


    SelectEvery(4, 0, 3) # immer je aller 4 Halbbilder werden nur das Halbbild Nr. 0 und das Halbbild Nr. 3 ausgewählt, also das aktuelle obere mit dem
    nächsten unteren
    Weave() # beide werden zu einem neuen Vollbild gemischt, wieder halbe Framerate, jetzt mit Interlaced-Inhalt


    Ja, das verstehe ich sogar. Aus jedem ursprünglichen progessiven Frame wird jeweils nur ein erzeugtes Field ausgewählt, entweder das obere (0) oder untere (3). Dadurch hat Stream anschließend 50 Fields also 25 frames pro Sekunde.

    Quote


    AssumeFPS(25, 1) # zur Sicherheit; leider bin ich mir nicht sicher, ob SelectEvery auch die Halbbildrate halbiert hätte


    Zumindest gibt MediaInfo 25 als frame rate aus. Dann wäre AssumeFPS(25, 1) nicht nötig?

    Quote


    Wieso xy.dga?


    Kopierfehler, sorry.

    Quote


    Den HC-Encoder kann ich dagegen leicht bedienen, und ich bin mir auch bei dem ganz sicher, dass er qualitativ zu den besten MPEG2-Encodern gehört.

    Ok, den kannte ich noch gar nicht und werde ihn mal ausprobieren!

    Vielen Dank,
    Indy

    Hallo!

    Ich muss doch manchmal einen ÖR-HD-Stream (*.ts) in 720p50 in einen DVD-kompatiblen Stream konvertieren. Ich kann das ganze mit TMPGEnc Video Mastering Works 5 relativ einfach machen, habe aber den Eindruck, dass das Ergebnis nicht optimal ist. Z.B. ruckeln die so erstellten DVDs und Laufschriften erscheinen horizontal zerrissen. Ich habe deshalb ein wenig gegoogled und andere Lösungen auf Basis von Avisynth und ffmpeg gefunden. Ich experimentiere mit folgendem Script:

    LoadPlugin("C:\meGUI\MeGUI_2153_x86\tools\dgavcindex\DGAVCDecode.dll")
    AVCSource("D:\HDTV\xy.dga")
    Lanczos4Resize(720, 576)
    Assumetff().SeparateFields().SelectEvery(4, 0, 3).Weave()

    Ich verstehe, dass Avisynth zuerst die Auflösung von 1280*720 auf 720*576 verkleinert und dann das Ganze irgendwie interlaced. Genau verstehe ich die Zeile mit Assumetff()... aber nicht und weiß deshalb auch nicht, ob das interlacing so richtig ist. Wer kann mir die Zeile genauer erklären?

    Das Script verfüttere ich dann an ffmpeg und zwar so:

    ffmpeg -i xy.dga -aspect 16:9 -target pal-dvd dvd.mpg

    Das ganze funktioniert im Prinzip auch - auch mit der Qualität wäre ich zufrieden, allerdings ist das Ergebnis am Ende progessive und nicht interlaced und - was viel schlimmer ist - ffmpeg scheint die Option -aspect zu ignorieren, denn das Seitenverhältnis ist verkehrt (Eierköpfe) und MediaInfo zeigt als Display aspect ratio 5:4 an. Wie komme ich zu einem interlaced Video im richtigen Seitenverhältnis von 16:9?

    Vielen Dank!
    Indy

    Hallo nochmal!

    Wenn ich noch einmal drüber nachdenke: Wenn man (besonders auch bei aktiviertem B-Pyramid) sowohl die Anzahl der B-Frames als auch die Anzahl der möglichen Referenz-Frames erhöht (bei --tune animation im Vergleich zu --tune film), dann müssen für die Decodierung eines bestimmten Frames viel mehr andere Frames im Speicher gehalten werden. Sprich der VBV-Buffer muss größer sein - definitiv eine Gerätebeschränkung (Fernseher). Dann verstehe ich noch nicht ganz, warum hier http://de.wikipedia.org/wiki/H.264#Level die Gesamtvideobitrate (?) angegeben ist und nicht die Größe des VBV-Buffer und woher man "die richtigen" Werte für --vbv-maxrate und --vbv-bufsize bekommt.

    Gruß,
    Indy