danke schonmal für den tipp.
hättest du denn dennoch eine idee, wie man auch mit dem "alten" codec die verblockung im bild minimieren könnte?
danke schonmal für den tipp.
hättest du denn dennoch eine idee, wie man auch mit dem "alten" codec die verblockung im bild minimieren könnte?
hallo,
ich kodiere videos mit folgender command line:
ffmpeg -v 0 -i %%inputfile%% -vcodec flv -s 480x360 -r 25 -b 300k -qmin 2 -qmax 40 -acodec mp3 -ac 2 -ar 44100 -ab 80 -y %%output_file%%
als input avi (xvid, mp3), als output möchte ich gern swf erzeugen.
ich habe folgendes problem:
das output-file sieht sehr blockig aus, besonders bei bewegungen gibt es fiese klötze.
gibt es bei ffmpeg eine art high motion einstellung?
oder hat jmd von euch eine idee, wie ich die ffmpeg zeile noch tunen kann, ohne die bitrate übertrieben stark zu erhöhen oder dass mir die dateigröße davon läuft?
danke und viele grüße
alex
danke für die antworten.
ZitatZitat ac_chan
-------------------------------
3. Sollten die Audio- und Videodaten wirklich gleichzeitig aufgenommen worden sein und gleich lang sein, dürften sie nach dem Encoding nicht unterschiedlich lang sein. -> Überprüfe die einstellungen des Encodierprogramms/-programme.
-------------------------------
Die Sourcefiles sind 100% sync.
Encodiert wird bspw. mit ffmpeg:
x264
ffmpeg -y -i in.avi -aspect 4:3 -s 320x240 -r 25 -vcodec h264 -level 13 -b 300k -flags +loop -flags2 +mixed_refs -me_method 2 -subq 6 -trellis 2 -refs 3 -coder 0 -me_range 16 -g 250 -qmin 10 -qmax 51 -qdiff 4 -acodec aac -ac 2 -ar 44100 -ab 80 out.mp4
xvid
ffmpeg -y -i in.avi -aspect 4:3 -vcodec mpeg4 -vtag xvid -s 320x240 -r 25 -b 350k -g 250 -flags +umv -trellis 2 -qmin 2 -qmax 30 -mbd 2 -acodec mp3 -ac 2 -ar 44100 -ab 80 out.avi
Oder mit VirtualDub. Die Versuche mit mencoder ergaben ebenfalls keine syncen Files.
Als Input dient ein aus Adobe Premiere exportiertes unkomprimiertes AVI.
ZitatAlles anzeigenZitat Fr_an
-------------------------------
Möglichkeiten zum Angleichen sind:
* Schneiden an Anfang bzw Ende des Videos,
* Schneiden an anfang bzw Ende des Audios,
* Einfügen von Frames vor bzw hinter dem Video und
* Einfügen von Stille vor bzw hinter dem Audio
-------------------------------
Das Schneiden hab ich schon probiert. Mit Hilfe von mencoder bei den AVIs oder mp4box bei mp4's ist je nach Länge des Videos die Anzahl der abgeschnittenen Frames leider recht groß.
Das Einfügen von Stille in der Audiospur war ebenfalls erfolglos, da ich kein Audio in der korrekten Länge erzeugen konnte. Bei avimerge aus dem Transcode-Projekt gibt es einen Parameter "-c", der eigentlich diese Aufgabe leisten sollten, dies aber meiner Erfahrung nach nicht tut.
1. Audio- und Videolänge ermitteln
(wird z.B. mit Hilfe des Tools MediaInfo erledigt)
2. Delay
Es soll die Spur nicht verzögert werden, sondern beide Spuren auf die exakt gleiche Länge gebracht werden, bspw. durch Schneiden am Ende.
Der Delay entsteht sobald Video und Audio mit unkomprimiertem AVI als Quelle encodiert werden.
Das Video soll später auf diversen Playern abgespielt werden können, deshalb auch keine properitären Flags.
Vor allem geht es um AVI/Xvid/mp3 und MP4/H.264/AAC Videofiles.
das kommt danach
sorry, wenn es die falsche einordnung des themas war.
hallo,
wie kann ich mit mediainfo nur die länge der audio- und videospur ausgeben lassen? ich steige nicht so ganz hinter die syntax. die verwendung der templates funktioniert, damit kann aber nur audio ODER video ausgegeben werden...
danke und viele grüße
alex
hallo,
ich sitze momentan an einer sehr kniffeligen aufgabe und wollte bei den experten einmal fragen, ob es sowas ähnliches schon gibt oder ob jmd eine idee hätte, wie man an diese aufgabe herangehen könnte?
vielen dank und grüße
alex
#############
"Aufabe ist es, eine command-line Anwendung für Linux zu finden/schreiben, mit der man die Spurlänge eines kodierten Videos verändern kann.
Also Input dient ein Video, bei dem die Ton- und Videospur unterschiedlich lang ist. Der Output soll nach dem post processing ein Video sein, bei dem Bild- und Tonspur exakt die gleiche Länge haben.
Diese Anwendung sollte im Idealfall möglichst performant sein, da das Postprocessing ein zeitkritischer Prozess im Backend ist. Insbesondere der Speicher- und HDD-Durchsatz ist so weit wie möglich zu minimieren."
hallo zusammen,
ich möchte gerne beim kodieren mit ffmpeg eine bestimmte zeiteinheit (in frames oder ms) eines videos am ende abschneiden? mit dem "-t" parameter wäre es theoretisch möglich, wenn man die genaue länge des videos kennt. kennt man diese nicht, müsste man erst die länge auslesen und könnte dann so verfahren!
gibt es ggf. eine alternative, mit der man direkt beim kodieren sagen könnte, dass x frames oder ms am ende abgeschnitten werden?
danke und grüße
vielen dank.
die parameter hab ich bei der erzeugung nicht benutzt.
bevor ich mich ans testen mache:
wie ist deine einschätzung? kann eine asynchronität vom audio/video durch das fehlen der paramter bzw. eine nicht valide mp4-datei auftreten?
das versteh ich jetzt nicht ganz!
wie soll das denn funktionieren?
ok, ist das dann der richtige weg?
ich habe mit ffmpeg ein avi (h264/aac) kodiert und will es nun zu mp4 umwandeln.
danke!
weißt du, was genau nicht korrekt funktioniert oder hast du eine quelle zum nachlesen?
ich erzeuge parallel mehrere outputfiles aus einem quellfile, die dann mit anderen outputfiles aneinandergebaut werden.
deshalb kann ich nicht erst das avi zusammensetzen und dann ein mp4 erzeugen!
das hab ich aber mal probiert und hatte das gleiche problem.
das avi-files ist super (merging mit avimerge), wenn ich daraus aber ein mp4 erzeuge ist der ton asynchron.
die erzeugten mp4-files haben alle immer eine minimal kürzere tonspur.
je mehr mp4s ich dann aneinanderklebe, desto asynchroner wird das ganze!
ich das ggf. wirklich ein problem beim erzeugen der mp4-dateien?
gibt es in ffmpeg die möglichkeit das zu steuern, liegt der fehler ggf. tatsächlich schon in der erzeugung?
die erzeugten mp4-files haben alle immer eine minimal kürzere tonspur.
je mehr mp4s ich dann aneinanderklebe, desto asynchroner wird das ganze!
ich das ggf. wirklich ein problem beim erzeugen der mp4-dateien?
gibt es in ffmpeg die möglichkeit das zu steuern?
hallo,
ich kodiere mit ffmpeg aus einer avi-datei (xvid/h.264/mp3) u.a. auch eine mp4-datei.
mit anderen dieser dateien werden dann immer unterschiedlich zusammengesetzte sequenzen erstellt.
zum mergen von mp4 nutze ich MP4Box.
leider ist der ton immer asynchron!
kann man jmd mit diesem problem helfen ODER
gibt es eine alternative zum mergen von mp4-dateien?
danke und grüße
alex
danke für die message.
das ausbleiben des erwünschten ergebnisses mit der "ocr"-funktion hab ich auch schon bemerkt.
die audiospur ist tatsächlich kürzer!
führt das automatisch zu einem problem?
sollten sich audio und video des nächsten files beim merfen nicht am ende des längsten tracks der vorhergegangenen videos richten?
hättest du ein alternativ-tool für mp4box im gepäck?
könnte die zu kurze audiospur am ffmpeg-output liegen?
hallo,
ich erzeuge mit ffmpeg mp4-dateien für den ipod aus einer avi-quelldatei!
das ergebnis funktioniert einwandfrei.
wenn ich allerdings einzelnen mp4-dateien mit mp4box zusammenmerge, ist im endergebnis das ton asynchron.
ist das ein bekanntes problem. ich habe schon fast alle parameter ausprobiert.
gibt es eine gute alternative zu mp4box?
für avifiles aus dem gleichen datenbestand verwende ich "avimerge", das funktioniert einwandfrei, video und ton sind synchron.
hier mein verwendeter code zum mergen. mp4box-version 0.4.2
danke und grüße
alex
Hallo,
ich möchte gerne WMV-Dateien, die ich mit ffmpeg unter Linux erstellt haben, zusammenfügen. Die Files haben alle die gleichen Einstellungen (Bit- / Framerat, Auflösung, etc.).
Gibt es dafür unter Linux ein command line tool?
Oder gibt es in ffmpeg noch die Möglichkeit die Dateien nachträglich zusammenzufügen?
Danke!
hallo,
gibt es ein tool, mit dem man unter linux wmv-dateien kodieren kann?
grüße und danke
quicktime 7 pro