Beiträge von monarc99

    Wenn ich "ja" klicke, ruckelt das Ergebnis nicht mehr. Aber dafür wurde die Subtitlespur rausgeworfen. Das nützt mir nix.

    Es nützt dir schon was, weil Avidemux (oder vielleicht auch tsmuxer) die Timecodes beim Kopieren korrigiert.

    ffmpeg kann die korrigierte Fassung problemlos kopieren.

    Danach kannst du es mit ffmpeg nochmal mit den Untertiteln zusammen muxen.

    z.B.

    avidemux.ts ist Video+Audio von Avidemux von test3kurz.mkv kopiert und korrigiert

    test3kurz.mkv ist deine Originaldatei

    beide in ffmpeg einlesen, und per map Parameter auswählen, welche Streams aus den einzelnen Dateien kopiert werden sollen.

    -map 0:v -map 0:a bedeutet alle Video und Audio Streams aus Datei 0 kopieren.

    -map 1:s? -map 1:d? bedeutet alle Subtitle und Data Streams aus Datei 1 kopieren.

    (das ? am Ende von 1:s?, bedeutet, brich nicht mit einem Fehler ab, wenn du mal keinen geeigeten Stream findest)


    ffmpeg -i avidemux.ts -i test3kurz.mkv -c:v copy -c:a copy -c:s copy -c:d copy -map 0:v -map 0:a -map 1:s? -map 1:d? output-file2.ts


    Umständlich, geht bei mir aber mit deinen Testdateien.

    Fehler: '15p' ist kein gültiger default duration in '--default-duration 15p'.

    15p ist unsinnig ... der Syntax ist ID:WERT ... also richtig wäre 0:15p

    Ein Container kann ja nicht nur 1 Stream beinhalten, sondern mehrere. Und diese werden per ID (0,1,2,3,4,usw) durchgezählt. Also musst du mkvmerge auch sagen, welchen Stream du meinst.

    Alternativ hast du die GUI ... da kannst du alles per Maus einstellen.

    VD2 wird vermutlich Timecodes (pts) benötigen und raw Streams haben keine.

    Den raw Stream vorher in einen Container mkv/mp4 muxen, damit die pts timecodes generiert werden.

    (z.B. per mkvtoolnix in einen mkv Container multiplexen)

    Entweder per GUI (mkvtoolnix-gui) oder per Kommandozeile per mkvmerge z.B. (da kannst du dann auch gleich auf 15 fps umstellen - wie im folgenden Beispiel per default-duration Parameter)

    Code
    mkvmerge --output test.mkv --default-duration 0:15p test.h264

    Also bislang habe ich nur das xavs2 binary selbst zum Laufen bekommen. Braucht halt yuv Input und mag definitiv kein 10bit.

    Ein kleines Test Video hat es aber kodiert und ich konnte es dann auch im mpv abspielen.

    Ich überlege ja auch, ob ich ne neue CPU brauche, aber es kommt ja regelmäßig ein neuer Codec raus. Da meine alte Grafikkarte sowieso den Löffel abgegeben hatte, musste ich mir ne neue zulegen (mit HEVC support - das ist also schon abgedeckt).

    Aber bald kommt AV1. Und 4K AV1 wird mein alter i5 nicht mehr schaffen. Und die ersten AV1 HW-Decoder kommen so Ende 2020. So lange warte ich auf jeden Fall noch mit einer CPU, weil selbst i7 oder i9 kommen teilweise bei 4K HEVC mit hohen Bitraten an ihre Grenzen.

    Nicht unbedingt. Mir geht es erst Mal darum wie kann ich Dolby Vision HDR Material:

    a. Decodieren

    b. Enkodieren (wird ja von x265 unterstützt, jedoch ist mir momentan unklar womit man die zugehörigen RPU Daten erstellen kann)

    Die Frage ist, ob es von Dolby überhaupt gewollt ist, dass du DV dekodieren bzw. encodieren kannst (abseits eines externen Gerätes wie ein Bluray Player). Oder wurde DV an die Content Firmen als eine Art "weiterer Kodierschutz mit Farbinformation" verkauft.

    Dolby stellt kein SDK am PC zur Verfügung. Die bei makemkv vermuten, sie wollen nicht, dass man dann anhand solcher Programme wie PowerDVD nachvollziehen kann, wie DV aufgebaut ist.

    An einzelne Firmen gibt Dolby wohl das Wissen raus, es soll aber wohl nicht bekannt werden. Es ist also eher unwahrscheinlich, dass ffmpeg jemals DV unterstützen wird. Ich denke, es wird auf HDR10+ hinauslaufen. Da hab ich schon einen Patch für ffmpeg auf der Mailingliste gesehen.

    Das einzige, was es momentan gibt, ist das hier: https://github.com/DolbyLaboratories/dlb_mp4base

    Wenn ich dieses Video mit VLC oder MPC-HC abspiele, wird die Abspielzeit offenbar korrekt im Player angezeigt (d.h. 1 Sekunde ENTSPRICHT auch einer 1 Sekunde), aber die Abläufe auf dem Video, etwa gehende Personen, bewegen sich m. E. unnatürlich schnell.

    Bist du sicher, dass nicht das gesamte Video zu schnell abgespielt wird? Also das dein Video nicht doch in einer konstanten Framerate aufgenommen wurde, es bei dir aber nur insgesamt zu schnell wiedergegeben wird.

    Das wäre deine einzige Chance ohne das Originalvideo. Wenn die Framerate bei der Aufnahme variable ist, kannst du das nicht mehr korrigieren.

    Ich würde das Video mittels mkvtoolnix in einem MKV Container muxen und dabei verschiedene FPS (24,25,30,50,60) probieren. Vielleicht hast du ja Glück.

    [Blockierte Grafik: https://i.imgur.com/XYBIekH.png]

    Es gibt halt schon Duzende Aufladestandards:

    Huawei Super Charge, OnePlus Dash Charge, Motorola Turbo Charge, Qualcomm Quick Charge, Samsung Adaptive Fast Charge, Apple Charge, MediaTek Pump Express, USB Power Delivery

    Praktisch von jedem Hersteller und ich bin mir nicht sicher, wie kompatibel die zueinander sind.

    Hier ist ein schöner Test, wie schnell die verschiedenen Standards sind:

    https://pocketnow.com/huawei-supercharge-comparison-others

    Wenn du jetzt immer die gleiche Handy Marke kaufst (egal wie gut das Gerät wirklich ist), dann hast du immer den gleichen Standard. Dann geht das sicher mit der Lampe. Wenn du aber frei bei der Wahl des Handys sein willst, wirst du auch den Ladestandard ändern.

    Ich hab z.B. ein Honor Handy und das läd mit SuperCharge die Batterie von 30% auf 90% innerhalb vielleicht 30-40min. Die letzen 10% dann wesentlich langsamer nochmal die gleiche Zeit. Aber das geht halt nur mit dem mitgelieferten Ladestecker.

    Selbst wenn ich jetzt ne schöne Lampe mit USB hätte, man verwendet es einfach nicht mehr, weil es mit dem dazugehörigen Stecker so viel schneller geht.

    Also die Befehlzeile ist in Ordnung.

    Gibt es mal in der Konsole direkt ein und dann die Ausgabe von ffmpeg selbst hier posten. (am besten mit -v verbose)

    Achten solltest du auf Fehlermeldungen.

    Auch sollte er dir das Mapping anzeigen :

    Stream mapping:

    Stream #0:0 -> #0:0 (h264 (native) -> h264 (libx264))

    Stream #0:1 -> #0:1 (copy)

    Ich hab jetzt keine Testdatei mit mehreren Audiostreams zum Testen da, aber welche Fehler gibt er da aus?

    (probiert wirst du es ja wohl schon haben)

    %_ffmpeg_% -i %_input1_% -acodec pcm_s16le -map 0:1 "%_name_% audio1.1.wav" -acodec pcm_s16le -map 0:2 "%_name_% audio1.2.wav" -map 0:3 "%_name_% audio1.3.wav" -map 0:v -map 0:1-c:v libx264 -c:a copy -preset veryfast -crf 15 -pix_fmt yuv420p10le -x264-params keyint=100:bframes=0 "%_name_% Video1.mkv"

    Weil bei der letzten Ausgabedatei der map Befehl fehlt. Also nimmt ffmpeg für die Datei die Defaultwerte. Den ersten Video und den ersten Audiostream. Und da du keinen Audiocodec angegeben hast, nimmt er seinen default Codec vorbis.

    Andererseits brauchst du doch sowieso Audio ... eignet sich die Datei nicht schon, um auf Youtube hochgeladen zu werden?

    Oder ist es die Regel, dass du Audio nach bearbeiten musst?

    P.S. threads=18 nicht schlecht ^^

    P.S. Ruckeln die Videos nicht, wenn du mit 50fps die Spiele capturest und sie dann auf Youtube mit 60fps abgespielt werden?

    Da ist dann halt wieder das Problem das Audacity mit aac und flac ärger macht, ist halt nervig.

    Hast du das temp Verzeichnis von Audacity schon mal verlegt? auf die schnellste Platte mit genug Platz. (Einstellungen)

    Vielleicht kommt der Ärger daher, dass er nicht genug Platz hat, wenn er den Audio Stream dorthin extrahiert.

    Nun wäre die Frage, ob ffmpeg auch Code für beide Genauigkeiten enthalten kann, und ob man ffmpeg einen Parameter mitgeben kann, der zur Laufzeit auswählen kann, ob innerhalb von ffmpeg x264 mit 8 oder 10 bit Genauigkeit encodiert. Also vermutlich in "-x264opts".

    Wenn du per Filter das Pixel Format änderst, sollte ffmpeg automatisch die jeweilige Encoder Version laden.

    z.B. per -pix_fmt yuv420p10le (für 10bit) oder VapourSynth Script