Beiträge von monarc99

    Ich überlege ja auch, ob ich ne neue CPU brauche, aber es kommt ja regelmäßig ein neuer Codec raus. Da meine alte Grafikkarte sowieso den Löffel abgegeben hatte, musste ich mir ne neue zulegen (mit HEVC support - das ist also schon abgedeckt).


    Aber bald kommt AV1. Und 4K AV1 wird mein alter i5 nicht mehr schaffen. Und die ersten AV1 HW-Decoder kommen so Ende 2020. So lange warte ich auf jeden Fall noch mit einer CPU, weil selbst i7 oder i9 kommen teilweise bei 4K HEVC mit hohen Bitraten an ihre Grenzen.

    Nicht unbedingt. Mir geht es erst Mal darum wie kann ich Dolby Vision HDR Material:

    a. Decodieren

    b. Enkodieren (wird ja von x265 unterstützt, jedoch ist mir momentan unklar womit man die zugehörigen RPU Daten erstellen kann)

    Die Frage ist, ob es von Dolby überhaupt gewollt ist, dass du DV dekodieren bzw. encodieren kannst (abseits eines externen Gerätes wie ein Bluray Player). Oder wurde DV an die Content Firmen als eine Art "weiterer Kodierschutz mit Farbinformation" verkauft.


    Dolby stellt kein SDK am PC zur Verfügung. Die bei makemkv vermuten, sie wollen nicht, dass man dann anhand solcher Programme wie PowerDVD nachvollziehen kann, wie DV aufgebaut ist.


    An einzelne Firmen gibt Dolby wohl das Wissen raus, es soll aber wohl nicht bekannt werden. Es ist also eher unwahrscheinlich, dass ffmpeg jemals DV unterstützen wird. Ich denke, es wird auf HDR10+ hinauslaufen. Da hab ich schon einen Patch für ffmpeg auf der Mailingliste gesehen.


    Das einzige, was es momentan gibt, ist das hier: https://github.com/DolbyLaboratories/dlb_mp4base

    Wenn ich dieses Video mit VLC oder MPC-HC abspiele, wird die Abspielzeit offenbar korrekt im Player angezeigt (d.h. 1 Sekunde ENTSPRICHT auch einer 1 Sekunde), aber die Abläufe auf dem Video, etwa gehende Personen, bewegen sich m. E. unnatürlich schnell.

    Bist du sicher, dass nicht das gesamte Video zu schnell abgespielt wird? Also das dein Video nicht doch in einer konstanten Framerate aufgenommen wurde, es bei dir aber nur insgesamt zu schnell wiedergegeben wird.


    Das wäre deine einzige Chance ohne das Originalvideo. Wenn die Framerate bei der Aufnahme variable ist, kannst du das nicht mehr korrigieren.


    Ich würde das Video mittels mkvtoolnix in einem MKV Container muxen und dabei verschiedene FPS (24,25,30,50,60) probieren. Vielleicht hast du ja Glück.


    XYBIekH.png

    Es gibt halt schon Duzende Aufladestandards:


    Huawei Super Charge, OnePlus Dash Charge, Motorola Turbo Charge, Qualcomm Quick Charge, Samsung Adaptive Fast Charge, Apple Charge, MediaTek Pump Express, USB Power Delivery


    Praktisch von jedem Hersteller und ich bin mir nicht sicher, wie kompatibel die zueinander sind.


    Hier ist ein schöner Test, wie schnell die verschiedenen Standards sind:

    https://pocketnow.com/huawei-supercharge-comparison-others


    Wenn du jetzt immer die gleiche Handy Marke kaufst (egal wie gut das Gerät wirklich ist), dann hast du immer den gleichen Standard. Dann geht das sicher mit der Lampe. Wenn du aber frei bei der Wahl des Handys sein willst, wirst du auch den Ladestandard ändern.


    Ich hab z.B. ein Honor Handy und das läd mit SuperCharge die Batterie von 30% auf 90% innerhalb vielleicht 30-40min. Die letzen 10% dann wesentlich langsamer nochmal die gleiche Zeit. Aber das geht halt nur mit dem mitgelieferten Ladestecker.


    Selbst wenn ich jetzt ne schöne Lampe mit USB hätte, man verwendet es einfach nicht mehr, weil es mit dem dazugehörigen Stecker so viel schneller geht.

    Also die Befehlzeile ist in Ordnung.


    Gibt es mal in der Konsole direkt ein und dann die Ausgabe von ffmpeg selbst hier posten. (am besten mit -v verbose)

    Achten solltest du auf Fehlermeldungen.


    Auch sollte er dir das Mapping anzeigen :


    Stream mapping:

    Stream #0:0 -> #0:0 (h264 (native) -> h264 (libx264))

    Stream #0:1 -> #0:1 (copy)




    Ich hab jetzt keine Testdatei mit mehreren Audiostreams zum Testen da, aber welche Fehler gibt er da aus?

    (probiert wirst du es ja wohl schon haben)


    %_ffmpeg_% -i %_input1_% -acodec pcm_s16le -map 0:1 "%_name_% audio1.1.wav" -acodec pcm_s16le -map 0:2 "%_name_% audio1.2.wav" -map 0:3 "%_name_% audio1.3.wav" -map 0:v -map 0:1-c:v libx264 -c:a copy -preset veryfast -crf 15 -pix_fmt yuv420p10le -x264-params keyint=100:bframes=0 "%_name_% Video1.mkv"

    Weil bei der letzten Ausgabedatei der map Befehl fehlt. Also nimmt ffmpeg für die Datei die Defaultwerte. Den ersten Video und den ersten Audiostream. Und da du keinen Audiocodec angegeben hast, nimmt er seinen default Codec vorbis.


    Andererseits brauchst du doch sowieso Audio ... eignet sich die Datei nicht schon, um auf Youtube hochgeladen zu werden?

    Oder ist es die Regel, dass du Audio nach bearbeiten musst?


    P.S. threads=18 nicht schlecht ^^

    P.S. Ruckeln die Videos nicht, wenn du mit 50fps die Spiele capturest und sie dann auf Youtube mit 60fps abgespielt werden?

    Da ist dann halt wieder das Problem das Audacity mit aac und flac ärger macht, ist halt nervig.

    Hast du das temp Verzeichnis von Audacity schon mal verlegt? auf die schnellste Platte mit genug Platz. (Einstellungen)

    Vielleicht kommt der Ärger daher, dass er nicht genug Platz hat, wenn er den Audio Stream dorthin extrahiert.


    Nun wäre die Frage, ob ffmpeg auch Code für beide Genauigkeiten enthalten kann, und ob man ffmpeg einen Parameter mitgeben kann, der zur Laufzeit auswählen kann, ob innerhalb von ffmpeg x264 mit 8 oder 10 bit Genauigkeit encodiert. Also vermutlich in "-x264opts".

    Wenn du per Filter das Pixel Format änderst, sollte ffmpeg automatisch die jeweilige Encoder Version laden.


    z.B. per -pix_fmt yuv420p10le (für 10bit) oder VapourSynth Script

    Die Frage ist nur, ob ffmpeg bei x264 sowohl -D8 als auch -D10 einbindet. Wenn -D10 fehlt, lohnt es sich nicht, ffmpeg zu benutzen, um mit x264 zu encodieren...

    Ich würde es zumindest probieren:


    10-bit x264 & x265


    FFmpeg recently added support to encode to 8-bit and 10-bit for x264 and x265 within the same executable.


    This feature has been enabled in the Zeranoe builds and can be triggered using the desired 10-bit pix_fmt:


    -pix_fmt yuv420p10le



    https://ffmpeg.zeranoe.com/for…ic.php?f=2&t=5475&p=13181

    Ach ok, die Audio Streams sind schon aac. Wie wäre es mit:


    -acodec copy -map 0:2 "%_name_% audio6.2.m4a"


    Habe jetzt die Kommandozeile nicht getestet, aber kopiere den AAC Stream einfach in einen separaten MP4 oder MKA Container. Sollte auch geschnitten sein. (-ss 00:10:00 -t 00:05:0 und sowas)


    Alternativ kannst du dich mit Audiofilter spielen z.B. :


    -acodec flac -map 0:3 -af loudnorm "%_name_% audio6.3.mka"


    der loadnorm Filter sollte Audio normalisieren und als flac in mka speichern. Wobei ich jetzt nicht weiss, welches Codecs Youtube annimmt. Würde zuerst flac oder opus probieren. FFMPEG Builds für Win mit Opus gibts hier -> http://ffmpeg.zeranoe.com/builds/



    Auch würde ich nicht in x264 pipen, sondern direkt mit ffmpeg eine fertige mkv (Video und Audio1) erzeugen. Dann sparst du den späteren mkvmerge Durchgang.

    Oder würde ich noch andere Möglichkeiten geben um das Problem mit der Dateigröße zu umgehen?

    Kannst du nochmal deinen kompletten Workflow umreißen?


    Also du nimmst mit obs auf. Ergebnis ist ne mkv mit Video und 3 Audio Spuren. (welche Codecs?)

    Und was genau willst du am Ende erreichen? (mir ist z.B. nicht klar, wieso du die 3 Audio Streams extrahierst und wieso du den Videostream neu kodierst - oder lädst du die crf15 x264 Datei bei Youtube hoch?)

    Eigentlich sollten die Dateien von der Festplatte abspielbar sein, von einem am TV angeschlossenen Player (nicht unbedingt von der VU, aber die ist aktuell vorhanden). Außerdem sollen sie aber ohne große Umkodierungen später auf Bluray brennbar sein.


    Die Frage ist, ob der x264-Stream korrekt erzeugt ist und ob darin die Seitenverhältnisse richtig angegeben sind. Die VU scheint sich nich um den Container zu kümmern, nur um die Angaben im Stream. Der VLC macht es umgekehrt.

    Der Stream ist vermutlich korrekt erzeugt, nur ob das jeder Player korrekt abspielt, steht auf einem anderen Blatt.

    Wie sieht es aus, wenn du deine hi8.avi mit 16/15 kodierst. Dann wärst du durch croppen zumindest die itu aspect ratios los.


    Je mehr du vom Player forderst, desto mehr kann schief gehen. Die meisten Player dürften auf die Fallback-Streams von Youtube / Apple getrimmt / getestet sein. (also mp4, h264 max level 4.1, aac Audio, Pixelverhältnis 1:1, kein Interlace)

    Die VU spielt sie ab, zeigt 768x576 an, die Anzeigebreite ist wenig geringer als bei mpeg-2. Das Bild ist leicht verzerrt.

    Zugegeben, ich habe nur etwas gecroppt und dann skaliert. War nur als Test gedacht, ob die VU damit auch irgendwas anstellt.

    Aber eine Frage, mit welcher Methode stellst du eigentlich fest, ob das Bild verzerrt ist?


    Ich möchte in erster Linie im Standard bleiben und in zweiter Linie erreichen, dass die Clips auch auf der VU (derzeitige Player) korrekt abgespielt werden.


    Somit habe ich also 2 Fragen:

    Sind die erzeugten mkv, mp4 Standard und werden sie von Standarplayern (Bluray) korrekt abgespielt?

    Gibt es Anpassungsmöglichkeiten bei x264, ffmpeg oder MKVToolnix, mp4ToolBox, so dass die VU sie auch abspielen müsste?

    Das Problem ist, dass du automatisch den Standard verlässt, wenn du ne mkv oder mp4 erstellst.

    Was ich damit meine, dass der Player die Datei dann komplett anders behandeln kann.


    Also z.B. der Player spielt ne DVD komplett richtig ab, du wandelst die DVD per makemkv in eine mkv.

    Und bei dieser mkv skaliert er die Auflösung auch einmal nicht mehr. Einfach weil der Player im Filemodus von USB sowas nicht unterstützt.


    Ist dein Ziel eine Bluray zu erstellen oder Dateien zu erstellen, die von möglichst vielen Playern problemlos abgespielt werden?