Beiträge von TheGenesis

    Du hast nicht genug Fantasie. Hast du mal überlegt, wie du TV guckst? Und hast du dich schonmal gefragt, warum Kinder erst ab einem bestimmten Alter TV gucken "können"? Das muss das Gehirn nämlich erstmal lernen.

    Es gibt übrigens schon länger solche Ansätze, die nichts mit Schwachsinn zutun haben. Ich rede hier auch nicht von Echtzeit-Transcoding, was ich beim Autofahren ja bräuchte.
    Achso ... da du es angesprochen hast ... frag mal einen Einäugigen, wie der Auto fährt ... meinst du, der würde Entfernungen nicht abschätzen, oder Objekte auf der Straße von denen am Straßenrand, oder sicht bewegende Objekte von stehenden Objekten (die sich MIT dem Straßenrand auf ihn zu bewegen) unterscheiden können?

    Aber bleibt ruhig bei deiner "Das kann ich mir nicht vorstellen, also geht das nicht" Einstellung.

    Hier mal was für den Horizont:

    http://kantaratv.de/bluenote/flow.php?id=322

    http://www.tvbeurope.com/main-content/f…sed-video-codec

    Gruß
    Thom

    Bei aufgezeichneten 3D-Filmen ist das ja langweilig ... die Herausforderung aus 2D-Material einen echten 3D-Film zu berechnen ist viel Interessanter :)

    Achso ... kleiner Zwischenstand ... ist schon merkwürdig, wie sich x264 verhält ... bei meinem capture hab ich folgende presets gefunden, die nahezu identische Ergebnisse wie die Referenz (CRF18) ergeben:

    1080p bei crf24 slower
    720p bei crf21 slower
    PAL bei crf21 slower ist schlechter
    PAL bei crf20 slower ist besser

    Die beiden Ergebnisse bei PAL finde ich merkwürdig ... ich hatte erwartet, das bei PAL die 720er Settings oder sogar noch höhere verwendet werden können.
    Ich muss das nochmal mit normalem Filmmaterial vergleichen. Vielleicht ist das eine Besonderheit bei Gamecaptures.

    Meine Parameterliste macht übrigens leicht bessere Ergebnisse, als crf18 medium ... grübel ... an welchem/n Parameter(n) das wohl liegt ... ich denke, ich werde auch mal ein oder mehrere Parameter mit den slower-varianten kombinieren und testen.

    ...links...

    Danke für die Artikel ... ich hab das Zeugs nämlich bisher immer rausgefiltert ... kostet Bitrate :)

    Allerdings ... kann man das wohl nicht so generell sagen ... wenn ich überlege, würde "300" ohne die Matschepampe wahrscheinlich zu steril wirken ... mhmmm ... tut das in den Augen weh, wenn man vor einem großen HD-TV sitzt und ein bischen graining (wie z.B. in Troja) zu sehen ist?

    Wenn man von den klassischen Begriffen der Shannonschen Informationstheorie ausgeht, dann wäre die verlustlose Komprimierbarkeit ein Resultat der Entropie. Aber ob die sich auch auf psychologisch optimierte verlustbehaftete Verfahren erweitern lässt, da bin ich überfragt, das soll ein theoretischer Informatiker klären.

    Viel Interessanter als ein velustbehafteter Codec wäre einer bei dem man durch Objekttrennung, Objekterkennung, das speichern des Kamerapfades und diversen "modifiern" ein komplettes Video in seine Bestandteile zerlegt, die fehlenden Bereiche extrapoliert und am ende einen begehbaren Film "kompiliert" ... das wird irgendwann kommen ... Holodeck ick hör dir trapsen ;)

    Hab kurz reingeschaut ... obwohl ich das meiste nicht verstehe, ist der ganze encoding prozess ja eigentlich nur ein packen und abrunden und durch die ganzen "tricks drumherum" werden die Verluste dann durch ergänzen von "bitrate-sparenderen" Psychotricks wieder ausgeglichen ... grins ... aber anders geht halt nicht, wenn man nicht für jeden Film eine neue Festplatte kaufen will :D

    Apropos Psychotricks ... ich hätte da mal eine Frage an die leuz mit den großen HD-Fernsehern ... bis vor ein paar Tagen hatte ich noch gedacht, das dieses Graining in HD-Filmen einfach nur eine Nachlässigkeit der Postproduction wäre. Bis ich dann hier mehrmals gelesen habe, das dies ein gängiges Stilmittel ist.
    Wenn ich sowas herausfiltere, wirkt der Film auf den HD-Teilen dann unnatürlich?

    Heieie ... war das gestern wieder spät ... der letzte encode war garnicht veryslow, sondern "nur" slower ... macht die Encodingdauer aber nicht wirklich prickelnder:

    Aber wie gesagt ... quali stimmt, größe stimmt.

    Hab gerade mal versucht, was gegen die 1.79fps zu unternehmen und den tMod mit OpenCL auf meine kleine GT330M losgelassen ... das bringts dann leider nur auf max 1.979fps und die qualität ist schlechter, als mit vanilla build.

    Hab noch eine Idee für den Feinschliff (noch nicht getestet) ... wie wäre es, wenn die 6 Stufen beim CRF bei gleichbleibender Qualität linear zu den 3 presets verlaufen ... grübel ... dann könnte man sowas hier nehmen:

    480p/576p = CRF18 preset medium
    720p = CRF21 preset slow
    1080p = CRF24 preset slower

    ich check das gerade mit dem Gamecapture und am Montag mit Troja ... dann würden Rechenlast und Größenzuwacht bei gleichbleibend guter quali wenigstens in einem vertretbaren Verhältnis zur jeweils höheren Auflösung stehen und ich hätte meinen Prioritäten genüge getan ... oder mach ich da jetzt nen Denkfehler?

    Und es läßt mir keine Ruhe ... hab mit dem Gamecapture mal ein bischen rumgespielt ... echt blöd, wie ernüchternd das manchmal sein kann ... nix schöne neue Zeit, wo alles schneller geht ...

    Ich hab den Capture mit CRF18 preset medium kodiert. Das ergibt die erwartete Qualität bei dieser verstörenden Bitrate von 40Mbit.

    Dann hab ich den mit CRF24 kodiert und die Bitrate sinkt (wie erwartet) um 50% ... die Bildqualität sinkt nicht so dramatisch wie die Bitrate (gefühlte 15%) ... vorallem Details werden in mittlerer und weiter Entfernung weichgezeichnet.

    Dann hab ich mit der CRF24 slow ... dann slower und zu guter letzt veryslow kodiert. Man sieht mit jeder "Verlangsamung" wie die Qualität wieder ansteigt, bis sie bei veryslow, selbst bei Standbildern kaum noch von der CRF18 zu unterscheiden ist.

    Da fällt mir die Entscheidung nicht allzu schwer ... obwohl veryslow schon ziemlich weh tut ... aber was solls ... macht eh der Server über Nacht.

    Bin gespannt, wie sich das auf "normale" HD-Videos übertragen läßt.

    Gute Nacht zusammen.
    Thom

    Hab gerade noch ein bischen rumgeschnuft ... hätt ich mal eher machen sollen ... das hier ist recht Interessant:

    http://ffmpeg.org/trac/ffmpeg/wiki/x264EncodingGuide

    ... besonders die Stelle ...

    Zitat

    Increasing the CRF value +6 is roughly half the bitrate while -6 is roughly twice the bitrate.

    Ich glaube ich werde Auflösungen bis einschließlich 720p weiterhin mit CRF18 kodieren ... das garantiert mir die gewünschte Quali und die Dateigrößen bleiben im Rahmen.
    Am Montag probier ich mal "Troja" mit CRFs größer 18 und unterschiedlichen presets ... mal gucken wie klein man die Dateien kriegt ohne nennenswerte Qualitätsverluste hinnehmen zu müssen.

    Unsinn! Wie crf agiert ist stark abhängig von den Einstellungen...

    Ok.

    Wo kommt denn diese Ansicht her? Ich würde eher sagen, dass das Ergebnis ist, dass Du bei so hohen Datenraten und dem Material einfach keinen Unterschied mehr siehst. :)

    Ja, brauchst garnicht zu grinsen ... mir ist das grinsen beim letzten Test nämlich vergangen :)

    Denn:

    Nun bin ich hier allerdings etwas "entsetzt" über die Bitrate, die Genesis bei diesem CRF18 - Test 'rausbekommen hat.

    Ich nämlich auch ... hatte (genau wie du jetzt) angenommen, die hohe Bitrate würde aus dem Sharpen resultieren ... der encode war pure-source ... kein Filter ... nur das Ausgangsmaterial.

    Auf den zweiten Blick ist das aber auch logisch ... wenn man sich die Frames so anguckt dann haben die ungefilterten "Gameszenen" im Vergleich zu einem "normalen Film" schon verdammt Scharfe Details ... unnatürlich, aber eben Digital "gezeichnet".

    Ja, und in meinem Test waren die Standardeinstellungen näher am Original als Deine.

    Mann ... kannste mal damit aufhören ... kannst du, oder willst du nicht verstehen, das ich nicht auf biegen und brechen mit 1500 encoden will, nur um meinen Diskspace zu schonen?

    Wenn wir/ich hier eine Einstellung finden, bei der man/ich (nahezu) keinen Unterschied zu den Ergebnissen mit "meinen" hohen Bitraten, dann würde ich das natürlich begrüßen. Trotzdem sind solch niedrige Bitraten (wie z.B. 1500), so sehr sie auch besser aussehen als ein Schneemann in Sibierien, ungeeignet, um meinem persönlichen Qualitätsempfinden zu genügen ... sonst müßte x264 Zaubern können ... und das kann er definitiv nicht.

    nebenbei: wäre vermutlich interessant mal zu gucken was für Komplexitätsmaße für Videos es so gibt und ob man nicht anhand eines solchen Maßes sagen kann, dass Feature X hilft oder nicht,...

    Ich krieg am Montag nochmal das Original von "Troja" ... da sind ein paar echt gemeine Sachen drin ... und dann probier ich's nochmal mit ein paar Varianten durch ... mal gucken was dabei raus kommt.

    Aber wenn ich mir die Bitraten bei den Gamecapture so ansehe, wäre das wohl das ultimative Testmaterial ... allerdings ist das wohl eher in die Kategorie "Spezialanwendung" ein zu ordnen ... mhmmm ...

    Da ich jetzt eh nicht schlafen kann, weil mir das keine Ruhe läßt, habe ich kurzerhand das "Lets Play Skyrim" nochmal als HD-Material hergenommen.

    Sinn macht so ein Vergleich nur, wenn wir das mit CRF vergleichen, weil ich die Bandbreite aus Qualitätgründen nicht künstlich auf 5000 oder ähnliches limitieren will.

    hier sind die Resultate mit CRF18:

    Code
    avs [info]: 1920x1080p 0:0 @ 25/1 fps (cfr)x264 [info]: using cpu capabilities: MMX2 SSE2Fast SSSE3 SSE4.2x264 [info]: profile High, level 4.0x264 [info]: frame I:74    Avg QP:19.50  size:499273x264 [info]: frame P:4041  Avg QP:21.99  size:221661x264 [info]: frame B:1034  Avg QP:24.27  size: 68726x264 [info]: consecutive B-frames: 64.0% 26.6%  3.3%  6.1%x264 [info]: mb I  I16..4:  3.4% 47.7% 48.9%x264 [info]: mb P  I16..4:  0.7%  7.2%  5.4%  P16..4: 18.0% 28.6% 34.2%  0.0%  0.0%    skip: 5.8%x264 [info]: mb B  I16..4:  0.1%  0.8%  1.0%  B16..8: 25.9% 15.2% 10.9%  direct: 4.6%  skip:41.4%  L0:37.8% L1:38.0% BI:24.2%x264 [info]: 8x8 transform intra:52.7% inter:42.7%x264 [info]: coded y,uvDC,uvAC intra: 89.0% 71.2% 40.1% inter: 58.8% 25.7% 4.4%x264 [info]: i16 v,h,dc,p: 36% 33%  7% 23%x264 [info]: i8 v,h,dc,ddl,ddr,vr,hd,vl,hu: 15% 22% 14%  6%  7%  6% 11%  6% 13%x264 [info]: i4 v,h,dc,ddl,ddr,vr,hd,vl,hu: 16% 18% 11%  7%  9%  8% 12%  7% 11%x264 [info]: i8c dc,h,v,p: 55% 24% 16%  6%x264 [info]: Weighted P-Frames: Y:7.6% UV:1.0%x264 [info]: ref P L0: 66.7% 23.4%  7.1%  2.8%  0.1%x264 [info]: ref B L0: 89.7% 10.0%  0.3%x264 [info]: ref B L1: 98.9%  1.1%x264 [info]: kb/s:38987.76encoded 5149 frames, 5.50 fps, 38987.79 kb/s01:28:03 - 01:43:40 = 15min 37sek SKYRIM_crf18_medium.mp4 = 1.003.781.886 bytes

    Das ist für mich jetzt relativ ernüchternd ... die preset Geschichte gewinnt mit einer kürzeren Encodingzeit und niedrigeren Bitrate.
    Hier lassen sich auch Helligkeitsunterschiede in manchen Bereichen erkennen, diese sind jedoch (bei diesem Material) eher zu vernachlässigen.

    Daraus läßt sich ableiten:

    1. bei CRF18 wird der Codec komplett "gesättigt" und ich erhalte immer maximale Qualität
    2. der Psychokram verursacht wohl die Helligkeitsunterschiede

    Das wiederum bringt mich zurück an den Zeichentisch, wo ich mir gerade selbst die Frage stelle, ob das immer sinnvoll ist ...

    Bei SD-Videos ist das ok, weil immer mit maximaler quali kodiert wird, ohne das die Dateiegrößen den Rahmen sprengen.
    Bei HD-Videos sieht das anders aus ... da kann jetzt die Bitrate mal locker explodieren und die Dateien unverhältnismäßig wachsen lassen.

    Ich stelle mir gerade die Frage, ob ich bei HD-Videos jetzt mit den ganzen psychovisuellen Tricks leben kann, oder nicht einfach auf z.B. 720p runterskaliere und dann wie gewohnt encode.

    Aber das ist auch wieder eine individuelle Entscheidung, die ich wahrscheinlich mit mir selbst ausmachen muss.

    Da bleiben jetzt noch 2 Fragen offen ...

    a) wie verhält sich das mit gewöhnlichen HD-Videos
    b) hab ich irgendwelche vor- oder nachteile auf Standalone-Playern

    Grübel ... jetzt kann ich nicht wirklich besser schlafen.

    Gruß
    Thom

    Hast Du es wirklich nicht verstanden? Oder tust Du nur so?

    Nöö ... spontane Affekthandlung :)

    Code
    ffvideosource("wolverine-tlr1_h1080p.mov")trim(150, 1149)

    Ok ... dann liegt vermutlich hier dran:

    Code
    LoadPlugin("C:\Tools\Windows\DGDecNV\DGDecodeNV.dll")DGSource("wolverine-tlr1_h1080p.dgi")trim(150, 1149)

    Wir sollten gleiche Rahmenbedingungen schaffen.


    Bei H.264 ist das Deblocking kein frei wählbarer Post-Filter sondern "inloop" und absolut zwingend vorgeschrieben.

    Das nehm ich dir jetzt einfach mal so ab.

    Bei diesem Quellmaterial fördert das 2pass encoden mit 5100 kbit übrigens nur maginale Unterschiede zu Tage:

    Code
    encoded 2771 frames, 15.98 fps, 5120.39 kb/s
    
    
    00:15:19 - 00:19:07 = 3min 48sek
    
    
    wolverine-tlr1_h1080p_medium.mp4 = 70.969.284 bytes

    Einziger visueller Unterschied ist nur ersichtlich beim direkten übereinanderblenden von stills ... dort produziert der --preset medium minimale Blocking-Artefakte bei hohem Detailgrad (zwischen dem Regen kann man eine Flächenbildung beobachten, die etwas heller ist, als die Umgebung) ... witzig, obwohl "mein preset" den loop unterbunden hat, sind die dort kaum zu verzeichnen.

    Ich denke wir bräuchten anderes Quellmaterial.

    Ich denke aber mal, um meinen Punkt klarzumachen, daß irgendein sinnloses Drehen an Parametern ohne die richtige Methodik dahinter schnell zu Unsinn führt, hat es schon mal gereicht.

    Falscher Ansatz ... deiner ist nämlich immernoch nicht der meinige ... was würde mir das bringen, wenn wir dabei festellen, das ein niedrigerer Platzverbrauch weniger Artefakte mit den Standardparametern produziert?
    Das würde meine Priorität nach Qualität ad absurdum führen, denn mich interessiert eher weniger, wie klein das Ding wird, aber um so mehr, wie nah das nachher am Original ist.

    Übrigens ... bist du Anwalt? ... weil:

    Den Widerspruch brauch ich nicht weiter ausführen, oder?

    ... das von dir völlig aus dem Zusammenhang gerissen und neu interpretiert wurde... nur weil ich unnötige Wartezeiten als ätzend empfinde, heißt das nicht, das ich sie nicht in kauf nehme ... hab ich übrigens auch genauso geschrieben.

    Aber wegen der Neugier hab ich einen Vorschlag ... ich bekomme nächsten Montag das Quellmaterial für meine HD-Tests (hab ich mir gestern ausversehen gelöscht) ... lass uns das doch mal mit Presets und Tunes gegen die Drähte aus meiner Liste vergleichen.

    Was meinst du?

    Gruß
    Thom

    Uahhh ...

    Resumê:

    Zeit: +5sek ... bei einem 111sek Clip ... auf 90min Film hochgerechnet nicht mal 4min mehr ... zu vernachlässigen
    Endgröße: beindruckend klein

    Qualität:

    a) das ist kein Regen
    b) das sind keine Wolken
    c) die Dame hat nicht solche Flecken im Gesicht
    d) die Übergänge sind ekelhaft (sieht aus wie interlaced)
    e) blurring bei dem Typ auf dem komischen Bett
    f) unscharfe closeups, wenn sich das Objekt im Focus bewegt

    alles in allem nicht schlecht für ein SD-Video ... aber warum kodierst du dann 1080p?

    Mach du ruhig deinen Standard ... ich bleib bei meinem.

    Gruß
    Thom

    So! Ich habs jetzt mal mit MEINEN Parametern kodiert ... NULL (in Worten: KEINE) Artefakte ... nada ... nirgendwo ... und nein, ich will die Frames nicht hochladen, weil du entweder ein anderes Video als das "Apple 1080p" benutzt hast, oder nichtmal die richtigen Frame-Nummern angegeben hast ... selbst mit deinem Trim() kann ich die Beispiel Frames nicht über die von dir angegebenen Nummern lokalisieren.

    Poste mal die korrekten Rahmenbedingungen und dann können wir die Äpfel mit den Äpfeln und die Birnen auch mit den Birnen vergleichen.

    Fürs Protokoll:

    Übrigens ... mich würde mal brennend interessieren, wie DEINE tollen Standardparameter bei 1500 den Regen encodet haben [Blockierte Grafik: http://www.smilies.4-user.de/include/Grosse/smilie-gross_290.gif]

    Dass deine Testgeräte mit bis zu 10 aufeinanderfolgenden B-Frames keine Probleme haben, mag vielleicht glücklicherweise daran liegen, dass x264 praktisch fast nie diesen Spielraum ausschöpft. Aber wenn es einmal passiert, dann erst, nachdem du dich schon jahrelang in Sicherheit gewogen hattest... ;) ...oder wenn du dir dann irgendwann mal ein anderes Gerät kaufst.

    Grübel ... hast recht ... muss ich mal nochmal in mich gehen.

    Und das mit dem Qualitätseinfluss ... ist ohnehin sehr subjektiv. Manche mögen es scharf, schärfer, Gibbssches Ringing.

    So siehts aus und deswegen habe ich (wenn auch erst seit ein paar Jahren) auch keine Vorurteile mehr gegen leuz, denen das eine oder das andere eher liegt.

    Ist eh schon lustig, wie einfach die meisten mit billigen, psychovisuellen Tricks dazu gebracht werden, den einen Fernseher besser zu empfinden, als den anderen ... letzte Woche erst hat mein Schwager gemeint, sein alter Rückpro habe ein viel viel schlechteres Bild, als der neue Flachbildschirm von seinem Sohnemann.
    Als ich ihn dann gefragt habe, woran er das fest macht, hat er gemeint, das Bild auf dem (billig) LCD wäre viel schärfer, wenn er Fußball guckt.
    Dann haben wir die Fernseher nebeneinander gestellt und ich habe ihm gesagt, er solle mal in die Zuschauerränge gucken. Die Reaktion war "was ist das denn ... das müsse wohl am Scart-Kabel liegen".

    Dann hab ich ihm erklären müssen, das es einen Unterschied macht, ob ich einen (damals) sehr teuren Toshiba-Rückpro mit adaptiver Rauschunterdrückung oder einem billigen LCD mit einem SD-Sat-Receiver füttere und der einzige "Schärfeunterschied" den er wahrnimmt in diesem Fall der konstruktionsbedingte, höhere Kontrastwert ist.

    Wenn er jetzt Fußball guckt, überlegt er jedesmal, ob er nicht in einen teureren TV und evtl. in einen HD-Receiver investiert.

    Schon witzig ...

    b. Einstellungen die für hohe im Kontext gesehen Datenraten gedacht, bei extrem niedrigen Datenraten versagen,...

    Danke!

    Meine erste Reaktion auf die Testbedingungen war nämlich "Boah wie unfähr ... kodiert der mit 1500" ... ich kodiere mit CRF18 und einfach zu behaupten:

    Zitat

    1. --crf garantiert keine konstante Qualität bei verschiedenen Einstellungen oder x264-Versionen

    ist polemisch, wenn man die Randbedingungen außer Acht läßt oder "mal eben seine eigenen bzw. Standard-Parameter verwendet".

    Das hat mich spontan dazu genötigt das File runter zu laden um das selbst nochmal zu encoden ... kann ich mir das jetzt sparen?

    Wie ich bereits in meinem letzten Posting angemerkt habe, spielt die Dateigröße an sich für mich die untergeordnete Rolle.

    Mir ist da auch gerade wieder eingefallen, warum ich die deblock Geschichten so weit runtergeschraubt habe. Auf Budget-HD-Fernsehern und/oder in Kombination mit billigen Playern (nein, ich weiß nicht mehr genau welche Kombination damals zutraf), greifen die Postfilter nicht so wirklich befriedigend oder fehlen komplett. Und da ich nicht weiß, welchen TV und/oder Player ich später einsetzen werde, habe ich Bitrate gegen Kompatiblität getauscht. Ich erinnere hierzu an den MS-MPG4x und den dazugehörigen DirectShow-Postfilter, der nur bei bestimmten Auflösungen funktionierte.

    Mein erster Ansatz bestand übrigens darin, das ich maximale Qualit ohne eine Abhängigkeit vom Player haben wollte und die Dateigrößen ruhig gleich groß oder etwas größer, als die DivX alternativen sein sollten.

    Jupp ... wie recht du hast ... aber wenn man nach einem halbstündigen Vergleichsmarathon mal 'ne Pause von ein paar Stunden einlegt, geht das wieder ... grins ... da fällt mir glatt ne Analogie ein ... mit der Frau ins Douglas und aus 10 Parfums das beste finden ... huaa ... da geb ich nach dem 4ten riechen auch keine Wertung mehr ab.

    Das ich der einzige bin, der das "testet" ist für mich nicht ganz so tragisch, weil die leute, die das Ergebnis nach dem encoden zu sehen bekommen i.d.R. meine Verwandten sind und die sind nicht so "geschädigt" wie ich ... die sehen die Makroblöcke erst dann, wenn der Fernseher plötzlich eine schwarze Umrandung bekommt :anonymous:

    Die Qualität meiner Sinnesorgane ist (noch) gut ... wer weiss ... vielleicht halte ich ja unterbewußt an meiner Parameterliste fest, weil ich mir in nicht allzu ferner Zukunft nicht mehr zutraue, eine subjektiv-objektive Bewertung fällen zu können ;)

    Aber stimmt schon, für einen globalen Ansatz muss man viele Leute anonyme Testsequenzen bewerten lassen ... aber wie und wer entscheidet eigentlich, ob ein "Tester" überhaupt "qualifiziert" ist, ein Urteil über so eine Sequenz fällen zu können?

    Ich finde alleine das schon schwierig ... ich selbst z.B. würde mir niemals anmaßen, ein verwertbares Urteil über den Klang einer HiFi-Anlage zu geben, weil ich dafür einfach keine "Ohren" habe ... mhmmm ... und wie machen die jungs vom x264 das? ... über die Masse?

    Ich glaube, wir werden Freunde :cheers:

    Ganz so weit treibe ich das zwar nicht, aber ich möchte dir dazu ein prima tool empfehlen ... dann braucht man nicht unbedingt jedes einzelne Frame zu vergleichen ;)

    Ich finde leider den Link nicht mehr im Internet ... das Teil nennt sich VideoCheck0.4 und ist nichmal 6 MB groß ... kann ich dir zuschicken, wenn du Interesse hast.

    Das Ding ist super simpel ... starten ... Dateiöffnendialog für 1stes Video ... Dateiöffnendialog für 2tes Video ... fertig.
    Beide Videos werden jetzt synchron (ohne Ton -> gut, weil keine Ablenkung) abgespielt.
    Oben links im Bild erscheint ein kleines Kästchen, das signalisiert, welches der beiden Videos gerade betrachtet wird (Rot=1stes Video, Blau=zweites)
    Jetzt, während es läuft, kann man prima mit einem einfachen Mausklick zwischen den beiden hin und herschalten und wenn man will, zu jeder zeit, mit einem kurzen Druck auf die Space-Taste das ganze pausieren.

    Das hat bei mir schon zu wahren klick-origien geführt, aber da kann man genial mit vergleichen.

    Gruß
    Thom

    Und um "Personenkult" geht es nun wirklich nicht.

    Ok ... das kam mir nur spontan in den Sinn, weil ich wiederholt wahrgenommen habe, das bei hier geposteten Parameterlisten, die mehr als 3 oder 4 Einträge haben schnell mal der Satz kommt "die Entwickler wissen schon was sie tun".

    Solange du dir (und vielleicht auch anderen) genau erklären kannst, warum dieser Parameter jenen Wert hat, wird er auch seine Berechtigung für deine Anwendung haben. Nur bezweifle ich, dass außerhalb des Kreises derer, die an der Entwicklung mitarbeiten und dazu auch die Theorien verstehen, die den implementierten Algorithmen zugrunde liegen, noch viele Anwender ein derartiges Verständnis haben.

    Naja ... manche kann ich erklären und verteidigen, von vielen hab ich nur eine Ahnung und bei denen hab ich diverse Tipps ausprobiert und die Wechselwirkungen an meinem "Referenzmaterial" verglichen. Quasi ein Brute-Force-Attack ;)

    Aber wenn ich nicht probiere, kann ichs nicht lernen.

    Und wenn man einen Blick in die Presets wirft, wird man sehen, daß selbst --preset veryslow nur maximal 8 bframes (mit --tune animation 10) verwendet. Alle presets von superfast bis slower verwenden sogar nur 3. D.h. die x264-Entwickler sind der Meinung, daß man die Rechenzeit effizienter nutzen kann, als einfach nur die maximale bframe-Anzahl zu erhöhen. Außerdem: nur daß noch höhere bframes-Zahlen zu einem gewissen Prozentsatz genutzt wurden, heißt im Umkehrschluß nicht, daß auch die Kompression deutlich verbessert wurde. Hier sollte man sehr vorsichtig mit Schlußfolgerungen sein.

    Das geht bei mir eigentlich immer nach demselben Schema ... ich gewichte die folgenden Kriterien:

    1. beinflusst es die Qualität
    2. beinflusst es die Kompatiblität
    3. beinflusst es die Größe
    4. beinflusst es die Encodingdauer

    Die Entscheidungsfindung für einen Parameter (oder Parameterwert) läuft dann streng hierarchich ab:

    a) beinflusst es die Qualität negativ, toleriere ich das nur unter der Bedingung, das der Verlust extrem minimal und der Gewinn an Größe hoch ist
    b) verringert es die Kompatiblität, toleriere ich das Ausschließlich, wenn Größe und Encodingdauer massiv davon profitieren
    c) beinflusst es die Größe negativ, toleriere ich das nur unter der Bedindung, das das Wachstum minimal und der Gewinn an Geschwindigkeit sehr hoch ist

    Um auf das Beispiel mit den b-frames zurückzukommen:

    a) es beinflusst nicht die Qualität -> weiter
    b) es verringert die Kompatiblität mit meinen Testgeräten nicht -> weiter
    c) bis zu 10 Frames beinflusst es positiv die Größe -> cut von 16 auf 10 -> weiter
    d) der Geschwindigkeitsvorteil von 10 auf 8 ist so maginal, das ich nicht weiter reduzieren werde

    Eigentlich sehr einfach, wenn auch mühselig.

    Achso ... mal so als vergleich ... mit der Parameterliste habe ich Zeiten zwischen den Presets medium und slow ... veryslow find ich übrigens zum weglaufen :eek:

    Das ist ja gerade der Sinn der presets: Zusammenstellungen verschiedener Parameter für unterschiedliche Zeitansprüche, die bei einer gegebenen Zeit in etwa ein Optimum an Kompression herausholen. Man nimmt das preset, dessen Geschwindigkeit man noch tolerieren kann, wählt dann --crf oder --bitrate aus und fertig. Schneller und idiotensicherer geht es nicht mehr. Wer will, stellt halt noch --level/--vbv-XXX und --tune ein - soo übermäßig kompliziert ist das nicht.

    Siehst du, das ist überhaupt nicht mein Schwerpunkt ... die Encdingdauer spielt bei mir nur eine untergeordnete Rolle ... es gab Zeiten, da hab ich ein einziges Video 2 Wochen lang gerendert.

    Wenn man sich anschaut wie viele verschiedene Parameter x264 hat ist das auf jeden Fall schneller und sicherer, als selbst Experimente zu machen.

    Oder bequemer? :zunge:

    Die Kombinationsmöglichkeiten an Parametern sind quasi unendlich.

    Naja ... so unendlich sind die nun auch wieder nicht ... viele schließen sich ja größtenteils gegenseitig aus ... und viele sind ja auch nur "Detailparameter" von größeren "Strategien".

    Ich sehe es halt einfach zu oft und LigH hat es ja auch schon angesprochen: wenn man die Leute dann auf ihre etwas seltsamen und komplizierten Einstellungen anspricht, kommen keine schlüssigen Erklärungen. Außerdem fehlen die Tests, die zeigen, daß ihre Einstellungen besser sind, als die presets. Wenn ich hier und da ein bißchen an --bframes, --ref oder --subme drehe, wird die Welt nicht untergehen, aber man sollte sich nicht der Illusion hingeben, daß man nun ein neues Optimum gefunden hätte, solange man gar keine vernünftigen Vergleichstests durchgeführt hat. Mit letzterem meine ich einen Qualitätsvergleich zu den Presets bei gleicher Bitrate und Zeit.

    Aber nur weil ich heute nicht mehr auf dem Schirm habe, was ich vor 4 Jahren ausgetüftelt habe, heißt das doch nicht zwangsläufig, das ich das damals "übers Knie gebrochen" habe, oder?

    Ich sehe das eher pragmatisch ... ich habe damals eine gute Kombination an Parametern gefunden, die meine Kritieren da oben "vollends befriedigten".

    Jetzt, 4 Jahre später nehme ich eine neue Version des x264, füttere sie mit Presets und Tunes und das Ergebnis ist qualitätiv und quantitativ identisch. Aber die Encodingdauer erhöht sich bis zum 2-fachen.

    Die erste Reaktion war "so'n Käse" ... die zweite "mal gucken, was eine "für die neue x264-Version übersetzte Parameterliste von damals bringt" ... das Ergebnis: Die Qualität ist identisch, die Größe halbiert sich und die Encodingdauer sinkt leicht, weil jetzt alle 8 Kerne nahezu komplett ausgelastet werden.

    Warum sollte ich das jetzt wegwerfen, nur um auf biegen und brechen Presets und Tunes verwenden zu können?

    ... aber von welcher Basis bist Du gestartet, zu der bezogen Du einen Qualitätsgewinn hattest?

    Naja ... ich orientiere mich immer am Ausgangsmaterial. Beim encoden entscheide ich dann, wie "wichtig" mir das Video ist und ändere dann lediglich den einzigen Parameter, der das Verhältnis zwischen Qualität und Größe steuert.

    Und das nach folgenden Kriterien:

    a) Sebstgefimltes, Raritäten und stark verrauschtes/gefiltertes Material -> "optisch lossless" -> CRF14
    b) Gute captures oder digitales Material von "schlechter" Qualität -> "hohe quantitisierung" -> CRF16
    c) alles andere -> "standard" -> CRF18

    Dabei verschwende ich möglicherweise etwas Diskspace, aber da kräht frei nach Morgan eh keiner mehr nach :)

    Wie vorhin erwähnt: die 16 bframes, von denen Du vielleicht mal gestartet warst, sind keine Empfehlung der x264-Entwickler.

    Weil es die Encodingzeit verlängert? Weil es den ein oder anderen Player überfordert?

    Den minimalen Zeitverlust opfere ich und 'nen meckernden Player hatte ich damals bei 16 b-frames nicht gehabt ... who cares :cool:

    Die technischen Standards wie H.264 schreiben eben nur technische Details vor, z.B. wie Bewegungsvektoren im Bitstrom codiert vorliegen müssen — aber nicht, mit welchem Aufwand die optimale Übereinstimmung zu suchen ist; hier ist der Vorsprung von x264 zu finden: Es bietet eine Vielzahl von Möglichkeiten, dass jeder seinen optimalen Kompromiss zwischen Rechenaufwand und Entropiereduktion finden kann.

    So siehts aus ... und die Entwickler haben die "Stellschrauben der Maschine aus dem Gehäuse geführt" damit jedermann, wenn es möchte, von den (vorgeschlagenen) Presets abweichen und sich, frei nach ganz persönlichem empfinden, das für ihn optimale Verhältnis zwischen Qualität, Größe und Rechenleistung zusammenschnüren kann.

    Dem einen reicht es, wenn relativ schnell schon sehr gute Ergebnisse gefunden werden, der andere glaubt, er müsse viel mehr Zeit investieren, dass es noch ein klein wenig besser als "sehr gut" wird.

    Das ist die für mich entscheidende Aussage ... wir sind ja hier nicht in einer Diktatur, wo uns die Obrigkeit sagt, was wir zutun und zu lassen haben ... reicht schon, wenn das der Chef auf der Arbeit gegen Bezahlung machen darf :D