Beiträge von De-M-oN

    Warum änderst du den Gamma immer?

    DXTory nimmt in korrektem Gamma auf.

    Wenn das bei dir anders ist, solltest du eher mal beim Decoding schauen wo es hakt. Stichpunkt VLC failt da gerne ;)

    http://sourceforge.net/projects/mpc-h…1a&source=accel

    Und warum SyncFPS bei DXTory an? Das doch total unnötig hoch 10. Völlig unnötig dir das Spiel mit deinen 25 fps anzutun. Warum syncFPS? Es gibt sowas von kein Grund dafür.

    Du kannst 30fps machen. 30fps macht yt auch noch mit.

    Und Audio Codec lieber FLAC oder wenns Lossy bleiben soll eher Nero AAC statt F-AAC.

    Selur: Ja irgendwie dachte ichs mir ja schon das es außerdem Ghosting (ConvertFPS) nichts geben tut. Das Ghosting ist extrem hässlich weil man das ja auch während der Wiedergabe arg sieht. Zumindest bei Spielen sehr arg störend. Drückt ja auch echt massivst auf die Schärfe wenn man sich nur minimal bewegt. Aber das Problem ist nicht die Schärfe, das fänd ich gar nicht mal so schlimm. Aber eben dieser Nachzieheffekt der stört natürlich massivst - eben dieses "Ghosting".

    LigH: Der Thread ist interessant, auch wenn mir unklar ist, wie genau welcher der Filter nun wie im genauen arbeitet. Habe das irgendwie noch nicht so ganz verstanden. Aber aufn ersten Blick wenn man auf die Screens guckt, scheint der ja nur bissl unschärfer zu machen, ghosting konnt ich auf den Screens zumindest gerad keines sehen.

    Zitat

    Ist so etwas bei Material von Computerspielen mit vielen Details nicht eventuell eher kontraproduktiv, da es vermutlich Details killt?

    Kann gut sein, aber wenns ohne Ghosting auskommt und falls es nicht zu massiv schmiert, könntes ja vllt hilfreich sein^^

    Vllt hilfts ja dann auch Youtubes Kompression :D

    Ich habe hier ziemlich brachiale Rechenleistung und könnte gar in 2048x1152, unkomprimiert RGB, 50fps aufnehmen ohne auch nur je einen Ruckler in meinem Spiel zu haben.

    Nun hab ich mir mal überlegt, ob es nicht irgendwie einen Filter gibt, wovon man mit mehr als 30fps aufgenommenem Video ein besseres 30fps Video erzielen könnte?

    Beispielsweise ich nehm in 60fps auf, die mehreren frames werden dann vom filter irgendwie genutzt so das man nachher ein weicheres 30fps video erhält? Ich meine andersrum (kleine FPS zu höhere FPS konvertieren) gäbes ja 'nen Filter für, mich würde nun halt interessieren ob es sowas auch für andersrum gibt ;D

    Danke schonmal :)

    Ich skalier 640x480 auf 2048x1152 mit Spline64Resize, da Descent 3 die Menüs in der kleinen Auflösung nur hat, jedoch ingame in 2048x1152 geht und ichn 2048x1152 video haben will. Die Schrift wurd ein bisschen weicher, aber es sah wirklich absolut in Ordnung aus. Kann nicht sagen das es ein absolutes no-go Ergebnis geworden war.

    Naja andere als Lanczos4 oder Spline64 find ich bei Vergrößerung eher schlecht. Zuviel Detailverlust, zuviel geschmiere.
    Pointresize wäre ja sogar nur benachbarte Pixel Skalierung - das gibt doch dann mega aliasing.

    Zitat

    MKVs lädt man auch nach Möglichkeit mit FFMS2, zumindest wenn dessen Decoder zuverlässig arbeitet.


    Damit meinte er das du bei MeGUI auf File Indexer statt DirectShowSource drückst / im Script FFVideoSource benutzt statt DirectShowSource. Und das kann ich nur unterstützen. Verlustformate würd ich immer mit FFMS machen.

    Die verschiedenen Encodes von youtube sind halt in verschiedenen Qualitäten encodiert. Darum bekommst du bei 720p auch grundsätzlich immer weniger Qualität als bei Original.

    Original ist halt deren beste Encode.

    Aber auch Youtube benutzt keine fixe Bitrate. Youtube benutzt ebenfalls ein quantizerbasiertes Encoding.

    Aber du scheinst hier ja bissl experimentiert zu haben. Bin da sehr skeptisch, hatte mal mit TemporalSoften probiert. Das hat zwar die Blocksichtbarkeit geringer gemacht, allerdings auch mehr geschmiert und weniger Detail aufgrund von Tempsoften.
    Aber ich guck den Thread gleich mal ohne überfliegen durch. Bin gespannt ob da echt was bringt. Auf hellen Szenen hab ich mit original eig. kaum bis keine Probleme, aber mich stört der massive Qualitätsabfall auf Dunkelheit. Der ist echt extrem bei denen.
    Allerdings werd ich kein Levels anwenden. Bei mir ist die Helligkeit exakt die selbige wie aufm PC.

    Zitat

    Gut fände ich übrigens, wenn die einem mal eine Vorgabe machen könnten, wo die die obere Auflösung (die man hochlädt) nicht nochmal runterrechnen ... dann könnte man mit viel kleineren Dateien jonglieren ... ist schon ziemlich frustrierend, wenn ich hier auf'm Land mal eben 800MB hochlade und davon nur die hälfte übrigbleibt.

    Neu encodieren tun sie eh immer. Und das einzige was du machen kannst: So hohe Qualität wie nur möglich hochladen, desto mehr Qualität bleibt nach deren Encodes auch am Ende über. (Bessere Quelle = Bessere Voraussetzungen)

    Und son Filter für die eigenen Videos denk ich bringt auch nicht wirklich was ^^ Dann hat das Video zwar weniger Blocksichtbarkeit nach Youtube's Encode, aber dafür ist eben auch Detail weg. Da sind mir die Blöcke dann lieber ^^ Sah dann letztendlich besser aus. Aber evtl gibts ja bessere Filter als TemporalSoften. Allerdings ist die Blocksichtbarkeit bei "Original" Qualitätsstufe ja auch nur bei sehr komplexen Stellen oder Dunkelheit sichtbar. Wär halt schön wenn man vor allem auf Dunkelheit bissl was retten könnte. Gerade da geht die Qualität immer in den Keller und da wüsst ich echt nichts außer Aufhellen, aber aufhellen find ich nicht optimal, wenn das Spiel es vorgesehen hat dunkel zu sein.
    Evtl würde aber ja auf Komplexität ein Detailentzugfilter bissl was bringen?^^ Im Moment hatte ich halt nur eher Erfahrung damit gemacht, das es ohne Filterung letztendlich besser war, weil dann zwar an besagten komplexen Stellen leichte blocksichtbarkeit ist, dafür aber nicht verschmiert.

    Man müsste die Qualität auf den kleineren Stufen nicht so derbe runterfahren. Youtube benutzt aber recht sanfte Encodingeinstellungen. Was auch nachvollziehbar ist. Bei so vielen Videos die gleichzeitig encodiert werden müssen, müssen sie halt auch ein wenig auf die CPU Belastung achten. Und wenn man deren Encodingverfahren anguckt, dann wird einem schon sehr klar, das denen die CPU Last ein großer Faktor bedeutet und der HDD Speicherverbrauch denen weit weniger Sorgen bereitet, als die CPU Belastung.

    So wie du das umgesetzt hast, müsstest du das zweite Wasserzeichen über eine Doppel-Verwendung von Overlay einbauen


    Ah so kann man also Overlay mehrfach benutzen. Das war genau das, was ich einfach nicht hinbekommen habe wie das gehen soll ;D

    Ist aber meiner Meinung nach eher suboptimal. Warum nicht (wie vorgeschlagen) ApplyRange oder halt Trim benutzen?


    Weil ich den ApplyRange Filter irgendwie in keinsterweise verstehe. Vllt mal ein Anwendungsbeispiel? Auch weiß ich nicht wie ich dann wo, wann, wie Trim einsetzen soll.

    Zudem frage ich mich:
    Wenn die beiden PNGs absolut zeitgleich ein- und ausgeblendet werden sollen, warum machst du aus den beiden PNGs nicht ein einziges??? Das erspart dann zusätzlich die Doppel-Benutzung von Overlay.

    Das hatte zu viel Logik, danke :D

    Dennoch wäres halt mal interessant zu wissen, wie es eben mit mehreren Bildern ist, sprich wenns mal nicht zeitgleich ist und ich 2 Bilder benötige.

    Code
    video = AVISource("g:\Lets Play Descent 2\d2x-rebirth 2012-11-11 12-45-11-394.avi", audio=false).AssumeFPS(30,1)
    Logo = ImageSource("d:\XVideos\cooltext820031346.png", fps=Video.FrameRate, end=450, pixel_type="rgb32")
    Overlay(video, Logo, x=0, y=0, Mask=Logo.ShowAlpha().FadeOut(100, 0, Video.FrameRate), opacity=1.0, mode="add")
    ConvertToYV12()

    So hab ichs nun mit einem Bild hinbekommen. Aber ich kriegs zum Teufel nicht hin da mein 2. Bild rein zu kriegen :/

    Ich weiß zwar wie man per Overlay ein Wasserzeichen einbaut, welches übers gesamte Video läuft, aber leider nicht, wie man ein Bild einfügt, welches nur eine bestimmte Zeit da sein soll.

    Ich bräuchte nämlich gerade 2 Bilder eingefügt auf mein Video die beide Alphakanal haben.

    Die sollen die ersten 15sek beide im Video auftauchen und danach verschwinden.

    Kann mir vllt einer helfen dabei?

    Die Bilder sind in PNG und ich benutze AVISource für mein Video.


    :)

    Das wird von 720p bis "Original" verwendet.
    480p läuft auf 128 kbit/s
    360p auf 96 kbit
    240p auf 64 kbit


    Zitat

    Ich habe schon Videos mit "HQ Audio" im Titel erlebt, die klangen wie 96 kbps MP3.

    Jemand hat den Song Fear Factory - Industrialist hochgeladen, wohl als 320 kbit/s MP3 laut Videotitel, aber sein Video hat nur 240p. Ergo kann man nur Youtubes 240p Encode ansehen und bekommt dann eben den 64 kbit Audio an die Ohren.


    Oder jemand lädt in HD hoch, aber mit einer 96 kbit Audiospur im Quellvideo. Dann ist auch klar, das trotzdem Mist am Ende rauskommt. Und bei so vielen Programmen, wo solche miesen Einstellungen als Standard eingestellt sind, wundert mich sowas eh nicht.