Beiträge von TheGenesis

    So ... ich habs gefunden ... ist im BenQ und nennt sicht "Picture Mode" ... der stand auf "Photo" ... arggghh ... alles außer "Standard" oder "sRGB" bringt z.T. extrem lustige Farbenspiel ... voll total psychodelic ... grins ... beim Arbeiten mit Office-Produkten fällt einem das nicht auf :)

    Ja, den Farbraum hab ich umgestellt ... die Hz dürften doch eigentlich egal sein (solange sie die 60 bei TFTs nicht überschreiten) ... der PnP-Monitor-Treiber stellt das normalerweise auch so ein.
    Meinst du der Monitor verfälscht die Farben bei zu hoher Wiederholrate?

    Gruß
    Thom

    Hi leuz,

    ich glaub ich bin jetzt fasst am maximal möglichen angekommen.

    Könntet ihr euch das Erbebnis bitte mal anschauen und sagen, ob ich da vielleicht noch wo dran drehen sollte?

    Das erste Video ist hier:

    http://youtu.be/MfUWSonoy68

    Und ich hab noch ein zweites (nativ YV12 ohne Level-Korrektur):

    http://youtu.be/P-7e77d6EqU

    Bitte nur die maximalen Auflösungen begutachten ... die 360er würde ich am liebsten löschen, da kriegt man Augenkrebs :hopelessness:

    Achso ... wenn das zweite oben ist, sagt mir doch bitte mal, ob man einen Unterschied erkennen kann.

    Danke und Gruß
    Thom

    Meine Güte ... man lernt nie aus ... die nVidia-Settings zum abspielen von Videofilmen hab ich mir noch nie angeguckt ... da sind bei meinem Lappi auch noch häckchen bei "Dynamischer Kontrast" und "Farboptimierung" ... die hab ich jetzt erstmal rausgenommen.

    Manno manno ... und ich hab mich schon gewundert, warum ich teilweise recht hohe Änderungen an den Kontrastwerten in meinen Scripts machen muss, damit sich was ändert ... tsssss ... typischer fall von automatisch zutodeoptimiert.

    Ich wusste garnicht das man sowas wie eine "Spyder 3" für erschwingliche Preise kaufen kann ... das hätt ich letztes Jahr wissen müssen, als ich die Konfirmationsbilder von meinem Sohnemann bearbeitet habe ... oweia ... da hätt ich mir ´ne Menge gutes Fotopapier und Nerven sparen können.

    Danke für die Tipps!

    Werd morgen direkt mal auf der Arbeit schauen, welche Komponente/Einstellung das Arrrgggghhh-Erlebnis ausgelöst hat.

    Gruß
    Thom

    Sodele ... ich bin mit meinem Latein am Ende ... vielleicht hat von euch noch jemand ´ne Idee.

    Folgendes ... ich capture gerade aus dem Spiel "The Elder Scrolls V - Skyrim" via dxTory ein "Lets play" (nein, nicht für mich, für Sohnemann).

    Und da will ich jetzt unbedingt das ganze rumgeruckel stabilisieren.

    Nichts einfacher als das hab ich mir gedacht und schnell mal ein alt bewährtes avisynth-script angepasst ... das sah erst so aus:

    Code
    LoadPlugin("C:\Programme\AviSynth\plugins.manual\depanestimate.dll")LoadPlugin("C:\Programme\AviSynth\plugins.manual\depan.dll")AVIsource("d:\Storage\Work\Dxtory\TESV 2013-03-10 04-12-07-901.avi")mdata = DePanEstimate(range=5, trust=0, dxmax=42, dymax=24)DePanStabilize(data=mdata, method=0, dxmax=42, dymax=24, rotmax=0, info=false, cutoff=0.5, damping=0.5, prev=1)Sharpen(0.79)

    ... das ging erstmal in die Hose, weil die blöden HUD-Elemente den Estimate versauen (die sind ja immer feststehend).

    Gleich nochmal den gegencheck ohne HUD gecappt (das ist übrigens der consolen-Befehl TM = toggle menu) und schwupps ... perfekt stabilisiert.

    Aaabberrr ... wie mein Sohn dann angemerkt hat, sind "Lets Play's" ohne die Anzeige von Kompass, Damage und Stamina Zitat: "nicht so wirklich prickelnd" ... also hab ich das capture mit dem HUD genommen und folgendes Script gebastelt:

    Das macht jetzt folgendes:

    1. den Kompass (TopBar) aus dem oberen Frame-Bereich kopieren
    2. den Estimate über den mittleren Bildausschnitt (da ist bis auf das fasst transparente Fadenkreuz kein HUD-Element drin)
    3. den Stabilize über das ganze Frame
    4. die Ränder mit dem Müll (Ränder vom Stabilize und die HUD-Elemente) wegschneiden (ich hab eh "genug" Szenerie, weil ich den FOV auf 75 angehoben habe und die Ränder extrapolieren ist Käse)
    5. den Kompass über die "reste" des hin und herzuckenden (stabilisierten) Kompasses überlagern

    dasselbe könnte ich jetzt mit den unteren HUD-Elementen (damage und stamina) machen, aber ich hab da erstmal aufgehört, weil es "zusammengeschustert" aussieht (der Kompass ist nicht rechteckig).

    Dann hab ich versucht via X-Logo die Elemente aus dem Original heraus zu blenden (die wollte ich dann später nach der stabilize-stage wieder einfügen), aber das schmiert so sehr, das es wieder von der Szenerie ablenkt und das ist unerwünscht.

    Ich hab dann aus lauter Verzweiflung mal ein bischen mit Mocha rumgespielt und wollte die Elemente via Tracking herausholen, aber das Programm ist scheinbar nur mit Apple-Benutzern kompatibel ... ich krieg jedenfalls bei der Bedienung die Kriese und ich mag es auch nicht, wenn mir ein Videobearbeitungsprogramm jeden Frame als separates TIFF-Image in einen Ordner legt ... außerdem ist das Programm zwar prima geeignet, von einem relativ feststehenden Hintergrund bewegte Objekte zu entfernen, aber den umgekehrten Fall, den ich ja hier habe, den kriegt es nicht zufriedenstellend hin ... außer ich balanciere jede Szene manuell aus ... grins ... da wäre man bei einem 15 Minuten Teilstück bestimmt 'ne halbe Stunde beschäftigt um dann nochmal 'ne gute Stunde zu tracken und zu rendern.

    Hat jemand noch 'ne Idee, wie man das anders lösen könnte?

    Gruß
    Thom

    Glaub nicht ... hab keine expliziten Umwandlungen mit drin.

    Gerade als ich gelesen hab, was ich da oben schrieb, ist mir aufgefallen, das ich jetzt, wo ich in YV12 capture, doch garkeine manipulationen am Farbraum mehr machen muss ... die Geschichten hat ich reingepackt, als ich vor ein paar Tagen noch RGB gecappt habe.

    Arrgghhh ... und nochwas hab ich gerade bemerkt ... den letzten Upload auf YT hab ich nur mit Levels und schon ohne den Convert() gefahren ... aber was noch viel blöder ist ... ich hab das Ergebnis heute Mittag kurz auf dem PC an meinem Arbeitsplatz gecheckt und hier bei mir zuhause ist alles perfekto :wall:

    Jetzt bin ich mal neugierig woran das wohl liegt ... könnten Grafikkartentreiber oder die uralt MPC Version sein ... mhmmm ... oder ganz abgedreht ... meint ihr, der Monitor mit seinem "dynamic contrast gedöns" könnte das evtl. "kaputtkorrigiert" haben?

    Hi leuz,

    hat jemand ne Idee, ob man für YT-Uploads irgendwelche Chroma-Optimierungen einfließen lassen kann, damit YT das beim re-encode nicht wie eine Suppe verrührt?

    Ich cappe (testweise) lets Plays via DxTory und Logarit im YV12 Farbraum.

    Probiert hab ich schon:

    a) Levels auf 220
    b) ConvertToYV(Matrix="PC.709")

    einzeln und in Kombination ... immer derselbe Käse ... die Farben wirken etwas zu intensiv und tauchen an stellen auf, wo sie nicht hingehören.
    Nein die sind nicht komplett falsch. Sieht ungefär so aus, wenn ich ein 8MBit MPEG2 auf 2MBit runterziehe.

    Luma und Detailgrad sind prima und das original sieht sowohl auf dem Monitor, als auch an meinem alten TV hervorragend aus.

    Gruß
    Thom

    Ich wollte auch nicht behaupten, das NV der weissheit letzter Schluss ist.

    Goldwingfahrer
    Wenn man da alle Regler ohne vernünftige Profilerfassung nach rechts dreht, dann wirds weißer Adler auf weißem Grund ... aber das soll man ja auch nicht machen :)

    Was NeatVideo anderes ist, als ein Rauschfilter?

    Naja ... da ist halt verdammt viel Filterfunktionalität in einer gelungenen Oberfläche vereint ... man kann von VHS-Capture über DVD-Rips bis hin zu BlueRay/HD immernoch was "rausholen" ohne das von Goldwinfahrer genannte plätten fürchten zu müssen.

    Und die temporale Komponente funktioniert auch mit Interlaced-Videos aus den abartigsten Quellen ganz hervorragend.

    Teuer ist der übrigens nicht ... probiers einfach mal aus.

    Ich vermute das Youtube mit Constant Quantizer encodiert. CRF auf jeden Fall nicht, weil die Qualität bei komplexen Stellen schlechter ist, als bei inkomplexen. Bitrate auch auf keinen Fall, da die Dateigrößen sich CRF und CQ typisch nach der Komplexität anpassen. Auf keinen Fall fixe Bitrate.

    Vergesst bitte nicht, das Youtube ihre Encodings nicht nur in unterschiedlichen Auflösungen macht, sondern die gesamte Videoqualität ist auf den höheren Encodings BESSER.

    Sprich der 1080p Encode ist mit viel besserem Quantizer encodiert, als der 720p encode. Unterhalb 720p wird auch die Audiobitrate reduziert.

    Ein CRF 25 1080p Video sieht Youtubes 1080p Encode noch immer besser aus, als ein CRF 21 720p Video auf Youtube's 720p Encode.

    Die höchste Videoqualität erhältst du mit >1080p.
    Meine Videos sind in 2048x1152 und da bietet Youtube nochn weiteren Encode namens "Original" Das steht für originale Auflösung, ergo 2048x1152 und bei dem Encode wird nochmals ein sehr viel besserer Quantizer benutzt.

    Jau! Das Unterschreibe ich so, wie es da steht!

    Ich liebe Dich! :redface:

    Gruß
    Thom

    Nachtrag:

    Kleine Einschräkung ... die encodings in den unteren Auflösungen werden genauso bescheiden quantitisiert, wie bei nativen uploads in der jeweiligen res.

    Aber der Tipp einfach über 1080p zu uppen ist echt goldwert ... da wird locker nochmal über 30% mehr Bitrate gegeben und das macht ganz hervorragende graining formate möglich ohne das man mit völlig übertriebenen uploadgrößen hantieren muss die sowiesp wieder kaputt-encoded werden.

    Und wenn man mal ein bischen drüber nachdenkt, ist das sogar nachvollziehbar ... dem User soll die Möglichkeit gegeben werden, mit schmalen Internetzugängen Videos zu gucken. Unter dem Gesichtspunkt ist es dann auch einleuchtend, das man die Bitrate parallel zur Auflösung reduzieren muss, sonst müsste Youtube dem normalo User die Einstellungen Auflösung und Bandbreite an die Hand geben (womit die meisten schon überfordert wären) und entsprechend jede mögliche Kombination encoden.

    Hab das Problem zwar nicht behoben, aber umgangen ... kodiert das video mit:

    x264.exe --crf 18 --no-fast-pskip --ref 4 --bframes 16 --b-pyramid --weightb --analyse all --subme 7 --trellis 1 --mixed-refs --no-psnr --no-ssim --direct temporal --partitions all --me hex --deblock -3:-3 --aq-strength 0.5 --deadzone-inter 2 --deadzone-intra 4 --threads auto --progress --no-psnr --no-ssim --output OUTFILE_crf18.mp4 INFILE.avs

    VLC hat Probleme mit dem Encoding-Parameter --8x8dct

    Gruß
    Thom

    Hi Leuz,

    weiss jemand, wo man mal einen Überblick über die gängigen Formate/Codecs/Bitrates für HDTV-Broadcasting nachschlagen kann ?

    Und gibt es ein Programm, mit dem ich überprüfen kann, ob der von mir erstellte Stream "konform" ist ?

    Danke und Gruß
    Thom

    Oki ... hat sich dann erledigt ... Austrahlungs- und vervielfältigungsrechte liegen momentan auf Eis ... die Rechteinhaber wollen das Ding in der Schublade lassen.

    FYI ... habs mit Neat auf unkonventionelle weise hingekriegt ... aber wir dürfen ja jetzt nicht drüber reden :redface:

    Mhmmm ... hab gerade nochmal die Regel durchgelesen ... ich habe es nicht runtergeladen, es hat mir jemand per Post geschickt.

    Gruß
    Thom

    Hi Leuz,

    ich bin gerade dabei diese im Umlauf befindliche grauenhafte Version von "Schach dem Roboter" wiede anschaubar zu machen.

    Hab jetzt noch 2 Dinge die mir total auf den S***k gehen und mir fällt kein Filter ein, der das vielleicht noch Bügeln könnte:

    1. Wabbern vom zutodesmoothen oder Bitratestrangulation bei verrauschtem Video
    2. Flickern über mehrere Frames hinweg (hell hell dunkel dunkel dunkel hell hell hell usw.) ... total willkürlich
    3. Farbspektrum geht von megablass über hellrot nach dunkelrot und wieder zurück (innerhalb EINER schwenkfreien Scene)

    probiert hab ich bisher:

    zu 1: Smartsmoother, TemporalSoften, Deshaker, DePanStabilize
    zu 2: Deflicker ... versagt, weil nix muster
    zu 3: ACDSEE ... funktioniert, aber geht garnicht ... zu unnatürlich

    Smoother und Soften müsste ich so hoch einstellen, das Detail (die eh schon Mangelware sind) komplett verschwinden bzw. beim Soften nur noch ein weggewaschenes Bild übrig bleibt (wie der Psycodelic-Screensaver vom Mediaplayer).

    Deshaker stabilisiert nur das vom capturen übriggelassene Field-Hopping und DePan versucht einen neuen Kamerapfad zu extrapolieren (mir ist jetzt noch schwindelig).

    So wie das aussieht hat jemand:

    1. Schlechtes VHS-Band mit Signalrauschen (kein TBC)
    2. via DivX mit ca. 900 kBit und deinterlace-blend gecaptured
    3. das pfui mit OnePass auf 3 Gb MPEG2 geprügelt

    Natürlich alles ohne Filter oder ähnliches.

    Jemand ´ne Idee, was ich noch tun kann ?

    Gruß
    Thom

    Das ist doch die erste/oberste Einstellung, die angeboten wird, wenn man den Filter hinzufügt bzw. auf config klickt:

    --------------------------------
    [Video Scan Typ]
    [ ] Progressive [x] Interlaced

    [Intra-Frame Filter]

    [Temporal Filter]

    [Adaptive filtration]

    [OK] [CANCEL]
    --------------------------------

    Gruß
    Thom

    Mit GUI meine ich die Filtersettings innerhalb von VirtualDUB ... da kann man im Neat ´ne Option für Progressive und Interlaced wählen ... mit AviSynth wird das ohne Vollversion nicht funktionieren ... das gehört wohl zu deren "Kopierschutz" :mad:

    Zum ausprobieren müsstest VirtualDUB nehmen.

    Gruß
    Thom

    Die Demo/Geknackte -Version arbeitet nicht mit Parametern ... Demo geht nur mit "gerade per Hand eingestellten" Werten in VirtualDUB.

    Übrigens ... Neat bringt wesentlich mehr, wenn du ihn ganz an den Anfang der Chain setzt und interlaced-Mode aktivierst.

    Gruß
    Thom

    Resourcenschonender gehts so:

    1. Skystar USB Plus
    2. AltDVB 2.2 + CSC (für die Premiere Karte)

    die TS, die während der Aufnahme geschrieben wird, kannst du sofort über VLC abspielen.

    Ich streame mit zwischengeschaltetem VLC sogar über Internet, wenn ich irgendwo bin, wo jemand kein Premiere hat :)

    Gruß
    Thom