Wie deinterlace ich folgenes bespiel am besten?

  • Hi!

    Ich hab eine capture auf Sat1 gemacht von Enterprise (3x01).
    Da habe ich mit dem interlacing zu kämpfen.
    Ich bin mir nicht sicher ob es telecided auf pal hochgeschraubt ist, denn
    wenn ich das video so behandle gibt es teiweise bessere, teiweise
    schlechtere ergebnisse als bei normalem deinterlacen.

    Das Beispiel findet ihr hier: ftp://video:enterprise@81.223.129.74/Enterprise_3x01_Beispiel.avi

    Es ist im MJPEG Picvideo format, leider nicht field-based. Ich habe vor
    das bei weiteren captures zu aktivieren. Bei tests mit aktiviertem field-based
    captures schien es aber in Avisynth Info() nicht als solches auf - woran kann das liegen? Kommt das aufs TV-Signal an?

    Könnt ihr mir sagen wie ihr das am besten deinterlacen würdet?

    Danke im Vorraus,
    Luke

  • restore24 laesst gruessen :)

    mit folgendem script hab ich hinbekommen:

    btw. dein TV-anbieter oder dein TV-setup ist nicht optimal.

    Du nimmst DVB (digitalfernsehen) analog auf.

  • >btw. dein TV-anbieter oder dein TV-setup ist nicht optimal.
    >Du nimmst DVB (digitalfernsehen) analog auf.

    Ich hab kein DVB.
    Die Kanäle die ich habe sind für die ganze Siedlung fix auf normale Frequenzen von Sattelit eingespeist. Ohne eigene Schüssel hab ich also kein DVB - und um die zu kriegen müsste ich jeden Mieter der ganzen Siedlung um Erlaubnis bitten :(
    Wie kommst du rauf daß ich DVB hätte?

    Ich werde dein Script mal versuchen.
    Was würdest du in meiner Situation beim Capturen optimieren?

    Ich hab ne weile gesucht für die .dlls und das verwendete restore24.avs - hab jeweils versucht die neueste version zu kriegen.
    Was mir nun noch auffällt:
    * Es ergeben sich durch die ganze Prozedur ein paar Verfärbungen, vorallem in richtung Lila. Kann man was dagegen machen?
    * Wenn ich das .avs in VirtualDub öffne zeigt der mir daß das video 3,36 fps hat. Warum? Wie korrigiere ich das auf (vermutlich) 23.976 fps?
    * Wie würdest du vorgehen um das auf dvd zu bannen? Ein pulldown auf 29.97 fps machen?
    * Ich sehe daß BicubicResize einmal verwendet wird. Ich habe mit Lanczos4Resize in sachen Schärfe sehr gute Erfahrungen gemacht - kann man das da anwenden?

    Warum verwendest du temporal soften auf die einzelnen fields und nicht auf das ganze? Was hältst du von PeachSmoother?

    Das Script ist schon ein Hammer, ich versuchs grad zu verstehen, aber es fällt nicht leicht.

    Gruß, Lukas

  • 1) Deine Siedlung wird moelgicherweise mit auf Analog umgesetztem DVB-S versorgt.
    erkennbar an den Kloetzchen im Bild.

    2) ich habe noch ein paar fehler im script gefunden. jetzt muesste es mit dem restore24 und den plugins aus dem package funktionieren. und auch 23.976 fps liefern.

    3) auf DVD bannen kannst Du es entweder als progressives 23.976 fps MPEG2, welches dann natuerlich auch ein resizing von 768x576 auf 704x480 erfordert.
    Wo wird bicubicresize verwendet? Im meinem Script steht nix davon!
    sehr wohl aber in restore24, das ist allerdings nur zu analysezwecken, kommt also NICHT zum output durch! lanczos wuerde hier nur unfug stiften!

    4) das denoising war noetig damit die blend-erkennung bei deinem verrauschent video ueberhaupt rueckfrei/ruckelarm wird.
    und fieldweise deswegen, damit ich nur gute fields miteinander vergleiche.
    denn schau Dir einmal
    separatefields.selecteven
    und einmal
    separatefields.selectodd
    an. Du wirst sehen, dass immer 12 schlechte und 12 gute fields in einer reihe sind.
    und genau das wird beim denoising ausgenutzt.

    auch hier kommt das entrauschte video NIE beim resultat an.
    nur die variable b wird 1:1 in den output durchgereicht. variable a versackt in restore24.

    5) wenn Du fieldbased MJPEG machst, kommt es trotzdem framewise aus dem decoder raus! trotz fieldwise encoding.

    framewise: 7xx*576@25fps
    fieldwise: 7xx*288@50fps

  • >Deine Siedlung wird moelgicherweise mit auf Analog umgesetztem DVB-S >versorgt. erkennbar an den Kloetzchen im Bild.

    Möglich. Aber die klötzchen wären mir noch nicht augefallen - muss mal genauer schauen - meine augen sind momentan leider nicht top.

    >ich habe noch ein paar fehler im script gefunden. jetzt muesste es mit dem >restore24 und den plugins aus dem package funktionieren. und auch 23.976 >fps liefern.

    Ja, funktioniert nun.

    >auf DVD bannen kannst Du es entweder als progressives 23.976 fps MPEG2, >welches dann natuerlich auch ein resizing von 768x576 auf 704x480 >erfordert.
    >Wo wird bicubicresize verwendet? Im meinem Script steht nix davon!
    >sehr wohl aber in restore24, das ist allerdings nur zu analysezwecken, >kommt also NICHT zum output durch! lanczos wuerde hier nur unfug stiften!

    Richtig bicubicresize hab ich in restore24 gefunden.
    Wenn ich das also richtig verstehe ist das momentan ausgegebene video noch ohne denoiser? Dann würde ich noch einen PeachSmoother am Ende hinzufügen.
    Das stimmt leider daß ich da auf 720x480 resizen müsste. Ich würd auf 29.97 fps pulldownen damit das authorinprogramm nicht streikt.
    Andere option ist natürlich es als avi zu encoden, dann würds aber net auf nem (standart) dvd player laufen :(

    >wenn Du fieldbased MJPEG machst, kommt es trotzdem framewise aus dem >decoder raus! trotz fieldwise encoding

    Ok. Aber die qualität des materials, insbesondere die trennung der fields, sollte damit besser werden, richtig?

    Wie würdest du das videomaterial end-speichern?

    Lukas

  • Ok. Aber die qualität des materials, insbesondere die trennung der fields, sollte damit besser werden, richtig?

    das ist kontenthabhaenig.
    schwache bewegte details ueberleben fieldwise eher, als framewise.
    aber fieldwise neigt eher zu mosquitos...
    suchs Dir aus, was Dir lieber ist...

    Wie würdest du das videomaterial end-speichern?

    kommt auf den Fall an.
    auf DVD nur als PAL, weil meine aktuelle glotze keine 60Hz kann.

    Wenn ich das also richtig verstehe ist das momentan ausgegebene video noch ohne denoiser? Dann würde ich noch einen PeachSmoother am Ende hinzufügen.

    jepp tu das. wundere Dich aber nicht, wenn es sich auf einmal ganz komisch benimmt.
    r24 ist allergisch auf alles, was man hinter ihm anfuegt.

    Das stimmt leider daß ich da auf 720x480 resizen müsste.
    Ich würd auf 29.97 fps pulldownen damit das authorinprogramm nicht streikt.

    bitte auf 704x480 resizen. 720 bringt ein falsches AR.
    was meinst Du mit pulldownen?
    Flags setzen oder als interlaced 29.97 fps encoden?

  • @ Scharfis_brain

    entschuldigt bitte, wenn ich mich hier reinmische, aber dein hier genanntes Script macht mich nachdenklich... Ich habe R24 bisher auch für analoge captures, welche ja immer ein gewisses Rauschen beinhalten, auf folgende Art angewandt:

    Variante 1:

    Code
    AviSource("AnalogCapture.avi",true,"YUY2")AssumeTFF()a=r24kernelbob(0)b=matchbob()restore24(a,b)UnDot().PeachSmoother()Lanczos4Resize(512,384)ColorYUV(levels="PC->TV")FadeOut(50)Assumefps(25,true)SSRC(48000)

    Du entrauscht nun interessanterweise den Referenzclip "a" schon vor der R24-Anwendung, damit die Blendings besser erkannt werden können. Da in den Output von R24 aber nur der clip "b" durchkommt, muss auch dieser anschließend noch entrauscht werden - mein Script würde dann so aussehen:

    Variante 2:

    Code
    AviSource("AnalogCapture.avi",true,"YUY2")i=AssumeTFF()SeparateFields()e=SelectEven.UnDot().PeachSmoother()o=SelectOdd.UnDot().PeachSmoother()Interleave(e,o)Weave()j=lasta=j.r24kernelbob(0)b=i.matchbob()restore24(a,b)UnDot().PeachSmoother()Lanczos4Resize(512,384)ColorYUV(levels="PC->TV")FadeOut(50)Assumefps(25,true)SSRC(48000)

    Dieses Script müsste also bei verrauschter Quelle (z.B. analoges Capture) eigentlich immer die bessere Art sein, R24 anzuwenden. Bitte korrigiere mich falls ich da was missverstehe.

    Jetzt zur eigentlichen Frage - Dann müsste aber folgendes Script eigentlich "noch bessere" Ergebnisse liefern?:

    Variante 3:

    Ich habe dabei den "Stupid-Bob" verwendet und nicht z.B. TMCBob, da wir ja von einem verrauschten Video ausgehen.

    Was hältst du davon?

    cu, grua

  • >Flags setzen oder als interlaced 29.97 fps encoden?
    Nur flag setzen so daß es als 29.97 aufscheint intern aber 23.976 ist.
    Interlaced encoden wäre ja irrsinnig da man ja das zilt hat ein progressive video zu haben - wozu sonst der ganze aufwand mit restore24.

    Das mit dem field based encoding find ich frustierend. Warum kann das nicht einfach nur vorteile haben - eben daß die fields voneinander getrennt sind und somit keine encoding artefakte eingeschlichen kommen.
    Kannst du mir genauer erklären was field based encoding für nachteile bringt und warum?

    Vielleichst ist 704x480 vom Aspect radio richtig(er), aber das AR wird bei dvds ja immer richtig angepasst, sowohl bei Standalones als auch bei Software Playern. Also warum nicht die höhere Auflösung nutzen?

    Lukas

  • grua: variante 3) hab ich, wie schon beschrieben NICHT genommen, weil eben jene blendings das denoising zur qual werden lassen (es schmiert)
    deswegen nehme ich fuer den ausnahmefall des fieldblendings diese art des entrauschens.
    hier kommts ja auch nicht auf schoenheit sondern auf ruckelfreiheit an.

    Sorry, dass ich wg. der 23.976 fps gefragt hab, ist ne angewohnheit geworden doppelt & dreifach nachzufragen. hat sich als sicherer herausgestellt.

    fieldbased vs. framebased hat vor UND nachteile. probiers doch erstmal selbst aus.

    720 pixel sind nur 704 bildpixel plus links und rechts je 8 schwarze pixel, WENN mans richtig macht.

    wenn man das ganze bild auf 720 streckt wirds falsch.


    Du kannst es auch 'noch' korrekter haben:

    768x576 -> 711x486 (vier acht sechs) -> cropping auf 480 zeilen -> links 4 schwarze und rechts 5 schwarze pixel dranpappen.
    dann wird das seitenverhaeltnis auch korrekt und Du hast korrektestens nach NTSC resized.

  • Zitat von scharfis_brain

    grua: variante 3) hab ich, wie schon beschrieben NICHT genommen, weil eben jene blendings das denoising zur qual werden lassen (es schmiert) deswegen nehme ich fuer den ausnahmefall des fieldblendings diese art des entrauschens. hier kommts ja auch nicht auf schoenheit sondern auf ruckelfreiheit an.

    danke - hatte ich aus den vorigen Postings nicht so wirklich rauslesen können ;)

    cu, grua

  • Wegen resizing auf 704x480: also du meinst daß 704 trotzdem besser an NTSC rankommt als 720? Ich versteh nicht warum? Ist es nicht so daß ein player die jeweilige auflösung entsprechend auf ein tv-signal bzw. die richtige aspect ratio skaliert? Soweit ich weiß sind alle NTSC DVDs die ich bisher gesehen habe in 720 kodiert. Liegen die also falsch?

    Ich hab nun eine field-based aufname gemacht in qualität 18 statt 17.
    Die Verfärbungen sind sehr deutlich zurückgegangen und mir kommt vor daß die Qualität besser ist. Inwieweit das an der qualitätseinstellung oder an field-based liegt ist halt nicht sicher.

    Ist trotz gruas Vorschlägen deine methode nach wie vor die beste/passenste scharfi?

    Luke

  • Der durchschnittliche 4:3-Fernseher skaliert einen Signalbereich einer international standardisierten Dauer auf sichtbare Breite - diese Dauer entspricht einer Breite von 704 Pixeln. Das bedeutet: Die auf einem durchschnittlichen Fernseher sichtbare Breite des Bildes ist die, die von 704 Pixeln im Material abgedeckt wird. Den darüber liegenden Bereich der weiteren 16 Pixel von 704 zu 720 bekommt man auf einem durchschnittlichen Fernseher sowieso niemals zu sehen.

    Bei einem 16:9-Fernseher, der auf den Modus "4:3-Wiedergabe" gestellt wurde, könnte das vielleicht anders sein, das habe ich aber bisher noch nicht selber ausprobiert.
    __

    Die ausschlaggebende Einstellung zur Vermeidung der Verfärbungen dürfte "field-based" sein. Verwendet man diese Option nicht, dann kann es Pixel geben, in denen sich die Inhalte zweier Halbbilder die gleichen Farbigkeits-Werte teilen müssen, obwohl sie wegen Bewegung einen erheblich verschiedenen Inhalt haben.

    Stell dir vor, ein roter Ball fliegt vor dem blauen Himmel durch das Bild. In einem Halbbild ist ein Bereich am Aufenthaltsort des Balles zu diesem Zeitpunkt rot. Im nächsten Halbbild ist der Ball schon weiter geflogen, man sieht nun an der gleichen Stelle wieder blauen Himmel. Welche Farbe hat nun das Bild (Frame), das aus beiden Halbbildern (Fields) zusammengesetzt wird, wenn es frame-based codiert wird - rot oder blau? Vielleicht violett? Erst wenn field-based codiert wird, kann man eine sinnvolle Antwort geben - und die lautet: "erst rot, dann blau".

  • Hab' ich doch gerade diesen Thread entdeckt ;)

    Morkeleb, willkommen in der Abteilung "wir versuchen zu reparieren, was die B-Löcher vom Fernsehen versaubeutelt haben" ...

    Ein paar bescheidene Kommentare, der Reihe nach:


    >> Was würdest du in meiner Situation beim Capturen optimieren?
    >> [später: Ich hab nun eine field-based aufname gemacht in qualität 18 statt 17.]

    Wenn's Mjpeg sein soll, dann: Q18 ist m.E. das *allerunterste Minimum*, wenn Captures mit Fieldblending repariert werden sollen! Q19 ist hierfür absolut empfohlen. (Als ich noch analog gecaptured habe, waren meine Quali-Einstellungen: Custom: Q-Luma=19, Q-Chroma=18, was ca. "Q19.5" entspricht).
    Noch besser: Verlustfreies Capturen mit Huffyuv, oder (kleinere Files) VBLE von MarcFD.


    >> Es ergeben sich durch die ganze Prozedur ein paar Verfärbungen

    Chroma-Schlampereien durch zu hohe Mjpeg-Komprimierung, plus Regenbogen-Artefakte, ... und das ganze wird durch die 'Rumbastelei mit Einzelfeldern nicht gerade besser. Deswegen schon die Aufnahme mit so wenig Verlusten wie nur möglich (s.o.) machen - was die Platten halt so an Platz hergeben.


    >> Wie würdest du vorgehen um das auf dvd zu bannen? Ein pulldown auf 29.97 fps machen?

    Also ich würde da die aus R24 resultierenden 23.976 fps auf 25 fps beschleunigen (assumefps(25)), und Audio separat beschleunigen (mit Pitch-Korrektur -- das geht auch über AviSynth, aber ich mach' das immer mit einem externen Audio-Editor). Danach lässt sich dann wunderbar eine PAL-DVD authoren.
    Klar kannst Du auch einen Pulldown zurück auf NTSC machen - mir persönlich geht das allerdings ziemlich gegen den Strich - Schließlich heißt mein Baby "Restore24", und nicht etwa "Vermurkswurschtel29.97". ;)


    >> Das Script ist schon ein Hammer, ich versuchs grad zu verstehen, aber es fällt nicht leicht.

    :)


    >> Ich sehe daß BicubicResize einmal verwendet wird. Ich habe mit Lanczos4Resize in sachen Schärfe
    >> sehr gute Erfahrungen gemacht - kann man das da anwenden?

    FINGER WEG! Wenn da irgendwo "Bicubic" geschrieben steht, dann hat das seinen guten Grund, und für "Lanczos" gilt das gleiche.
    Bei Enterprise ist "Schärfe" übrigens noch ein ganz eigenes Problem - siehe unten.


    - Die von Scharfi vorgeschlagene Entrauschung des Analyse-Clips sollte ziemlich OK sein. (Wenn ich auch nicht verstehe, warum er 2 separate TempSoft's für die Top/Bottom-Fields macht - bei temporalsoften kann man auch den vollen Frame 'reingeben, macht nix kaputt und geht schneller). Ausserdem ist R24 durch die Sobel-Edgedetection einigermaßen robust gegen Bildrauschen geworden, solang's nicht zu arg ist.
    Noch besser wäre vielleicht [url=http://mf.onthanet.com/forum/index.php/topic,161.msg1218.html#msg1218]LimitedTemporalSoften[/url], aber das ist nun wieder eine ganz andere Geschichte.

    - Aus der Seitenverhältnis-Diskussion halte ich mich mal raus. Bei mir jedenfalls kommt am Ende (für PAL-DVD) anamorphes 688*544 raus, plus Schwarzränder.


    Schärfe

    Das ist hier so ein Problem ...

    Durch den Fieldblending-Prozess verliert die Quelle so einiges an Schärfe. Um das auszugleichen, haben die Herren "Profis" dann so viel "Unscharfe Maskierung" draufgehauen, das einem richtig schlecht davon werden kann.
    Daher ist das Gecap'te Material eigentlich immer noch unscharf, dafür aber kontrastmäßig "überstrahlt". Daher ist ein "direktes" Schärfen mithin das Schlimmste, was man in dieser Hinsicht machen kann ... Erstmal muss die Unscharfe Maskierung entfernt werden - und *dann* kann wieder geschärft werden.

    Geeignete Instrumente zum Schärfen gibt's ja schon - ganz spontan fallen mir da "iiP" und "LimitedSharpen" ein ;)
    Und an dem Entfernen der Unscharfen Maskierung bin ich gerade fleissig am Basteln. Ist noch nicht ganz fertig, aber is' bald so weit ...

    Letzte Woche, an irgendeinem Punkt in der Script-Entwicklung, sah das etwa so aus:

    Source: (DVB-S Capture)
    [Blockierte Grafik: http://img126.exs.cx/img126/9907/1-Phlox_source.jpg]

    Processed:
    [Blockierte Grafik: http://img126.exs.cx/img126/4811/2-Phlox_better.jpg]

    Das ist noch ein eher harmloses Beispiel, das sieht oftmals noch viel schlimmer aus. Hab' im Moment aber nix anderes zum Posten zur Hand.
    Hier wurde erst die Unscharfe Maskierung bestmöglich entfernt, dann ein paar Prozente eines leichten Gauss-Schleiers drübergelegt, und schließlich mit LimitedSharpen wieder ein wenig angeschoben. Ist noch nicht ganz optimal, aber schon viel besser (und das Script macht weiterhin Fortschritte). Ich denke, man sieht, wohin die Reise geht bzw. gehen soll.

    Sollte im Laufe dieser Woche einsatzbereit werden.

  • @All
    Ich habe versucht ssrc(44100) auf ssrc(48000) zu änderm, doch dann bekomme ich "SSRC: could not resample between the two samplerates."
    Auch ssrc(48000,false) half nicht ab, lediglich ssrc(44100).ssrc(48000) funktionierte, und das ist wohl nicht so optimal.
    Was ist das problem und wie kann ich es lösen? (Wohlgemerkt ist die ausgangs-samplerate nicht 44100 da fps von ca. 25.002 auf 25 geändert
    wurde.)

    Didée
    Ich möchte den pitch nicht ändern weil ich es nicht mag daß die videos schneller abgespielt werden, vorallem beim sound macht sich das bemerkbar.
    Ich werds mal einfach mit einem Resize auf 704x480 versuchen.

    Wie kommst du übrigens auf eine (anamorphe) Auflösung von 688*544?

    Es wäre toll wenn du hier dein sharpen-script posten könntest sobald es bereit ist.

    Ich bin in avisynth und filern nicht so top wie ihr...
    könntest du mir den sharpen-prozess genauer erklären und warum er nötig ist (warum z.b. einfaches sharpen das falsche ist)?

    Auch eine Erklärung inwiefern die Sender das Signal "verwurschteln" und wie Restore24 es wieder herstellt wäre toll!

    Lukas

  • >> Ich möchte den pitch nicht ändern weil ich es nicht mag daß die videos schneller
    >> abgespielt werden, vorallem beim sound macht sich das bemerkbar.

    Eben deswegen, ganz genau. Mit "Pitch-Korrektur" meinte ich in diesem Fall "Pitch-preservation" (auf gut Denglisch) - Audio-speedup ohne Änderung der Tonhöhe. (Die 1. Staffel war ja 25fps/progressive ... da ist das Audio auch resampled worden, zumindest teilweise.)


    >> Wie kommst du übrigens auf eine (anamorphe) Auflösung von 688*544?

    Mit Gknot, Taschenrechner, und Avisynth ;)


    >> Es wäre toll wenn du hier dein sharpen-script posten könntest sobald es bereit ist.

    Die Schärfer sind schon lange fertig (siehe Links). Der De-Masker ist derjenige der in Arbeit ist ...


    >> könntest du mir den sharpen-prozess genauer erklären und warum er nötig ist (warum
    >> z.b. einfaches sharpen das falsche ist)?

    Im Prinzip gerne, aber jetzt grad dauert das zu lange. (Bin, glaube ich, gefürchtet für meine "länglichen" Erklärungen ;) ). Wenn's zeitlich passt (ojeoje), bringe ich mal ein besseres Beispiel.
    Aber wenn Du Dir obige Screenshots mal in aller Ruhe ganz genau anschaust, am besten Fullscreen, dann sollte Dir auffallen dass a) die Halo-Ränder verschwunden sind (Haar-Rand, rechts), und b) Phlox' Gesichts-Textur "feiner" ausfällt. Das Original wirkt irgendwie "fett", der typische Unscharfe-Maske-Effekt. Im 2. Bild wirkt alles ein wenig graziler.


    >> Auch eine Erklärung inwiefern die Sender das Signal "verwurschteln" und wie Restore24 es
    >> wieder herstellt wäre toll!

    Die Sender "verwurschteln" das Signal ja gar nicht. Die kaufen das bereits verwurschtelte (-> field-blending) Material ein, weil's viel billiger ist als eine "ordentliche" Konvertierung, und weil der doofe Fernsehzuschauer das ja sowieso nicht merkt.
    Betreffs der Unscharfen Maskierung - da weiss ich nicht, ob das vom Sender bei der Ausstrahlung gemacht wird, ober ob die billig-Normwandlung schon so eingekauft worden ist.

    Jedenfalls, was Restore24 macht, sieht in etwa so aus:


    Das ist das (Grund-)-Muster, in dem die Geblendeten Felder auftauchen, und von Restore24 mit blendfreien Nachbarfeldern ersetzt werden (Wenn's nur so einfach wäre wie das Diagramm vermuten lässt...). Anschliessend wird dieser ent-blendete 50fps Stream an SmartDecimate weitergereicht, welches dann die 50fps auf 24fps 'runterdezimiert (und dabei hoffentlich keine Fehler macht...).


    Jetzt is' klar. oder?

  • Also ich glaub wenn ich mich nicht RL mit wem zusammensetze der sich da auskennt wirds harte arbeit das zu kapieren. Meine Grundkenntnisse sind wohl auch zu mager dafür.
    Wenn mir sachen erklärt werden wie hier: http://arbor.ee.ntu.edu.tw/~jackei/dvd2avi/ivtc/ dann ist es verständlich.
    Gibts nicht irgendwo schon eine webseite mit ausführlicherer dokumentation wie film auf pal (in dieser hier besprochenen art umgewandelt wird) so daß man überhaupt man kapiert wie das vorliegende Material strukturiert ist?

    Damit könnte ich vielleicht eher den kryptischen code verstehen.

    Interessant daß Staffel 1 in pal progressive vorlag - kann mir garnicht vorstellen wie es möglich ist von film auf pal progressive kommt ohne Geschwindikeitsänderung - oder wurde eben das gemacht?

    Luke

  • Da von Scharfi zum Entrauschen des Referenzclips der Filter TemporalSoften(2,7,7) verwendet wurde bzw. von Didée LimitedTemporalSoften vogeschlagen wird - gibts diesbezüglich irgendwelche allgemeinen Anforderungen an den diesbezüglichen Denoiser wie z.B. "nur leichtes Entrauschen" oder "nur temporal, nicht spatial"?
    Ich würde ansonsten auch hierfür PeachSmoother() verwenden, da ich damit eigentlich zum "herrkömmlichen Entrauschen" von analogen captures recht gute Erfahrungen gemacht habe - oder haltet ihr den zum Entrauschen des Referenzclips grundsätzlich aus irgendeinem Grunde für ungeeignet? (immer analoges Capture vorausgesetzt).

    cu, grua

  • Zitat von Morkeleb

    Gibts nicht irgendwo schon eine webseite mit ausführlicherer dokumentation wie film auf pal (in dieser hier besprochenen art umgewandelt wird) so daß man überhaupt man kapiert wie das vorliegende Material strukturiert ist?


    Eigentlich gibt es schon eine recht umfangreiche Dokumentation aller möglichen Interlacing- und Formatwandelungs-Varianten (und die eignet sich recht gut zum Kategorisieren); aber ob die "leicht verständlich" ist, musst du selber beurteilen:

    Exotisches Interlacing (von scharfis_brain)

  • Nun ist zu dem ssrc problem noch ein weiteres hinzugekommen:
    CCE scheint mit dem avs nicht stabil zu laufen - er ist mir nun zum zweiten mal abgestürzt, was mir sonst kaum untergekommen ist.

    Momentan sieht mein script so aus:

    Könnt ihr da was rauslesen was für CCE (SP 2.5) probleme machen könnte?
    Inzwischen geht übrigens garnichts mehr: Ich bekomme "AVIFileGetStream: Unknown error." und in einem weiteren Fenster: "vinfo_open() failed: ** Could not open the file K:\Enterprise-Encoding\Enterprise_3x01_Die_Ausdehnung.vaf ***".
    Was ist da los?

    Didée:
    Genau den De-Masker meinte ich. Du sagst es wäre besser zuerst zu de-masken und dann erst zu schärfen. Insofern hätte ich am de-masker interesse und auch wie du im zusammenspiel mit den schärfe-filtern einsetzt.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!