Beiträge von ph4ntom

    Danke für eure Antworten. Meine NX ist heute angekommen. Ich habe Edius in der Version 5 ausprobiert und bisher scheint es problemlos unter Windows 7 x64 zu laufen.
    Zumindest habe ich bereits erfolgreich ein kurzes Stück vom VHS-Recorder gecaptured.

    Was ich nur nicht ganz verstehe: Man kann den Codec (z.B. Canopus Lossless) an zwei verschiedenen Stellen in Edius festlegen:
    Einmal in den Projekteinstellungen für das Ausgabeformat und außerdem noch bei der Wahl des Eingangsgeräts. Wo ist der Unterschied?

    Darüber hinaus habe ich es nicht hinbekommen, während des Capturevorgangs das Overlay mit dem Audiopegel einzublenden.
    Außerdem erfolgt keine Tonausgabe, ich sehe nur das Bild meines VHS-Recorders.
    Nach dem Capturen kann ich die aufgenommene Datei dann aber aus dem Bin problemlos öffnen/abspielen und dann ist der Ton auch vorhanden.
    Warum ist der Ton im Live-Betrieb nicht zu hören? :nein:

    In VirtualDub hatte ich unterdessen keinen Erfolg. Hier steht die NX in der Geräteliste gar nicht erst zur Wahl.

    Versuche es mal über die Suchfunktion zur Edius NX oder lese die Beiträge von Goldwingfahrer, ziemlich gut beschrieben und dazu bestens hier im Forum.


    Ich habe hier im Forum bereits gestöbert, dabei aber im Zusammenhang mit der NX-Karte immer nur von der Edius-Software gelesen.
    Hier hat Gubel mal dieselbe Frage gestellt, aber keine richtige Antwort bekommen. :rolleyes_:

    Aus deiner restlichen Antwort lese ich aber heraus, dass es möglich ist, VirtualDub mit der NX zu verwenden.
    Weißt du das aus eigener Erfahrung oder gibt es irgendeine andere Quelle, die das belegt?

    Falls VDub nicht klappen sollte, müsste ich mich nach einer geeigneten Edius-Version umsehen.
    Um einfach nur von der NX aufzunehmen, wäre wohl eine ältere Version am simpelsten, aber läuft z.B. die Version 4 überhaupt unter Windows 7 (64 Bit)?

    Hallo,

    ich habe vor, die Edius NX als Alternative zur Panasonic/Blackmagic-Kaskade wie in Gubels Guide zu verwenden. Gibt es eine Möglichkeit, die Karte über VirtualDub als Capture-Gerät anzusprechen, oder ist dazu zwingend die Edius-Software notwendig (es geht um die PCI-X-Version (nicht PCIe!) unter Windows 7 x64, falls das einen Unterschied macht)?

    Die Nachbearbeitung möchte ich in AviSynth/VapourSynth vornehmen, weshalb ich die Fülle an Funktionen von Edius eigentlich nicht benötige.

    Grüße
    ph4ntom

    Erstmal vielen Dank für eure Hilfe. Es tut mir Leid, dass ich mich nicht früher gemeldet habe, aber ich habe überhaupt keine E-Mail-Benachrichtigung erhalten, obwohl ich das Thema selbstverständlich abonniert hatte :rolleyes_: und eure Antworten deshalb erst gerade gesehen. Dein Skript werde ich sehr gerne ausprobieren, LigH.

    In der Zwischenzeit hatte ich mir damit geholfen, in MeGUI den "pre-rendering job" zu nutzen. Dadurch laufen AviSynth und x264 nicht mehr parallel und die Gesamtlaufzeit ist nur unwesentlich gestiegen. Die beschriebenen Fehler blieben bislang zumindest aus. Ich nehme an, dass x264 auf sehr viele zurückliegende Frames zugreift (--ref 11) und AviSynth dabei durcheinander kommt. Ein lokaler Puffer innerhalb von AviSynth ist natürlich eine elegantere Lösung, LigH, als erst eine riesige Lossless-Datei zu erzeugen. ;)

    Könnt ihr mir noch etwas zu SetMemoryMax(n) sagen? Ich habe zwar 16GB Ram installiert, aber das 32bit AviSynth kann unter 64bit nur maximal 4GB nutzen, oder? Kann man auf dieser Basis eine allgemeine Empfehlung für n aussprechen, oder hängt es zusätzlich vom Skript bzw. den verwendeten Filtern ab?

    Hallo,

    in einem x264-Encode ist mir folgender Fehler aufgefallen: An einer Stelle enthält das Video einen Frame, der eigentlich erst wenige Augenblicke später kommen dürfte (und dort dann aber noch einmal vorhanden ist). Beim Ansehen macht sich das durch einen interessanten Sprung in der Bewegung bemerkbar. Mein Skript sieht folgendermaßen aus:

    Kann das Problem mit dem Mutlithreading zusammenhängen? Ich verwende Avisynth 2.6 MT (32 Bit) unter Windows 7 (64 Bit). Dafür würde zumindest die Tatsache sprechen, dass der Fehler beim Frame-weisen ansehen des Skriptes nicht auftritt, sondern erst während des Encodierens erzeugt wurde.

    Mir ist auch noch aufgefallen, dass das fertige Video 4 Frames mehr hat, als das Avisynth-Skript (zumindest behauptet das DirectShowSource). Insgesamt habe ich jetzt natürlich ein wenig das Vertrauen verloren, denn ein sorgloses Archivieren ohne sofortiges Ansehen und Prüfen eines Videos ist so natürlich nicht mehr möglich.

    Fällt euch irgendwas dazu ein? :)

    Grüße
    ph4nt0m

    Na gut, ich habe jetzt nur die Möglichkeit gesehen, MeGUI über das Avisynth-Skript die DAR mitzuteilen. Ich nehme an, dass MeGUI das dann intern in den von dir angesprochenen SAR-Eintrag umrechnet und x264 mitteilt.

    Mein Skript sieht im Moment so aus, ist dagegen etwas einzuwenden?


    Zumindest der MPC-HC (bzw. die LAV-Filter) scheint die entstehende Datei auch korrekt abzuspielen, aber meine Frage ist eben, ob auch andere Player oder Geräte in der Regel den Entzerrungsfaktor berücksichtigen oder ob es besser wäre, wenn ich über Avisynth (vertikal) resize? Es geht mir hier einfach um Erfahrungswerte bzw. Empfehlungen. :)

    Hallo,

    ich bin im Moment dabei, einige stinknormale DVB-S-Aufnahmen (SD, 4:3) zu archivieren. Ich habe mich für MPEG-4 AVC + AAC innerhalb eines MP4-Containers entschieden, da mir XviD inzwischen etwas überholt erscheint. Allgemein wird ja empfohlen, nicht zu resizen, um die Ausgangsqualität so gut wie möglich zu erhalten.

    Allerdings ist es ja so, dass die TV-Ausstrahlungen 720x576px haben und die Pixel somit nicht quadratisch sind. Würdet ihr in diesem Fall doch resizen, jedoch ausschließlich vertikal? Oder ist es besser, das Seitenverhältnis im AVC-Stream zu speichern? Ich bin mir unsicher, ob Letzteres von jedem normalen Abspielgerät inzwischen berücksichtigt wird. Oder ist das nicht vergleichbar mit der DAR-Angabe im Container (die ja auch möglich wäre)?

    Grüße
    ph4nt0m

    Danke, so klappt es noch ein wenig besser. :) Jetzt werden nur noch ganz wenige Frames am Ende des Abspannes fälschlicherweise nicht als interlaced erkannt. Über cthresh lässt sich das noch weiter verbessern, wenngleich dann auch wieder einige progressive Frames interlaced werden. Die perfekte, automatisierte Lösung gibt es wohl für dieses Material nicht, aber ich bin jetzt ganz zufrieden damit.

    Ich habe mich leider zu früh gefreut. Beim Abspann sind doch immer wieder einige Frames dazwischen, die von TFM nicht als "combed" erkannt und damit nicht deinterlaced werden. Bei den Stichproben habe ich natürlich vorhin immer nur die Bilder erwischt, bei denen die Erkennung funktionierte. :rolleyes_: Falls es jemanden interessiert, habe ich hier einen kleinen Ausschnitt des Materials hochgeladen: http://www.file-upload.net/download-7452527/sample.zip.html

    Ich habe bereits mit dem Parameter cthresh gespielt, doch gerade ganz zum Schluss des Abspanns (wenn das große gelbe NDR-Logo immer langsamer wird und schließlich stehen bleibt) gehen alle Kammartefakte erst dann weg, wenn ich den Wert auf 0 setze, was natürlich dazu führt, dass wieder der gesamte Film deinterlaced wird.

    Vielleicht habt ihr noch Tipps. Zur Not werde ich doch einfach alles durch QTGMC jagen, für die Komprimierbarkeit wäre das eh besser. :lol:

    Ich habe natürlich nicht jedes einzelne Bild verglichen. Aber Stichproben von unterschiedlichen Stellen sahen immer genau so aus, wie die jeweils gewünschte Variante: Der Abspann (interlaced) wie bei direkter Verwendung von QTGMC und andere, progressive Stellen hingegen so, als wenn überhaupt kein Filter angewendet worden wäre.

    Die Frage ist noch, ob pp=2 bei TFM ("dumb blend deinterlacing") identisch ist mit dem Weaving, welches AviSynth standardmäßig vornimmt. Ich konnte subjektiv keinen Unterschied erkennen. :nein:

    Danke, diese Lösung wollte ich eigentlich nur für den Notfall hören. ;D Aus deiner Antwort entnehme ich aber, dass es tatsächlich keinen Parameter wie bei TDeint gibt. Weißt du vielleicht, wie komplex die Erkennungsroutine bei TDeint intern ist? Vielleicht könnte man da ja sonst etwas basteln.

    Eine andere Frage: Ist die Anwendung von QTGMC auf das gesamte Video in diesem Fall denn überhaupt vernünftig? Einen leichten Verlust an Schärfe konnte ich ja wie gesagt bereits wahrnehmen, aber wäre es davon abgesehen durchaus in Ordnung, so vorzugehen, wenn ich mir die manuelle Stückelung sparen will? Ich meine hiermit ein einfaches QTGMC().SelectEven().

    Hallo,

    ich habe eine übliche DVB-Aufnahme mit 50 Halbbildern je Sekunde vorliegen, doch nur der Abspann ist tatsächlich interlaced, damit die Schrift "weicher" durchläuft. Der Rest des Films weist ganz klar ein Halbbildmuster a,a,b,b,c,c,... auf und in diesen Szenen verliere ich durch QTGMC doch ein wenig an Schärfe.

    Gibt es eine Möglichkeit, QTGMC nur die Szenen deinterlacen zu lassen, die auch wirklich nicht progressiv sind? TDeint bietet dazu die Option full=false, welche einwandfrei zu funktionieren scheint, doch qualitativ ist er natürlich ansonsten unterlegen. ;)

    Gruß
    ph4nt0m

    Ich habe in den letzten Tagen noch ein bisschen experimentiert. Dabei bin ich auf ein altes Skript von Didée gestoßen, welches ich versucht habe, in mein Projekt einzubauen:

    Ich bin mir nicht sicher, was der Didée-Teil genau macht, aber durch bestimmte Analysen mit den masktools werden im Vergleich zu meinem ersten Versuch (siehe Thread-Seite 1) deutlich mehr Details sichtbar. Des Weiteren werden sogar Farbverschiebungen z.T. korrigiert:

    didee.png

    Natürlich fällt auch auf, dass Einiges an Rauschen dazugekommen ist (vermutlich beabsichtigt durch addgrain()?), obwohl ich abschließend ja wie gehabt TemporalDegrain anwende. Ich bin mir leider auch nicht sicher, ob das Skript für Interlaced- oder Progressive-Quellen geeignet/gedacht ist. Im Moment wird ja erst gebobbt und dann Didées Teil ausgeführt. Die Deblock-Zeile habe ich auskommentiert, da Didée das Ganze damals wohl für eine MPEG2-Datei entworfen hatte. Vielleicht kannst du dich ja sogar persönlich zu Wort melden, Didée, und mir ein wenig helfen. :)

    Gruß
    ph4ntom

    Die TempGaussMC_beta3 kann ich leider nirgendwo finden. Eigentlich dachte ich auch, dass du QTGMC verwendet hättest, weil der Dateiname deines Archivs dies andeutet. Gibt es einen Grund dafür, nicht den "Nachfolger" zu verwenden?

    Hast du für dein Sample gar keinen expliziten Rauschfilter eingesetzt? Wenn nein, so ist es tatsächlich erstaunlich, wie viel durch den MPEG2-Codec verloren geht.

    Bei dem Gerät handelt es sich um einen sehr alten Sanyo VHR-120G. Vielleicht verwendet der ja intern Panasonic-Technik? :)

    Hallo,

    da ich seit kurzem endlich eine neue CPU besitze, hat mich das Thema der Digitalisierung alter VHS-Aufnahmen wieder gepackt. :) Ich habe eine alte Sendung bereits vor einiger Zeit mit dem Pinnacle 500-USB gecaptured und mit dem UT Video Codec verlustfrei gespeichert. Jetzt würde ich gerne von der neuen Rechenleistung Gebrauch machen, um das Bild mit Avisynth etwas ansprechender zu gestalten. Hier findet ihr einen kurzen Ausschnitt: http://www.file-upload.net/download-7000517/cap.rar.html

    Momentan lasse ich ledglich durch QTGMC deinterlacen und durch TemporalDegrain das Rauschen verringern:

    Leider wird der i7 dabei längst nicht bis an seine Grenzen ausgelastet. Ich bin mir auch nicht sicher, welchen MTMode ich für TemporalDegrain benötige. Ich habe auch bereits versucht, die GPU-Unterstützung zu aktivieren (es ist eine aktuelle GTX 660 Ti vorhanden), doch dadurch wurde es eher noch langsamer. Das Ergebnis gefällt mir dennoch schon relativ gut, wenn man die Ausgangsqualität berücksichtigt:

    [table='align: left']

    [tr]


    [td='align: center']1.png [/td]
    [td='align: center']2.png[/td]

    [/tr][tr]


    [td='align: center']vorher[/td]
    [td='align: center']nachher[/td]

    [/tr]


    [/table]
    Was mir noch aufgefallen ist: Über dem Video scheint leider eine Art Störsignal zu liegen. Zumindest sehe ich ein leichtes, großflächiges, wellenförmiges Flackern. Gibt es einen Filter, der so etwas entfernen oder verringern kann?

    Habt ihr weitere Vorschläge bzgl. der Filterung oder gibt es Fehler in meinem bisherigen Skript?

    Gruß
    ph4ntom