Posts by Pro Jo

    Bei AviSynth kann ich dir leider nicht weiterhelfen. Da müssten dir die AviSynth-Spezialisten helfen, melden sich nicht, da du vermutlich ein Konfiguratiosproblem hast. Probiere einmal die Firewall (Defender) auszuschalten. Aber der Defender gibt das normalerweise automatisch frei.

    Hast du den passenden Grafikkartentreiber für Win. 7 installiert? Ein Win. 10-Treiber passt da nicht.

    Theoretisch müssten AviSynth und VDub mit jedem OS funktionieren. Bei C++ hast du vermutlich die neueste Version installiert. Es kann aber sein, dass AviSynth und VDub auf ältere Versionen von C++ zugreifen.

    Ich habe bei mir auf Win. 7 64Bit und Win. 10 64Bit die Versionen C++ 2008, 2010, 2013 und 2015-2022 installiert. Jede Version in x86 und x64. Das ist wichtig, sonst kann es sein, das die jeweiligen Anwendungen in x86 oder x64 nicht laufen. Achtung, man braucht für ältere Anwendungen unbedingt C++ 2010, dann müsste es klappen. Es gibt aber auch die MSVCP100.dll. Virenscanner ausschalten, ist ja klar.

    RAM 4 GB:
    Es kommt darauf an, wie engagiert du mit der Erstellung von Videos bist. Für nur AviSynth und VDub reichen 4 GB-RAM bei SD-Video. Willst du deine Videos mit einem Schnittsystem bearbeiten, dann empfehle ich schon eine CPU mit 12 Kernen.

    Mit weniger Kernen, stehen dann nur wenige Videospuren in Echtzeit zur Verfügung. Bei Mainboards mit PCI-E 4.0 oder 5.0, könnte man das etwas ausgleichen. Die 3 GHz von der CPU sind in Ordnung. Ein Script in 32 Bit, läuft schneller ab, als mit 64 Bit, das wäre der Vorteil.

    Ja, LigH kann dir bei AviSynth besser weiterhelfen.

    Grüße

    Hallo.

    Die Frage ist nicht leicht zu beantworten, denn jedes OS hat seine Vor- und Nachteile. Der Nachteil bei XP 32Bit ist, dass man nur 4 GB-RAM verwenden kann. Dazu bräuchte man XP 64Bit. Auch Server 2003 genannt. Es passen 90% der Treiber von XP 32Bit. XP ist etwas langsamer als Win. 7- oder Win. 10.

    Das schnellste OS, wäre Win. 10 64Bit. Aber durch die vielen internen Tracking- und Report-Programme, und die vielen Updates pro Monat, nur bedingt zu empfehlen. Das könnte so manche Schnitt-Software instabil werden lassen.

    Bevorzugen würde ich Win. 7 64Bit. Das OS führt fast keine Tracking- oder Report-Funktionen aus. Win. 8 64Bit würde auch noch gehen. XP und Win. 7, aus Sicherheitsgründen, nicht mehr mit dem Internet verbinden.

    Welches OS du installieren möchtest, das muss man immer selbst entscheiden. Vielleicht können dir Kollegen hier etwas weiterhelfen und haben andere Erfahrungen gemacht.

    Delta Frames sind Zwischenbilder, diese werden meistens bei hochkomprimierten Streams wie MPEG-2 oder MPEG-4 verwendet, die bei „unkomprimiert“ nicht vorkommen. Wenn man z. Bsp. eine MP4-Datei (Blu-ray oder Stream) mit einem Schnittsystem bearbeiten möchte, dann sollte man aus technischen Gründen solche komprimierten Streams vorher immer, entweder gleich zu unkomprimiert, oder als MP4 (H.264/265) mit nur „i frames only“ wandeln.

    Bei den komprimierten Streams gibt es auch noch „B- und P-frames“. Das sind die eigentlichen Zwischenbilder. Und diese machen auch Sinn, denn dadurch werden die Film-Bilder flüssiger wiedergegeben. Die Norm sind 3 Zwischenbilder. Es kann aber auch vorkommen, je nach Bildmaterial, dass 5 Zwischenbilder flüssiger ablaufen, als 3 Bilder. Mehr als 5 Zwischenbilder bei MPEG-2 (PAL) sind nicht erlaubt. Nur bei NTSC und MPEG-4, sind es etwas mehr.

    Der Sinn dahinter ist, wenn man einen Hartschnitt zwischen den B- oder P-frames ausführt, kann dies zu Rucklern, oder ganz zu einem schwarzen Display führen. Wo B- oder P-frames enden, das weiß man vorher leider nicht, daher immer korrekt zu unkomprimiert oder i frames only wandeln. Dann bearbeiten, und danach wieder normal als MPEG-4-Stream ausgeben.

    Zu beiden Fragen, ja richtig. I frames sind Schlüsselbilder.

    Näheres dazu bei Wikipedia:
    https://de.wikipedia.org/wiki/Bildergruppe

    Deine Konfiguration mit Edius und der Canopus NX-Karte unter Win. 7 64-bit, ist sehr gut. SD-Video (PAL) ist in Deutschland immer in 720 x 576i. In der USA wäre die NTSC-Auflösung 720 x 480i Pixel.

    Die Pixel haben mit einer VHS-C-Kassette nichts zu tun. Das C bei VHS steht für eine Compact-Kassette. Diese ist wesentlich kleiner, als die normale VHS-Kassette. Das hatte den Vorteil, dass die Camcorder kleiner gebaut werden konnten. Es gab aber auch Vollformat-Camcorder, die größer waren.

    VHS-C-Bänder wurden aber auch mit 720 x 576 Pixeln aufgenommen, da es ja PAL war. Bei S-VHS-C war es auch so. 320 x 240 Pixel ist mehr für YT oder Handys gedacht.

    Wenn du möchtest, dann kannst du HuffYUV nehmen, Canopus hat aber auch sehr gute Codecs. Man sollte immer auf „unkomprimiert“ achten. Der BM 4:2:2-Codec ist auch sehr gut. Wenn möglich nie Codecs (Lagarith) mit Delta-Frames verwenden, denn diese basieren auf MPEG-2.

    Ausnahme: Edius müsste den Lagarith-Codec mit "i frames only" importieren. Darüber hatte ich mich einmal mit Goldwingfahrer unterhalten.

    Als Container kann man AVI, MOV, MP4 oder MKV verwenden. Beim MP4-Container darauf achten, dass man z. Bsp. den H.264-Codec nur mit „I only Frames“ einstellt. Das gilt auch für die DV-Codecs. Für die Bearbeitung in Schnittsystemen immer „Oberes Halbbild zuerst“ einstellen. Auch für PAL. Später kann man es normgerecht zu „Unteres Halbbild zuerst“ umwandeln.

    Hallo,

    ich kann dir jetzt nur schreiben, wie meine Meinung ist.

    Der Umschaltbereich von den Bildköpfen bei beiden Rekorden ist gut. Bei der Aufnahme von damals stimmt allerdings die Vormagnetisierung der Bildköpfe nicht. Man sieht am Anfang eine kurzzeitige Farbverschiebung. Das kann man nicht mehr korrigieren. Da das YC-Interface vom Philips schärfer abbildet, als FBAS, zeigt der Philips ein etwas schärferes Bild, dadurch werden auch die Text-Schlieren schärfer sichtbar und länger.

    Ich nehme an, dass die Aufnahme von einer analogen Antenne stammen. Man hätte damals die Antenne etwas nach links drehen sollen, dann würde der Text auch fast ohne Schlieren bei der Bildkontur weg sein. Das kann man vermutlich nicht korrigieren. Vielleicht wissen die AviSynth-Spezialisten mehr darüber, ob das möglich ist.

    Den Farbpixelversatz müsste man vermutlich auf 2- 3 Pixel nach links korrigieren. Den oberen Bildrand mit 8 Pixel abdecken. Mehr kann man wahrscheinlich nicht machen.

    Ja richtig, der Sharp produziert weniger Schlieren, als der Philips. Wenn bei dem Philips einige Elkos defekt wären, dann hätte das bestimmt größere Auswirkungen auf das Bild.

    Messtechnisch hat aber der Philips mit „Digital 3R“ das beste Bild. Aber du kannst ja mit dem Sharp capturen, wenn dich die längeren Schlieren stören.

    Gut, dann bist du einer der wenigen Leute, die das verbessern wollen. Ja klar, bei 24 Bilder/s sollte man nicht den Film zu 25 Bilder/s wandeln. Das sehe ich auch so. Moderne Fernseher geben 24 fps ohne Probleme wieder. Und einen Röhrenfernseher, besitzt heutzutage fast keiner mehr.

    Wenn man 25i zu 25p wandelt, sollte man bei guten Deinterlacern keine Ruckler mehr sehen. Solche Streams sind vermutlich falsch deinterlaced worden. Es könnte aber auch an einem falsch eingestellten Kamera-Shutter liegen.

    Der analoge 35mm Film, ist einer digitalen 4k-Aufnahme in der Bildqualität weit überlegen. Seit neuesten Erkenntnissen, soll der 35mm Film eine Bildqualität von 16k haben. Das wurde aber noch nicht bestätigt.

    Zwischenbildberechnung:
    Bei progressive auf jeden Fall ausschalten, das ist klar.


    Progressive:
    Mit Denoise, Resize, AI-Upscaling, etc. greift man ja in das originale Bild ein. Aber diese Filter kann man auch bei Interlace einsetzen. Bei SD-Material halte ich ein Upscaling auf z. Bsp. 4k für Blödsinn. Aber vielleicht gibt es in einigen Jahren eine Software, die das gut erledigt.

    Overscan:
    Ja, bei den meisten modernen FS kann man das einstellen. Croppen behindert das Interlace nicht, da man nur die Bildränder wegschneidet, nicht aber in das Bild selbst eingreift.

    Wenn man Videos mit einem Schnittsystem bearbeiten will, dann bleibt der Film immer in 720 x 576i Pixel. Denn 704 x 576 Pixel wird man in den meisten Schnittsystemen nicht importieren können. Gecroppt und aufgefüllt wird nur der untere Bildrand, bei dem man den Kopfumschaltbereich sieht. Bei den Schnittsystemen wird aber nur abgedeckt, dadurch bleibt das originale Overlay erhalten.

    Es kann sein, wenn man eine neue Kopfscheibe einbaut, dass man dann überhaupt keinen Kopfumschaltbereich mehr sieht, es sei denn, dieser wurde mit aufgenommen. Außerdem werden an den beiden Bildseiten nie schwarze Pixel aufgefüllt. Und wenn, dann wird nur abgedeckt, nicht gecroppt.

    Das 4:3-Flag sollte keine Probleme bereiten, da alle DVD-Player und Software-Player eine 4:3 Option in den Bildeinstellungen bieten.

    Auf 704 x 576 Pixel wird meistens nur wegen YT gecroppt, dass keine schwarzen Bildränder zu sehen sind. Einige Leute dort, bezeichneten die schwarzen Bildränder als Trauerränder.

    So wie ich das sehe, ist das Bild falsch deinterlaced worden. Ich vermute, dass da die Einstellung „Blend“ verwendet wurde.

    Smurf, ja in beiden Punkten zu meiner Lösung gebe ich dir recht. Die Zukunft liegt bei Vollbild. Dazu braucht man aber einen guten Deinterlacer. Wenn man allerdings Vollbild wieder zu interlaced wandeln möchte, aus welchen Gründen auch immer, dann geht das zu 95% schief. Außerdem haben ziemlich alle modernen Fernseher gute integrierte Deinterlacer eingebaut, die über HDMI wirken. Als Stream würde ich mich jetzt auch für Vollbild entscheiden.

    Bei Video-Tests vom c’t-Magazin, war allerdings interlaced einen Hauch schärfer. Das würde mich aber nicht stören.
    Viele Filme bei Blu-rays werden mit 25fps erstellt, da hat sich noch kein Mensch beschwert, dass der Film nicht flüssig wiedergegeben wird. Aber du hast recht, mit 50fps laufen die Filme flüssiger.

    Solche KI-Ergebnisse kann man natürlich nicht präsentieren, das ist klar.

    Neues Meat Loaf Test-Video:
    https://workupload.com/file/tex5CuaQyt8

    Dieses Video ist in 4:2:2, 50fps, deinterlaced (Yadif) und mit 720 x 576 Pixel. Das Video ist mit VDub auf die Schnelle gemacht. Es hat jetzt nicht die Qualität, die Selur erstellt hat.

    Die beiden Test-Videos von Selur gefallen dir nicht? Für mich sind das die besten Ergebnisse, die man überhaupt erreichen kann. Sogar bei den Augen, sieht man keinen Unschärfeschleier, wie bei manch anderen Aufnahmen von Leuten. Selur dosiert die Einstellungen auch richtig, nicht zu schwach aber auch nicht zu stark. Meiner Meinung nach, ist das eine hervorragende Bildqualität gegenüber der verrauschten Original-Aufnahme. Solche Ergebnisse sind auch bei den Avid- und DaVinci-Schnittsystemen ziemlich möglich.

    10 Bit Farbtiefe wird eine DVD nicht annehmen. Aber heutzutage werden ja nur noch Streams produziert. Die Test-Videos wirken etwas clean. Ich hätte ein ganz kleines Bildrauschen gelassen. Aber sonst ist alles hervorragend.

    Ich war vor kurzer Zeit bei einem Bekannten. Bei dem war der Fernseher in der Schärfe auf Stufe 6, statt auf Stufe 3 eingestellt. Korrigiert auf 3, ist die Flankensteilheit an den Bildkonturen wesentlich angenehmer. Das Bild wirkt nicht so stechend.

    QTGMC ist klar besser, als der Deinterlacer von DaVinci. Man muss dann aber auch als 25p in DaVinci importieren. Ja, jeder Film hat andere Eigenschaften. Man kann das alles nicht in 2 Stunden lernen, das ist klar.

    Hybrid ist schon ein guter Encoder, man sollte sich halt mit den vielen Einstellungen auskennen. Das ist aber bei XMedia Recode auch so. Ich würde aber die Softwar vorziehen, die Selur genommen hat.

    Es wundert mich, dass VDub bei Verwendung von dem genannten BM-Codec schlechter sein soll. Da ja der BM-Codec die Bildqualität erzeugt. Ich würde für die ganze Videobearbeitung den BM-Codec beibehalten und erst zum Schluss zu H.264/H.265 (mp4) wandeln.

    Encoder-Rauschen:
    Ein Encoder gibt immer das Bildrauschen weiter, das im Bild enthalten ist. Mit dem Encoder-Rauschen ist was anderes gemeint. Dabei geht es darum, wenn man nicht richtig croppt, dass dann der Encoder die schwarzen Bildränder als Rauschen interpretiert.

    Beispiel:
    Man möchte 720 x 576 zu 704 x 576 Pixeln croppen. Ohne schwarze Bildränder z. Bsp. für Youtube.

    Dann sollte man folgende Pixel-Einstellungen verwenden:
    Oberer Bildrand. 8 Pixel,
    Linker Bildrand, 8 Pixel,
    Rechter Bildrand, 16 Pixel und
    Unterer Bildrand, 12 Pixel.

    Sollte der untere Bildrand mehr als 12 Pixel für das Croppen aufweisen, z. Bsp. durch einen größeren Kopfumschaltbereich von 16- oder mehr Pixeln, dann werden die 16 Pixel abgedeckt und danach mit 12 Pixeln gecroppt. Dann sind halt 4 schwarze Pixel am unteren Bildrand zu sehen. Zum Schluss als 4:3 exportieren.

    BFF und TFF:
    Die Norm in Deutschland ist BFF. Aber mittlerweile ist es egal ob es BFF oder TFF ist. TFF sollte man aber immer verwenden, wenn man das Video mit einem Schnittsystem bearbeiten will. Ein Schnittsystem nimmt immer erst das erste Halbbild für einen korrekten Hartschnitt.

    Bei BFF zuerst, würde das erste Halbbild (TFF) fehlen und somit eine falsche Bildreihenfolge erzeugen. Edius macht das automatisch, glaube ich, sonst würde man einen Stroboskop-Effekt bei der Wiedergabe in der Timeline sehen. Darüber hatte einmal Goldwingfahrer berichtet. Aber wie das genau ist, weiß ich nicht mehr, das ist schon zu lange her.

    Du verwendest ja schon den besten Deinterlacer den es gibt. Meistens nehme ich den Deinterlacer von meinem Encoder (Sorenson Squeeze). Da habe ich viele Einstellmöglichkeiten. Es kann immer von Film zu Film unterschiedlich sein. Aber du bleibst am besten bei QTGMC.

    DaVinci ist eigentlich für professionelle Anwendungen gedacht, weniger für den Amateur. Richtig, die Software ist kompliziert. Aber wenn man das alles erst einmal begriffen hat, ist das schon eine tolle Sache. Es dauert aber einige Zeit. Avid MC und DaVinci werden für Hollywood-Produktionen verwendet. Im professionellen Bereich hört man nichts von Adobe Premiere.

    Ja, wenn es flackert, liegt es an den Einstellungen. Vielleicht ist dazu Yadis in VDub besser geeignet. Das muss man immer ausprobieren.

    Hallo, danke für die kurze Videosequenz. Da habe ich schon wesentlich schlechtere Aufnahmen gesehen. Da bestand das Bild bei Kabel-Betrieb bei einem Bekannten aus 40% Bildrauschen. Das Test-Video ist aber vermutlich eine Originalaufnahme, wenn ich mich nicht täusche, keine Kopie. Der Rec. 601 für SD passt. 720 x 576i Pixel stimmen auch. Die Bitrate mit etwas über 50 MBit/s für 4:2:2 ist auch in Ordnung.

    Bei der Farbpixelkorrektur würde ich auf +1 für die rechte Seite einstellen, statt +2 Pixel. Bei einigen Hartschnitten, ist ein Teil des nächsten Bildes im vorhergehenden Bild zu sehen. Dadurch kehrt sich die Bildreihenfolge um. Aus TFF wird BFF. Das liegt vermutlich an deinem DVD-Rekorder (Elkos).

    Grain:

    Wo hast du das gelesen, dass Grain Artefakte verhindert. Das ist Quatsch. Grain heißt „Korn“. In diesem Fall meint man das Filmkorn, da früher die 35mm Kinofilme ein Filmkorn hatten. Sehr gute Filme wiesen fast gar kein Korn auf und die Bilder wurden sehr scharf abgebildet. Der Nachteil war, dass man sehr lichtstarke Kameraobjektive brauchte. Es gibt auch einen Schwarzschild-Effekt. Aber das wissen die meisten Leute heutzutage nicht mehr.

    Kein tune verwenden, da es ein künstliches Korn im Videobild erzeugt. Bei Zeichentrickfilme kann man bei tune, Anime verwenden, dadurch läuft der Film flüssiger.

    Das wäre meine Lösung:

    workupload - Are you a human?

    Das Test-Video ist auf 16-235 korrigiert. Sollte dir mein Bild nicht „scharf“ genug sein, dann musst du deine Einstellungen nehmen.

    AviSynth mit QTGMC ist der beste Deinterlacer den ich kenne, was besseres wird es kaum geben. Ja, die Fernseher allgemein haben sehr gute Deinterlacer. Das sind aber Eigenentwicklungen von den jeweiligen Herstellern. Artefakte und Bildflimmern darf man auf keinen Fall sehen. Das tritt eigentlich nur auf, wenn die Software falsch eingestellt wurde.

    Bei Artefakten gibt es praktisch nur 3 Möglichkeiten. Entweder ist die Bitrate zu niedrig, die Bildköpfe sind verschmutzt oder einige Elkos beim Wiedergabegerät sind defekt. Klar, dass das Bild bei dem LG OLED-TV anders aussieht, der OLED-TV hat ja eine wesentlich bessere Bildqualität als das Tablet oder der PC-Monitor.

    Um das Bild in interlace an dem TV zu sehen, bräuchtest du einen Scart / FBAS zu HDMI Konverter.

    Zum Bsp. diesen hier:
    https://www.vitecco.de/signalwandler-…r-su-810-a?c=65

    Das Gerät wird dir aber zu teuer sein. Das ist nur ein Vorschlag. Klar, auf keinen Fall vom TV abfilmen. Da hast du dann andere Probleme.

    Achtung:
    Solltest du doch einmal DaVinci Resolve installieren, dazu braucht der PC min. 16 GB-RAM.

    Wenn du möchtest, dann kannst du einmal eine kurze Filmsequenz von 10 Sekunden Dauer, vom originalen Video, irgendwo hochladen. Nicht schon korrigiert. Mich würde interessieren, wie das Bild aussieht. Danke.

    Eine schlechte Kopierqualität hatte ich auch damals bei Video2000. Habe mir aber 1985 die TDK HD-PRO Bänder gekauft und dann erst auf VHS kopiert. Diese Bänder hatten eine um 80% bessere Bildqualität. Das ist fast eine ganze Kopier-Generation. Da merkte man eine Bildverbesserung gegenüber von günstigen Standard-Bändern.

    HD bedeutet High Definition. Das heißt, die Magnetpartikeldichte war 4x höher als die von VHS Standard-Bändern.

    Allerdings kauften sich diese Bänder meistens nur Leute, die sich ernsthaft mit Video beschäftigten. Ein Band von dieser Sorte kostete immerhin 30 DM. Das war den Leuten viel zu teuer. Das war auch mir klar. Solche Bänder gab es nur für VHS, S-VHS oder Hi8, für Betamax nicht.

    4:3:
    Das 4:3-Flag setzt man erst bei den Encodern, aber nicht vorher bei der Videobearbeitung, wie z. Bsp. mit Schnittsystemen. Mit Topaz solltest du noch alle deine SD-Videos mit den Helligkeitswerten auf 16-235 einstellen, und auch die Farbintensität korrigieren. Dann hast du schon ein wesentlich geringeres Farb- und Helligkeitsrauschen. Zuvor würde ich aber erst den Farbpixelversatz mit VDub korrigieren und dann in Topaz laden.

    Die Bildschärfe würde ich nicht unbedingt mit QTGMC ausführen, sondern mit dem Schnittsystem. Du kannst es ja auch einmal mit VDub mit den entsprechenden Filtern ausprobieren. Oder mit einem guten Filter von AviSynth.

    Wenn du das alles gemacht hast, dann den Masterclip in XMedia Recode importieren, und als H.264 oder H.265 mit AAC-Ton oder DD 2.0 und 4:3-Flag exportieren.

    Ich glaube nicht, dass man in diesem Fall, eine Steigerung der Bildschärfe erreicht, oder diese sogar sichtlich ist. Da musst du vermutlich in den saueren Apfel beißen. Ich habe bei meinen Aufnahmen von Video2000 auch keine künstliche Schärfe hinzugefügt. Ich musste das auch so hinnehmen, obwohl ich eine bessere Kopierqualität hatte.

    Vielleicht helfen dir diese Beispiele etwas weiter.

    Schärfen mit DaVinci Resolve:

    External Content www.youtube.com
    Content embedded from external sources will not be displayed without your consent.
    Through the activation of external content, you agree that personal data may be transferred to third party platforms. We have provided more information on this in our privacy policy.

    oder

    External Content www.youtube.com
    Content embedded from external sources will not be displayed without your consent.
    Through the activation of external content, you agree that personal data may be transferred to third party platforms. We have provided more information on this in our privacy policy.

    Hallo weilaho,

    es kommt darauf an, welchen Codec du genommen hast. Der UTVideo-Codec 4:2:2 wäre qualitätsmäßig gut. Allerdings der Codec ohne Deltaframes (GOP). Ein 4:2:0-Codec ist da sichtbar schlechter in der Bildqualität. Vor allen Dingen in der Weiterverarbeitung, Bildeffekte, schneiden, kopieren und rendern. Dann sollte das Video auch in guter Qualität exportiert werden, sonst hat man keine Freude daran.

    Eine PCM-Audiodatei ist qualitativ die beste Lösung. Allerdings mit 48 kHz, in DVD-Qualität. Ein Video mit UTVideo-Codec und einer PCM-Audiodatei mit 63 MByte (Speicherplatz auf Datenträger) ist völliger Quatsch. Das ist niemals in guter Bildqualität, das kann nicht sein.

    Ein Codec mit guter „unkomprimierter“ Bildqualität hat immer eine Bitrate von 130 bis 165 MBit/s. Dazu kommt noch der unkomprimierte PCM-Ton mit 1536 kBit/s (48kHz). Jetzt kannst du dir ungefähr ausrechnen, wieviele MByte Speicherplatz deine Videoclips haben sollten, um eine gute Bildqualität zu erreichen. Ansonsten wird das nichts mit einer guten Bildqualität. Ohne eine gute Capture-Qualität, bringt dir eine Schärfung des Bildes gar nichts, verstärkt meistens nur das Bildrauschen.

    Bevor man deinterlaced, muss zuerst einmal der Stream in guter SD-Bildqualität vorliegen. All deine Software, kannst du verwenden. Aber zuvor immer einen Master-Clip in unkomprimiert erstellen und auf eine andere HDD oder SSD exportieren. Von diesem Master-Clip aus, kann man dann deinterlacen, das Bildformat richtig einstellen und zu H.264 mit AAC wandeln.

    Mit QTGMC hast du ja schon den besten Deinterlacer. Es könnte sein, dass QTGMC ein Problem mit dem UTVideo-Codec hat. 4:3 ist normalerweise ein Flag. Das müsste beim Export auf 4:3 eingestellt werden. Ansonsten, sollten alle Stricke reißen, auf 768 x 576 Pixel (4:3) manuell einstellen. Es wird immer in 720 x 576i (5:4) gecaptured.

    Ich empfehle immer den BM 4:2:2 8bit-Codec (165 Mbite/s). Mehr Bildqualität kannst du da nicht mehr herausholen, das ist bei VHS oder Video8mm systembedingt. Auf YT gibt es Leute, die eine HD 720p-Aufnahme zu einer schlechten VHS-Qualität umwandeln. Diesen Leuten kann man nichts beibringen. Die Bildqualität die auf den Bändern gespeichert ist, ist klar ausschlaggebend. Was du machst, ist selbstverständlich deine eigene Sache, ich kann dir nur Tipps geben.

    Ja, wenn man häufig Streams auf einer HDD aufzeichnet und wieder löscht, dann kann dadurch die HDD langsamer werden, und es können auch Fehler beim abspielen der Videos auftreten, da sich die Dateien auf der ganzen HDD lose verteilen.

    Eine Videodatei sollte immer zusammen gehören und sich nicht vereinzelt auf der HDD befinden. Eine HDD sollte deswegen von Zeit zu Zeit defragmentiert werden.

    Bei einer SSD sollte man immer „TRIM“ aktivieren, dadurch hält die SSD länger. Auch hier die TRIM-Funktion von Zeit zu Zeit ausführen.
    Schlecht bei SSDs ist, wenn man andauernd Daten löscht, das kann trotz TRIM die Lebensdauer einer SSD stark verkürzen.

    Für SSDs wäre es am besten, wenn Daten auf dem Datenträger belassen würden. Klar, nicht gewollte kleinere Files, würde ich in diesem Fall auch löschen. Aber das muss jeder für sich selbst entscheiden.

    Aktivieren oder Deaktivieren von TRIM auf SSD:
    https://de.minitool.com/datentraegerve…aktivieren.html

    Videos direkt auf einer HDD in einem DVD-Rekorder zu capturen, ist qualitätsmäßig das Schlechteste, was man machen kann.

    Gruß von Jo

    Dann ja. Dass Bild und Ton nicht synchron sind, liegt meiner Meinung nach zu 99% immer an einem falschen Treiber. Das hatte ich auch einmal. Vermutlich liegt es an verschiedenen Softwarekonfigurationen. Z. Bsp. auch an nicht korrekt arbeitenden TBCs, die das Bild nicht synchron mit dem Ton ausgeben. Einen 30 Jahre alten abgenudelten Rekorder, sollte man daher immer erst generalüberholen lassen.

    Wichtig ist, dass ein TBC nur innerhalb einer richtigen Zeitbasis (ms) des Laufwerks arbeitet. Ist z. Bsp. der Kassettenschacht leicht verbogen, dann hat das Laufwerk eine ganz andere Zeitbasis, als wie mit einer korrekten Ausrichtung. Dann arbeitet ein TBC auch nicht mehr genau. Das kann sogar bis zu einem Totalausfall eines TBCs führen. Ich weiß, es ist kompliziert das zu verstehen, ist aber so.

    In Media Express, bei Preferences das Häkchen „Stop capture if dropped frames are detected“ entfernen. Und auch bei „Stop playback if dropped frames are detected“. Dann sollte man ohne Probleme, das ganze Video capturen können.

    Ich vermute, dass dein Projekt automatisch auf 1080p50 eingestellt ist, weil der Splitter SD-PAL auf HD 1080p hochskaliert. Eine Hochskalierung sollte man bei SD-Material immer vermeiden. SD sollte immer SD bleiben. Günstige VHS-Rekoreder liegen bei der VHS-Auflösung bei ca. 2,5-3,0 MHz. Das ist Systembedingt, mehr geht nicht, auch nicht über eine HDMI-Schnittstelle. Eine Ausnahme, wären die Profi-VHS-Schnittrekorder mit vollen 3,5 MHz.

    Mein Tipp:
    VHS-Signale immer über FBAS, oder besser über ein S-VHS-Interface capturen. Wenn man das begriffen hat, dann kann man auch PAL 720 x 576i bei Media Express auswählen. Man sollte endlich mit dem Mist aufhören, SD-Material bei Eigenaufnahmen über einen HDMI-Splitter zu capturen, das qualitativ nichts bringt.

    Nenne mir bitte einmal die genaue Bezeichnung von deinem ASRock-Mainboard, dann kann ich dir einen passenden RAM vorschlagen. Ich habe mir einmal die Spezifikationen von ASRock-Mainboards um die 100 Euro angesehen. Diese sind eher schlecht als gut. Die supportierten Bandbreiten liegen hier nur um die 2400 - 2666 MHz. 3666 MHz sollten es schon sein, dadurch öffnen sich die Programme mindestens doppelt so schnell. Die Verzögerungszeiten stehen an zweiter Stelle, wichtig ist immer die Bandbreite des RAMs. Hast du einmal im BIOS, für schnellere RAMs, das XMP-Profil aktiviert?

    Gruß Jo

    Ja, das macht schon Sinn. Aber angenommen, man möchte zu den originalen Audiospuren, sei es nur in mono, stereo, 3.1 oder sogar in 5.1, die schon vorhanden sind, mit zwei zusätzlichen Tonspuren (l und r), z. Bsp. als Musikunterlegung hinzufügen, dann sind doch die beiden Kanäle, links und rechts, mit voller Bitrate belegt.

    In dem Fall würde eine unkomprimierte CD-Aufnahme mit 1536 kbps bei 48 kHz (DVD), oder 1411 kbps mit 44.1 kHz (CD) die trotzdem auf 64 oder 160 KBit/s komprimiert wird, keinen Sinn machen, denn ich will ja die Musik in einer deutlich höheren Qualität hören.

    Oder findet dann keine Datenreduktion statt? Dann müssten doch bei linkem und rechtem Kanal die vollen 160 kbps bei zugemischtem Musiksignal zur Verfügung stehen, oder nicht? Das würde mich einmal interessieren.

    Danke LigH für die interessanten Infos. Ich habe mich mit "Joint Stereo" noch nicht so intensiv beschäftigt. Ich bin nicht gegen "Joint Stereo", finde die Idee mit der bevorzugten Bitrate für den Center-Kanal auch für gut, aber eine konstante und volle Bitrate für alle Kanäle, ist mir persönlich dann doch lieber.

    So viele MB, wie man da einspart, sind es vermutlich auch nicht. Es sei denn, es handelt sich um ein Musikkonzert von 3 Stunden Länge. Ob jemand "Joint Stereo" verwendet oder nicht, das muss jeder selber wissen.

    Ich bin noch den Klang der analogen unkomprimierten Vinyl-Platten gewohnt. Den Frequenzgang von 10 - 80.000 Hz, kann keine digitale Aufnahme toppen. Um diese Qualität zu erhalten, braucht man eine digitale Aufnahme direkt von den Plattenstudios. Mit einem Camcorder für 1000 Euro, ist da nichts zu machen.

    Eine Zielbitrate mit 160 kbps, ist schlechter als DVD-Qualität mit 192 kbps. Geschweige denn bei 5.1 mit je 448 kbps (Standard). 128 kbps präsentieren viele Qualitätsleute bei YouTube. Das sollten wir aber nicht nachmachen.

    Hier ein interessanter Thread von 2003, bei dem es auch kritische Stimmen über „Joint Stereo“ gibt:
    http://forum.audiograbber.de/index.php/topic,1227.0.html

    Vielleicht kennen einige Kollegen sogar diese Diskussion.

    Danke für die Infos zu FFMpeg AAC, FFMpeg Opus und FFMpeg Vorbis. Opus wird auch von Google verwendet.

    Ja, "Joint Stereo" macht ab 3.1 Raumklang Sinn, da es den Centerton mehr Bitrate zuweist, als den linken und rechten Tonkanal. Die beiden Tonkanäle enthalten weniger Toninformationen. Das sehe ich auch so. Aber das soll nur bis 256 KB/s Sinn machen.

    Nur bei reinem Stereo-Ton, würde ich "Joint Stereo" nicht aktivieren.

    Zitat von Benjamin Lebsanft von 2003:
    Joint Stereo lässt sich in mid/side stereo und intensity stereo unterteilen.
    Mid/side Stereo kodiert, statt den normalen Links / Rechts Kanälen, Mitte (Rechts + Links) und Seitenkanäle (Links-Rechts + Rechts-Links)! Dabei werden mehr Bits für den "Mittenkanal" zur Verfügung gestellt.

    An Stellen des Liedes, wo sich die Seitenkanäle sehr ähneln, befinden sich wenig Informationen in den Seitenkanälen, das wiederum bedeutet, dass mehr Bits für den Mittenkanal zur Verfügung stehen. Die Folge daraus ist, dass man nun eine höhere Qualität hat, als wenn man die unwichtigen Informationen mit viel mehr Bits kodiert hätte.

    Zitat Ende.

    Es soll aber zu geringfügigen Phasendifferenzen, die eigentlich unhörbar sind, kommen.

    Entwicklerforum von Lame:
    https://hydrogenaud.io/

    Zitat von einem anderen Mitglied:
    Was mir aber viel mehr ins Auge sticht, ist dass Du eine konstante Bitrate verwendest. Du kannst mit einer Variablen Bitrate eine viel höhere Qualität erzielen, da Du den Encoder die Möglichkeit gibts, anspruchsvolle Passagen in einer höheren Bitrate zu kodieren. Ausserdem spart es Speicherplatz, da einfache Passagen (z.B. Stille) mit einer kleineren Bitrate kodiert werden.

    Dazu habe ich eine andere Meinung. Die einfachen Passagen, könnten aber auch wegen einer zu niedrigen Bitrate rauschen. Das Thema Speicherplatz, müsste heutzutage abgeschlossen sein. Außerdem ist die Bitrate auch begrenzt.

    Wenn man die Bitrate auf höchstens 192 KBit/s einstellt, dann wird doch nicht mit z. Bsp. 256 KBit/s codiert. Die höchste Bitrate, liegt dann immer noch bei 192 KBit/s. Die Seitenkanäle können auf z. Bsp. 94 KBit/s fallen, das kann sein.

    Bei nur Stereo:
    Dolby Digital (AC3) mit 192 KBit/s, 48 kHz 16 Bit konstant. Kann auch in AAC sein.

    Das ist für mich die beste Lösung von den Tonformaten für DVDs. Bei Blu-ray wären es 448 KBit/s (5.1). Dann hat man einen sauberen Audio-Stream. MP3 ist veraltet und wird kaum noch genutzt, außer vom harten Kern der MP3-Generation.

    Es muss jeder selber wissen, ob er noch MP3 verwendet.