Ich habe vor einigen Jahren Schallplatten und Kassetten restauriert. Sehr gute Erfahrungen hatte ich seinerzeit mit den Plug-Ins von "Waves" gemacht. Auf den Kassetten war häufig das sog. Netzbrummen (50 /60 Hz) zu hören.
Waves hatte da ein Tool, welches dieses "Brummen" recht gut rausgefiltert hat. Ob es ganz ohne Klangverlust funktioniert wage ich zu bezweifeln.
Im folgenden Interview mit Andreas Abb erklärt Colorist Blake Jones wie der Film 2001: Odyssee im Weltraum von ihm selbst "colouriert" wurde. Ich habe mir den Film daraufhin nochmals angeschaut und war doch recht erstaunt, wievel von der damaligen Vision heute bereits schon Realität ist.
Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Ich finde das Thema rund um Filmrestauration auch ziemlich spannend. Immerhon wird dadurch (Film)-Geschichte einem noch näher gebracht.
Danke für die Antworten. Man könnte ja festhalten, die Filme wurden damals besser aufgenommen, als diese im Kino also auch erst recht im privaten gebrauch, abgespielt werden konnten.
So sieht es aus.
Bei Audio Produktionen ist es ähnlich. Selbst in den 50-60 Jahren wurde für Aufnahmen bereits Hig-End Equipment verwendet.
Um Unterschied zu Video konnte man sich aber so um die 90er Jahre schon High-End Anlagen fürs Wohnzimmer zulegen und kam in den Genuss hochwertiger Audio-Aufnahmen.
Wobei der limitierende Faktor (bis heute) die Raumakustik ist.
Mich interessiert ernsthaft wie es einige Filmstudios (vinegarsyndrome.com) die sich auf Restauration von alten Filmen spezialisiert haben, es schaffen, Filme aus den 70er und 80er so gut zu restaurieren, dass man meinen könnte, der Film sei aus den 2000er Jahre entstanden, wie funktioniert das genau?
Wenn ich mir einer meiner Lieblingszombiefilme Dawn oft he Dead von 1978 anschaue, und ich die originale VHS dazu hatte und was heute daraus gemacht wurde, ist ja sehr beeindruckend. Haben die Studios den originalen 35mm Film vor sich und oder wie kann man sich das vorstellen? Und welche Software nutzen die für das ganze restaurieren?
Oder den Film Scanner Cop, auch nochmal wesentlich verbessert in der Qualität sowie die Bud Spencere Filme auf den 70er. Wie funktioniert das genau?
Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Du musst es anderstherum denken. Das Original war von vorherein gut. Lediglich die darauf folgenden Kopien und deren stetiger Verschleiß sind die Ursache für die mangelnde Qualität
Hab mal den Suzie testclip und durch VSGAN mit dem BSRGAN model laufen lassen und so auf 70x576 gebracht.
Python
import vapoursynth as vs
core = vs.get_core()
# Loading VSGAN
from vsgan import VSGAN
# Loading C:\Users\Selur\Desktop\suzie_qcif.y4m using RawsSource
clip = core.raws.Source("C:/Users/Selur/Desktop/suzie_qcif.y4m")
# making sure input color matrix is set as 470bg
clip = core.resize.Point(clip, matrix_in_s="470bg",range_s="full")
# making sure frame rate is set to 29.970
clip = core.std.AssumeFPS(clip=clip, fpsnum=30000, fpsden=1001)
# Setting color range to PC (full) range.
clip = core.std.SetFrameProp(clip=clip, prop="_ColorRange", intval=0)
# adjusting color space from YUV420P8 to RGB24 for vsLevels
clip = core.resize.Bicubic(clip=clip, format=vs.RGB24, matrix_in_s="470bg", range_s="full")
# creating a VSGAN instance
vsgan = VSGAN("cuda")
model = "J:/VapourSynth64Portable_VSGAN/vsgan_models/BSRGAN.pth" # setting model
vsgan.load_model(model) # loading model
clip = vsgan.run(clip=clip) # using vsgan
# adjusting output color from: RGB24 to YUV420P10 for x265Model (i420@8)
clip = core.resize.Bicubic(clip=clip, format=vs.YUV420P10, matrix_s="470bg", range_s="full")
clip.set_output()
Da es sich bei BSRGAN um einen Bildupscaler und nicht um einen Videoupscaler handelt sieht man im Video wie erwartet ein Flimmern aber finde es schon sehr beeindruckend. (ja ist 'glatt' und das Flimmern kriegt man vermutlich auch irgendwie etwas reduziert.)
ohne ordentlich GPU man nicht viel Spaß damit hat.
ich mir vorstellen kann, dass man damit gut Spieletexturen von alten Spielen aufmöbeln kann.
das ganze ML-Zeug definitiv Potential hat
der große Nachteil an der ganzen Sache ist, dass man um den Effekt eines dieser ML Modelle ändern will, ein neues Model anlernen muss. Es gibt nicht wie bei normalen Algorithmen und Funktionen Parameter an denen man drehen kann.
So, denke damit habe ich erst mal für die nächste Zeit genug von ML-Upscaling.
Danke für die Infos.......das scheint tatsächlich nicht so einfach zu sein. Ein Beispiel:
Eine leicht verwackelte Aufnahme mit einem Farbstich kann man recht gut (nach)bearbeiten und somit "zurechtbiegen". Das weiß man allerdings nur wenn das Material De-Interlaced ist.
De-Interlacing (mit VirtualDub) bläst aber die Datei auf.... wenn ich es als AVI wieder unkompromiert exportiere. Vermutlich handelt es sich um einen Bedienfehler meinerseits.
Mein Wunsch ist zunächst:
- Rohmaterial (AVI) komplett zu de-interlacen.
- Dieses Material wieder exportieren (AVI) und mit einem anderen Schnittprogramm weiter bearbeiten.
Welches wäre in diesem Fall die einfachste Methode dies zu tun......?
Sorry wenn ich nochmal nachfrage.......steige da noch nicht so ganz durch:
Meine Videos wollte ich nach dem de-interlacen noch weiter bearbeiten (Farbanpasssung, Bildstabilisierung, entrauschen etc.) Also anschließend in VDL importieren.
Ist es da nicht besser, das Videomaterial möglichst lange im unkomprimierten AVI-Format zu belassen......? Oder kann man nach dem de-interlacing bedenkenlos als H.264 weiterarbeiten.......?
Es ist also noch einiges rauszuholen aus dem Rohmaterial. Gute Ergebnisse hatte ich auch erzielt, das Material mit VirtualDub zu deinterlace und anschließend zu enhancen. allerdings habe ich es nicht gerafft, das Material zu exportieren/speichern ohne das er mir die Datei aufbläst (10 mal so groß) !
Habe auch noch mal einen Schnippsel hochgeladen der ausschließelich mit Topaz bearbeitet wurde:
Ich kann jedoch (noch) nicht mit AviSynth umgehen. Könntest du evtl. den bearbeiteten Videoschnippsel per "we transfer" hochladen...... ? Damit ich einen direkten Vergleich habe......
mit WinDV direkt übertragen. Schneiden war nicht mal notwendig, da das komplette Band in einzelne Szenen geteilt wurde. Zufällig war genau die Szene von oben dabei. Also tatsächlich nun "roh" und völlig unbearbeitet.
Es liegt nur schon digital auf Band vor. Also wäre es unsinnig, es analog über ein Videokabel einzuspielen und neu zu digitalisieren, anstatt es einfach digital per FireWire nur zu kopieren.
Genauso mache ich das ja auch direkt vom Camcorder über iLink-Kabel in die Fire-Wire Karte auf den PC.
Wenn ich mich recht erinnere, bevorzugen Programme, die AVI-Dateien verarbeiten, den DV-Typ 2 mit getrennt gespeicherter Tonspur.
Verstehe ich es dann richtig.....? Mit WinDV über iLink rein in den Rechner........ mit VirtualDub2 öffnen.....Schnippsel ausschneiden und als AVI wieder speichern......?
Ja. VDL nimmt ja auch korrekt auf, allerdings weiß ich nicht welche Codecs da in der Übertragungskette beim Export noch dazwischen hängen, Tatsächlich meine ich gesehen zu haben, dass es dort ein Feld gab wo man wählen konnte zwischen "progressive, Bottom first und Top first".
Ziel ist ja, das Rohmaterial unverfälscht auszugeben.
Ah ok.....WinDV habe ich da....und es auch schon genutzt. Dachte nur es gibt inzwischen etwas aktuelleres. Dann nehme ich das Band mal komplett auf und schneide einen Schnippsel mit Virtual Dub da raus. Allerdings erst morgen abend, da ich dann erst wieder zu Hause bin.
Ganz einfach; ich mache einen A/B Vergleich und sehe, dass mir B deutlich besser gefällt. Es muss auch nicht unbedingt up-gescaled sein. In erster Linie Rauschreduzierung insbesondere bei dunklen Flächen.
Man kann aus Schei**e kein Gold machen und aus SD kein HD.
Anders ausgedrückt : Was weg (gerechnet) ist ist weg.
Es ist keine "Schei**e"........und ich möchte auch kein Gold daraus machen
Ähnlich einem PKW; Wenn der Lack 10 Jahre nicht behandelt wurde und ich gehe da professionell mit einer Lackaufbereitung ran mit anschließender Keramikversiegelung, sollst mal sehen, was ich da alles noch "raushole". Das ist ein Unterschied wie Tag und Nacht
Vielleicht hatte ich auch vergessen zu erwähnen, dass ich mir diesen ganzen Aufwand ausschließlich für Privataufnahmen mache ! (Fast) alles andere findet man auf YT, Amazon etc.
Tatsächlich wollte ich hochskalieren....... möglichst auf 720
Der Installationsaufwand hält mich noch ein wenig ab davon. Ich versuche heute Abend mal einen kleinen Schnippsel hochzuladen........ um hinterher zu vergleichen. Sollte es eine Qualitätssteigerung bringen, werde ich den Aufwand nicht scheuen und mich weiter in das Thema reinarbeiten. Allmählich beginnt es Spaß zu machen
Ich habe gestern mein Roh-Material jedoch mit VirtualDub2 De-Interlaced (Yadis) und anschließend dann durch Topaz gejagt. Ich muss sagen, dass es mir Freude macht damit zu experimentieren und mir die Ergebnisse allesamt zusagen.
Gehe ich in der Annahme richtig, dass uscaling mit einem Enhancer der letzte Schritt in der Bearbeitungskette sein sollte....? zumal das Material in Mp4 ausgegeben wird.....?