Posts by Skiller

    Interlaced zu bleiben wäre jedenfalls die sichere Variante, gerade wenn man sich nicht so gut damit auskennt. Wenn die Aufnahme nämlich inhaltlich interlaced ist (oder auch nur teilweise), dann würde eine Encodierung, die das nicht berücksichtigt, das Video ziemlich ruinieren.

    Also mein Rat, interlaced (TFF) nehmen.

    da ich das ganze nun von den alten Hi8 Kassetten und nicht von der VHS digitalisieren kann.

    Das ist natürlich viel besser, dann hast du auch nicht den Generationsverlust durch die Kopie auf VHS.


    mit TBC off und DNR on

    Wundert mich, dass es diese Kombination gibt. Normalerweise kann man die DNR doch nur zusammen mit dem TBC verwenden, weil für die DNR das Bild digitalisiert werden muss, was ja der TBC sozusagen als Nebenprodukt bereits tut.


    Hättet ihr eine Empfehlung bzw. was würdet ihr einstellen?

    Das ist halt zum einen Geschmackssache und zum anderen auch die Frage, ob du lieber nachher in Software noch was filtern willst, oder lieber nur in Hardware. Ich persönlich würde an der Sony TRV den TBC und die DNR ausschalten (bzw. mal testen, wie viel der TBC bei den Aufnahmen bringt) und beim Pana DMR-EH auch die DNR komplett ausschalten und lieber gezielt in AviSynth filtern.


    Ansonsten nur eine DNR verwenden, denn

    ISt zwei mal vielleicht zuviel?

    ...ja, das dürfte zu viel des Guten sein, und würde möglicherweise leicht vorhandene Nachzieheffekte der ersten DNR verstärken.


    Dann noch eine Frage zur Kodierung in Lagarith.Wählt ihr dann bei den Codec Einstellungen YUY2?

    Ja, YUY2.

    Aber ehrlich gesagt, ich verwende Lagarith heute eigentlich nur noch im Ausnahmefall, weil es mittlerweile viel schnellere verlustfreie Codecs gibt, die genauso gut komprimieren (eher noch etwas besser). Eine moderne CPU vorrausgesetzt, ist die De- und Encodiergeschwindigkeit von Lagarith im Vergleich zu MagicYUV auf Pferdekutschenniveau. Probier mal MagicYUV aus, das kann ich nur empfehlen (lass dich von den Schlagworten "10 Bit" und "4K" nicht abschrecken, der ist universell für alles geeignet).

    Also ich bin mir ziemlich sicher, dass die Fische schon als fester Bildbestandteil auf dem Band sind. Vermutlich waren die Videoköpfe des damaligen Aufnahmegeräts verschmutzt.

    Eine hundertprozentige Lösung gibts dafür jetzt eigentlich keine mehr. Kannst höchstens mal Depulse (Anleitung) versuchen. Das habe ich vor Jahren auch mal verwendet, um Fische aus Fernsehaufnahmen von analogem Satellitenempfang zu entfernen, und ich meine, es hat gut funktioniert.

    Aber keine Ahnung, was bei Frame 12 passiert ist.^^ Das zumindest ist nicht fest auf dem Band.

    Edit: Aber viele Fische sind es auch nicht. Sei froh, dass dein Video nicht so aussieht.

    Neben den Fischen ist mir noch aufgefallen, dass das letztlich aufgenommene Bild am PC letztlich relativ kontrastarm bzw. mit wenig Sättigung ist. Möglicherweise ein normaler Effekt beim Digitalisieren von VHS.

    Ich glaube das liegt zum überwiegenden Teil auch einfach an der Bildcharakteristik der damals verwendeten Videokamera. So eine Bildcharakteristik ohne starken Kontrast und hoch gesättigte Farben ist man heutzutage gar nicht mehr gewöhnt.


    Zudem fehlt es meiner Meinung nach dem Bild ein wenig an Schärfe.

    Hast du mal getestet, ob dir EDIT ON oder normal besser gefällt?


    Hab jetzt die VHS in meinem alten Player wiedergegeben und dort sind die Fische ebenfalls zu sehen. Also entweder sind bei beiden Playern die Videoköpfe hin, oder (da es bei anderen VHS ja nicht auftrat) es ist tatsächlich ein Problem der VHS selbst.

    Ja, entweder die Magnetisierung der VHS-Kassette ist bereits nur noch sehr schwach (niedriger Pegel), oder das Band wurde damals mit einem völlig verstelltem Laufwerk aufgenommen. Im letzteren Fall kann eigentlich nur das damalige Aufnahmegerät das Band ohne Fische wiedergeben. Oder du hast wie Goldwingfahrer die Auswahl aus dutzenden Zuspielern und findest einen, der es auch kann...

    Eine andere, weniger wahrscheinliche Möglichkeit ist noch, dass die Fische fester Bestandteil vom Bild sind (warum auch immer). Das kann man dadurch feststellen, indem man ein paar Sekunden zwei mal captured und dann genau schaut, ob die Fische beide Male exakt an den gleichen Stellen auftreten, oder ob sie zufällig und jedes mal anders sind. Sind sie jedes Mal exakt gleich, sind sie Bestandteil des aufgenommenen Bildes.

    Sollte ich die Einstellung S-VHS auf "on" lassen auch wenn ich nur normale VHS abspiele?

    Ist für die reine Wiedergabe egal, macht keinen Unterschied. Mit dieser Einstellung hat man im Falle einer eingelegten S-VHS Kassette die Wahl, diese im VHS oder eben S-VHS Modus zu bespielen. Auf die Wiedergabe von VHS oder S-VHS hat es keine Auswirkungen.


    Vielleicht könntet ihr mir einfach sagen, ob ich noch irgendwelche speziellen Einstellungen für die Wiedergabe vornehmen sollte oder nicht.

    Der Schalter ganz links... Auf "EDIT ON" ist *meist* sinnvoll, aber probier aus, was dir besser gefällt.
    Im Edit-Modus werden diverse analoge Schaltkreise übersprungen, die das Bild auf Stand der Technik von 1985 besser machen sollen, aber was sie eigentlich machen, ist das Bild in der horizontalen weicher zu machen (zwecks Rauschunterdrückung), um es anschließend wieder mit künstlichen Kanten zu schärfen. Das kann man mit dem "Picture" Regler genauer einstellen (Soft <-> Sharp). Im Edit-Modus wird quasi das rohe Signal ausgegeben (der Picture-Regler hat somit auch keinerlei Effekt mehr, das ist normal). Ich persönlich benutzte nur Edit.


    Lohnt es sich einen Vergleich zwischen "mit DMR-ES10" und "ohne DMR-ES10" zu machen oder genügt es, sich das fertige Signal des EH575 anzuschauen und wenn dieses wenig bzw. kein Jitter enthält, den ES10 wegzulassen?

    Würde auch sagen ja, kannst du bei Aufnahmen im Guten Zustand, die auch vom NV-FS 88 gut wiedergegeben werden, weglassen. Bei Aufnahmen, die einmal oder gar mehrmals kopiert wurden und vielleicht sogar in LP (Longplay) sind, würde ich den ES10 auf jeden Fall mal testen.


    Zudem habe ich hier noch einen langen Beitrag über DotCrawls gelesen, wo man sich anscheinend zwischen Schärfe oder DotCrawls entscheiden muss.

    Ja, aber das betrifft zum einem VHS eigentlich nicht, weil das sowieso nicht so scharf ist, als das diese Einstellung da einen Unterschied machen würde, und zum anderen betrifft das grundsätzlich nur Composite Video (FBAS). S-Video ist nicht betroffen!


    Dies lege ich in den Einstellungen des EH575 fest, richtig?

    Ja, nennt sich in der merkwürdigen deutschen Übersetzung "Aufnahmeschärfe". Aber wie gesagt, betrifft nur Composite.


    Das Softwareupscaling bringt zwar keine Qualitätsverbesserung, aber BluRay Ausgabe funktioniert nur in 1080 oder 720 und bei 720 auch nur progressiv und nicht interlaced.

    Blu-ray erlaubt auch 720x576 interlaced. Ein Upscaling oder Deinterlacing ist also nicht nötig.


    Sollte man beim S-Video Kabel noch etwas beachten?

    Es sollte geschirmt sein, also keine dünne Strippe. Etwa einen halben Zentimeter dick oder dicker sollte es sein, sonst hat es wahrscheinlich nur eine Gesamtschirmung (oder gar keine), anstatt jede Ader einzeln. Ob vergoldete Kontakte oder nicht, macht keinen Unterschied. Es sollte nicht unnötig lang sein, ja.

    EINVERSTANDEN? :)

    JA! :)


    Und SD ist wirklich IMMER ITU-PAR??

    "Immer" ist vielleicht etwas zu gewagt, aber mit sehr, sehr hoher Wahrscheinlichkeit ja (meiner Meinung und Erfahrung nach).


    Eine Samsung dagegen hat den vollen Bereich ausgezeichnet - in 4:3 - hat die jetzt ITU-PAR oder Generic?

    Höchstwahrscheinlich ITU. DV-Camcorder füllen überwiegend alle 720 Pixel (nach dem Motto "warum nicht?!"), und folgen ITU.


    Aha...also von Viva Austria in 704. Und diese 704 wurden vom Receiver auch 1:1 (mit Rand) "ins Bild gesetzt"!

    Aber wieso Receiver? Das ist ein originaler DVB-S-Mitschnitt. Also genau der MPEG2-Stream, der per DVB-S gesendet wurde, und von mir am PC auf die Festplatte gestreamt wurde mit der Skystar 2. Ich habe auch nichts neu encodiert (wäre ja sinnlos), nur ausgeschnitten mit Cuttermaran.


    Hoffentlich WAR DAS AUCH WIRKLICH ITU-PAR!

    Das Video ist eine Produktion aus den 90ern, in Letterbox, also gehe ich stark davon aus. Aber definitiv wissen kann man es nie, klar. :D


    Woher die 544 kommen? Stammen die von den 720 oder 704 ab?

    Weder noch.
    Der Gedanke bei 544 ist, es soll 3/4 von Full-D1, also 720, entsprechen. 3/4 von 720 sind aber 540, nicht 544. Wegen der Teilbarkeit durch 16 für MPEG2 braucht man also noch 4 weitere nutzlose Spalten. Die werden an das auf 3/4 verkleinerte Bild irgendwie drangeklatscht und dann hat man 544x576, wovon 540x576 den 720x576 entsprechen.

    Wie ich darauf komme? :D Ich habe ein paar Aufnahmen doppelt, also von Viva Deutschland in 544x576 und einmal von Viva Austria in 720x576.

    Beispiel:

    http://picload.org/image/clcrira/544_576.png http://picload.org/image/clcrirp/720_576.png

    Hier müsste man
    - 1 Pixel links croppen
    - 3 Pixel rechts croppen
    - dann die restlichen 540 auf 720 skalieren
    um 720x576 wiederherzustellen.

    Das bedeutet auch, dass 544x576 ein Sonderfall ist, und ohne das Croppen der 4 Spalten das breiteste Format überhaupt ist (und nie komplett mit Bild gefüllt sein kann).


    Nee...was du da siehst, ist die letzte Zeile der Austastlücke

    Und eben da sitzen die WSS-Bits/Striche.^^
    Die Angabe, dass sich die WSS-Bits in Zeile 23 befinden, ist korrekt, aber das bezieht sich nicht auf einen Frame, sondern auf ein Field! Das analoge Signal besteht ja nur aus einer Aneinanderreihung von Fields.

    [Blocked Image: http://picload.org/image/clcriog/vbi_625.gif]

    Field "1":


    1 bis 23,5 Austast


    23,5 bis 311 Bild


    311 bis 314 Austast
    Field "2":


    314 bis 336 Austast


    336 bis 623,5 Bild


    623,5 bis 1 Austast

    Davon in einem digitalen TFF Video (nach Norm):
    Zeilen 23 bis einschließlich 311 aus Field "1" und 336 bis einschließlich 624 aus Field "2".


    Und ProjectX ist in der Lage, die WSS-Bits in der ersten Hälfte der digitalen Zeile 1 auszulesen.
    WSS_ProjectX.PNG

    Also die Tagesschau in 720p-HD über WDR3 HD solltest du empfangen können!

    Ja, das geht! Die Senden wirklich HD via DVB-S-Modulation. Daran, dass die Tagesschau auch in den dritten Programmen ausgestrahlt wird, hatte ich gar nicht gedacht. :D


    - SDE (laut ReStream): "540"...was das soll? Womöglich für PanScan? Das müsste dann aber auf Generic-4:3 (nicht 16:9), also DAR=4:3 entzerrt werden...

    Beim Tagesschau-Stream zeigt ReStream die 540 (PanScan) an, bei VDub steht aber ebenfalls 720x576 - also Generic (wie oben).
    Da muss "540" also auch nochmal ein "Spezialfall" sein...

    Da bist du auf eine etwas blöde Eigenart von Restream reingefallen.^^ Wenn der erste Haken oben rechts im Sequence_Display_Extension-Bereich nicht gesetzt ist, ist im Stream gar keine SDE vorhanden. Restream füllt in seinem GUI aber jetzt einfach trotzdem das Feld für die Breite immer mit 540. Schon wenn du Restream startest, ohne dass ein Stream geladen ist, steht hier 540.

    Bei DVDs mit erlaubtem PanScan muss die SDE sogar zwinged vorhanden sein und hat dann 540 (jedenfalls habe ich noch nie einen anderen Wert gesehen) und ein DAR-Flag von 4:3. Ich habe aber schon mal Tests mit DVD-Playern gemacht, was per FBAS passiert, wenn man hier einfach 528 reinschreibt (also ITU) – gar nichts ändert sich. Auch ganz ohne SDE, obwohl nicht standardgemäß bei PanScan, spielen es alle getesteten Player genauso ab. Die Info in den IFOs scheint schon zu genügen.


    (Warum da 3 (!) identische Stereo-Spuren im Stream sind (1x AC3 448kBit/s, 1x MP2 256kBit/s, 1x MP2 192kBit/s)

    Die AC3 ist für Mehrkanal und ist bei Stereo-Sendungen auch nur in Stereo, die MP2 256 ist die normale Tonspur und die 192er MP2 ist für Blinde (da werden manchmal zusätzliche Informationen zum Verständnis gesprochen, die man sonst nur sieht).


    War das wirklich VIVA von DVB-S? Sieht mir nämlich eher nach Analog-SAT aus!

    Ja, ist von VIVA Austria via DVB-S von Ende 2008. Im Gegensatz zum deutschen VIVA sendeten die schon immer in 704x576 und etwas später dann in 720x576, während es beim deutschen VIVA bis vor knapp vier Jahren immer nur 544x576 gab (ist jetzt auch 720).

    Die Striche oben links ist die WSS Zeile. Mit ProjectX kann man die sogar jetzt noch auslesen, aber da steht nichts drin, was wir nicht ohnehin schon wüssten. Die WSS-Zeile wurde und wird selbst heute noch bei allen Viacom-Sendern via DVB-S mitgesendet, obwohl sie bei einer DVB-Übertragung eigentlich nichts bewirkt.


    Interessant ist, dass VirtualDub (MPEG2-Plugin von fccHandler) wohl auch den SDE-Wert ausließt:

    Das wusste ich gar nicht, danke für den Hinweis.


    Gesendet wird bei RTL-Nitro (laut Stream-Daten) auf jeden Fall "generic" (VDub und MI sagen PAR=1,066..., DAR=4:3 (später 16:9), 720x576). Allerdings entspricht der Bildinhalt der 4:3-Sendung ziemlich exakt 702 Pixeln breite.

    Es kratzt die Sender schlichtweg nicht. Es wird einfach wild ITU und Generic gemischt gesendet und in keiner Weise unterschieden.


    Außerdem habe ich den *Eindruck*, dass Generic-PAR gerne bei 16:9 angewendet wird, und ITU-PAR gerne bei 4:3? Obwohl das ja gar nichts miteinander zu tun hat?

    Ja. Aber das hat, wie ich schon mal schrieb, wahrscheinlich einfach nur damit zu tun, ob das Video mit echtem nativem SD-Equipment gedreht und geschnitten wurde, oder ob es einen Downscale von HD gab, der in der professionellen Welt wohl immer generisch ist.

    Eine 4:3-Sendung ist natürlich immer in SD produziert. Bei 16:9 ist es heute zumeist immer HD und der SD-Ableger davon einfach ein (generischer) Downscale.


    Ich gehe also bis jetzt davon aus, dass ich allen DVB-S/-C-Mitschnitten, egal ob auf DVD-Recorder oder VHS (720->Analog 53,333µS->720) eine Generic-PAR "andichten" muss, und allem vom alten Analog-TV (Sat, Kabel, Antenne) eine ITU-PAR... ???

    Nein, ich glaube, dass wenn etwas per DVB als ITU oder Generic ausgestrahlt wird, dass es dann analog genauso ist, auch wenn hier die Randbereiche möglicherweise schwarz geworden sind (ähnlich wie manche DVD-Player von den 720 Pixeln nur 702 wirklich umwandeln).


    Du meinst den selben SD-Downscale der Sendeanstalt (wie auch immer die den selbst herstellt), egal auf welchem Weg empfangen...

    Ja.


    Praktisch JEDER Fernseher seit Mitte der 90er, der eine 16:9-Umschaltung hatte, hat darauf problemlos reagiert! Ohne Scart-Schaltsignal, nur per FBAS-Cinch oder S-Video! Und selbst bei FBAS->VHS-Aufnahme->FBAS->TV hatte der TV korrekt auf 16:9 umgeschaltet!

    Ja, die WSS-Zeile ist schon was feines. Und im Gegensatz zum Schaltsignal per Scart, das nur zwei Zustände kennt (4:3 oder 16:9), kann die WSS-Zeile auch verschiedene Letterbox-Größen signalisieren, sodass ein 16:9 Fernseher bei einem Letterbox-Bild automatisch aufzoomen kann. Sogar zwischen 16:9 Letterbox und dem bei den Briten häufig vorkommenden Zwischenformat 14:9 Letterbox kann unterschieden werden.

    Okay...weißt du, ob die SDE "im m2v-Stream selbst" oder im Container (MPG, VOB) drinsteckt?

    Die steckt im m2v-Stream selbst.


    Wenn's geht das Intro und die ersten Sekunden von Tagesschau oder "heute" - und wenns auch noch geht: 1x SD-MPEG2 und 1x HD-H.264

    Einen DVB-S2 Tuner hat meine alte Skystar2 leider nicht.

    Hier mal das Intro und ein paar folgende Sekunden der heutigen Tagesschau, aufgenommen via DVB-S von "Das Erste" (11838 MHz). Ist noch alles drin, also auch die drei Tonspuren. Hab mal gar nichts dran gemacht.
    http://www.file-upload.net/download-10004…_DVB-S.mpg.html


    Und wo ich schon am Hochladen bin...hier mal eine kurze m2v in 720x576 mit selbst gesetzter SDE-Breite von 704. Ist ein Ausschnitt aus einer alten DVB-S Aufnahme.
    http://www.file-upload.net/download-10004622/SDE_704.m2v.html

    Und jetzt halte dich fest, beim Testen habe ich gerade herausgefunden, dass neuere VLC-Versionen auch nur noch blind auf 4:3 Skalieren. :zunge: Mit der alten VLC-Version, die ich hier noch habe (1.0.5), wird die SDE beachtet. Ich könnt mich totlachen. :ani_lol:


    Also die Sender dürften ja nicht nur EIN "Rahmenformat" haben


    Doch, haben sie, weil es einfacher und billiger ist, es so zu machen. Dann schau dir mal das hier an. Auch eben gerade aufgenommen.
    http://www.file-upload.net/download-10004…cklung.m2v.html

    Es wird intern erstmal alles auf (hier bei RTLNITRO) 1080i aufgeblasen (bei 4:3 mit Pillarbox) und für die SD-Ausstrahlung wird zum Schluss, bei einer 4:3 Sendung, die Pillarbox einfach wieder gecroppt, sodass es nach dem Skalieren wieder normales 4:3 SD ist. Sobald der Wechsel zu 16:9 geschieht, wird die Pillarbox nicht mehr gecroppt. Weil das alles immer etwas zu früh passiert, kann man das bei Formatwechseln im SD-Programm kurz sehen. Es ändert sich nicht nur die DAR-Kennung im Stream (so wie das schon immer war), sondern auch das Bild im Stream selber ist kurz mit Pillarbox zu sehen, und beim umgekehrten Formatwechsel nach der Werbung kurz gestreckt, weil etwas zu früh gecroppt wird.


    Für die SD-Verbreitung wird auf DVB-S/-C auf 720x576 scaliert, aber wohl nach Generic-PAR, da keine schwarzen Balken da sind. Wenn das ganze bei DVB-T aber auf 704x576 scaliert wird, entspräche das aber wieder der (genäherten) ITU-PAR!

    Das würde aber vorraussetzen, dass man für DVB-T separat skaliert. DVB-T wird aber oft einfach aus DVB-S neu encodiert. Genau wie Analog-Kabel oft einfach aus DVB-S umgesetzt wird (Geiz ist geil und so...).
    Ich glaube, man nimmt für alles, was in SD ist, dasselbe Ausgangssignal vom Sender. Für Analog wird der Mist dann noch ein weiteres Mal skaliert, diesmal von 576 auf 432 Zeilen und ist damit dann endgültig hässlich.^^

    Und den direkten SDE-Wert (wenn vorhanden) auslesen geht nur mit ReStream?


    Mir ist kein anderes Programm bekannt, das einem die SDE anzeigt, ja.


    Also der SDE-Tag ist IMMER vorhanden, und nur in den meisten Fällen "einfach" gleich der tatsächlichen Breite gesetzt (ob irrtümlich oder nicht)?

    Nein, die gesamte SDE ist optional und muss nicht unbedingt vorhanden sein. Falls vorhanden, können in der SDE auch noch andere Dinge angegeben werden, z.B. die Farbmatrizen für die Wandlung nach RGB. Das ist noch so eine "halbfertige" und verwirrende Sache. Bei SD wird seit eh und je immer Rec.601 genommen, aber prinzipiell kann man hier auch unter anderem Rec.709 reinschreiben – und bei ein paar DVDs steht hier tatsächlich Rec.709 drin, obwohl das falsch ist (und zum Glück vom Player sowieso ignoriert wird).


    Wenn jetzt "SDE nicht vorhanden" gleichbedeutend ist mit "SDE = tatsächliche Pixelanzahl", dann wäre es ja "korrekt", ihn bei generischer PAR wegzulassen bzw. ebenfalls auf 720 zu setzen.

    Ja.


    Mit welchem Encoder kann man den den Setzen? Und nachher ändern/hinzufügen geht auch mit ReStream?

    Mir ist kein Encoder bekannt (d.h. HCenc, CCE SP2/SP3, Procoder, TMPGEnc neue und alte, QuEnc), der einem die Möglichkeit gibt, einen eigenen Wert in die SDE-Breite zu schreiben. Ich nehme dafür immer ProjectX und mache das direkt nach dem Encoden, wenn das Video sowieso noch als m2v/mpv vorliegt.


    Was macht denn der VLC genau, wenn er ein 704er SDE-Flag erkennt? Beschneidet der, oder ändert der nur die PAR für die Darstellung?

    Er beschneidet nicht, er skaliert einfach anhand des durch die SDE beeinflussten PARs das ganze Bild auf 1.36:1, statt 1.33:1 (ohne SDE). Das stimmt dann, auch wenn der meist überschüssige Randbereich noch dran ist.


    Man müsste mal ein MPEG2-Video erstellen, mit 720x576, das ein Bild 704er Bild enthält, und links und rechts am besten rote Balken hat. Das dann mit korrekter SDE taggen, und dann mal schauen, was verschiedene Software-Player und DVD-Player daraus machen.

    Kann ich erstellen. :)
    Würde mich besonders interessieren, ob die SDE bei Hardware-Playern im Falle einer 1080p/i oder 720p Ausgabe irgendeine Auswirkung hat.


    Ich bleibe dabei, dass die D/A-Wandlung sowie die digitale 576i-Ausgabe immer 1:1 erfolgt (also nach ITU).

    Zustimmung. Nur im Falle einer Hochskalierung bin ich mir nicht sicher, wie sich ein Player bei einer SDE-Breite von 704 verhält, also ob sie irgendetwas bewirkt.

    a) entweder auf 704x576 "Croppen", oder
    b) die vollen 720 "übernehmen", dann aber das SDE-Flag richtig setzen!

    Ebenfalls volle Zustimmung.


    Hat mit "analog" nix zu tun. Wenn die HDMI-Ausgabe auf 576i/p steht, wird auch immer 1:1 durchgereicht.

    Ja, klar. Ich meinte aber explizit den Fall, wenn ein Player hochskaliert. Habe mich mit "sobald keine D/A-Wandlung mehr stattfindet" vielleicht etwas ungeschickt ausgedrückt.^^


    Und NOCH was: Wie sieht es bei DVB-Fernsehen aus?

    Hängt meiner Erfahrung nach vor allem von einem ab: Wurde die Sendung in HD oder SD produziert? Wenn sie in HD produziert wurde, wird sie für den SD-Verbeitungsweg live während der Ausstrahlung vor dem Verlassen des Senders und vor dem Encoding auf SD skaliert. Und diese Skalierung habe ich noch nie ITU-Konform gesehen.
    Ist die Sendung alt und komplett in SD wird sie mittlerweile leider bei der Ausstahlung (wahrscheinlich nicht im Archiv, so hoffe ich doch) erstmal intern beim Sender auf dessen Standard, also 720p oder 1080i, aufgeblasen, damit man nur genau eine Sendeabwicklung laufen lassen muss und wird dann während der Ausstrahlung für den SD-Verbreitungsweg wieder herunterskaliert wie alles andere (ja, unglaublicher Schwachsinn, aber billiger).


    Bei SD-DVB wird ja per DVB-S und DVB-C meistens volle 720x576 gesendet, bei DVB-T hingegen oft mit 704x576!

    Die stammen aber beide mit an Sicherheit grenzender Wahrscheinlichkeit aus der einen SD-Skalierung der ansonsten HD-Sendeabwicklung. Die 704 sind dann einfach von den 720 gecroppt (würde ich jedenfalls wetten).


    Könnte mal jemand z.B. die Tagesschau oder "ZDF-heute" a) per SD-DVB-S/-C b) per (SD-)DVB-T und c) per HD-DVB-S/-C aufnehmen und kurze Schnippsel hier reinstellen?

    Ja, DVB-S kann ich mal mitschneiden.
    Aber ich bin mir ziemlich sicher, dass ich das Ergebnis schon kenne.


    Ich habe noch einige VHS-Mitschnitte von der WM2006, als 16:9-anamorph vom DVB-S-Receiver aufgenommen (und teilweise als Letterbox von Analog-Antenne!).

    Wenn die WM 2006 mit nativen SD-Kameras gedreht wurde, sind die Aufnahmen mit sehr hoher Wahrscheinlichkeit in ITU, selbst wenn die vollen 720 Pixel Bild enthalten (wie bei DV eben). Wenn es einen Mischmasch aus nativem SD und HD-Downscale gab... Dann viel Spaß. :D


    Ich meine damals hätte es teilweise von Kamera zu Kamera Unterschiede gegeben, manchmal waren schwarze Balken links und rechts, manchmal nicht!

    Ja, habe ich früher auch öfter beobachtet, aber das ist seitdem HD bei den Sendern Standard geworden ist auch kaum noch zu sehen.


    Was ein Mist das alles...:nein:

    Das kannst du laut sagen. :ani_lol:

    Ist ja interessant. Wo kann man das Flag (falls vorhanden) auslesen, oder mit welchem Encoder setzen?

    MediaInfo zeigt die Sequence_Display_Extension nicht direkt an. Du kannst folgendes machen:
    In MediaInfo den "Advanced mode" aktivieren und dann das Video reinwerfen.
    Dann suchst du in der sehr langen und unübersichtlichen Liste nach "Pixel aspect ratio".
    Diesen Wert kalkuliert MediaInfo anhand des DAR-Flags (logisch) und, falls vorhanden, der angegeben Breite in der SDE. Bei einem MPEG2 Video in 720x576 mit 704 als eingetragener horizontaler Breite in der SDE steht dann da:

    Quote


    Pixel aspect ratio: 1.091
    Display aspect ratio: 1.364
    Display aspect ratio: 4:3

    Die erste DAR ist auch von MediaInfo selber berechnet (und die korrekte Schlussfolgerung aus dem berechneten PAR), die zweite DAR ist einfach das DAR-Flag.


    Einfacher und direkter geht es aber mit Restream. Damit kann man die SDE direkt sehen und bei elementaren MPEG2-Streams (m2v, mpv) auch verändern bzw. erzeugen. Sieht bei demselben Beispielvideo so aus:

    SDE in Restream.PNG


    Allerdings ist nirgends definiert, ob bei einem DVD-Film Generic-PAR oder ITU drinsteckt!
    Oder gibt es da irgendwo doch ein Flag?

    Naja, eigentlich ist genau dafür die SDE von der MPEG2-Spezifikation angedacht, aber leider kann man sich darauf nicht verlassen. Es *sollte* also bei allen 720x576 MPEG2 videos, die den aktiven Bildausschnitt in 702 oder 704 Pixeln beinhalten, in der SDE dieser Wert drinstehen. Aber ich erzähle dir nichts neues, wenn ich sage, dass das quasi nie vorkommt und die SDE in den allermeisten Fällen gar nicht vorhanden ist oder einfach blind auf 720 gesetzt ist.
    Aber im Endeffekt zählt bei allen A/D und D/A-Wandlungen sowieso nur eins – es macht für dieses Szenario also so oder so keinen Unterschied. Eine korrekt gesetzte SDE wäre aber hilfreich, um bei Wiedergabeketten, wo überhaupt keine D/A-Wandlung stattfindet, das Bild ITU-Konform zu entzerren, weil diese sich ansonsten überwiegend generisch verhalten.


    Ich verstehe sowas nicht...lieblos "hingekotzt"...

    Die überwiegende Mehrheit der heutigen DVD-Produktionen sind lieblos hingekotzt. Zum Beispiel ist man sich in den meisten Fällen auch zu fein, bei Filmen in 16:9 anamorph zwei Subpicture-Streams zu authoren, was aber unbedingt nötig ist, damit die Untertitel auf einem 16:9 Fernseher nicht in die Breite gezogen werden, oder umgekehrt bei Letterbox-Ausgabe vom DVD-Player auf einem 4:3 Fernseher nicht horizontal zusammengequetscht erscheinen.


    1. Eine Slideshow aus 4:3-Fotos soll auf DVD: Welche Auflösung?
    a) Resize auf 704x576, und dann auch als 704x576 encodieren, oder alternativ auf 720x576 "Pillarboxen", Flag: 4:3

    Es spricht nichts gegen Ersteres. Da werden wir uns alle einig sein, denke ich.
    Bei Zweiterem würde ich noch 704 in die SDE schreiben (mit Restream oder ProjectX), in der Hoffnung, dass möglicherweise Player mit HDMI, die auf 1080p-Ausgabe eingestellt sind, die SDE beachten und ihre Skalierung entsprechend anpassen (720x576 zu 1472x1080 plus Pillarbox auf 1920).


    Bei 4:3 wäre es einfacher: Da könnte man, statt auf 704 zu beschneiden und als 960x720 bzw. 1440x1080 zu Pillar-Boxen, die 720 einfach auf 1048x720 bzw. 1570x1080 scalieren.

    Bei den letzten beiden Abmessungen hast du dich glaube ich vertan. ;)


    b) Resize auf 720x576, Flag: 4:3

    Würde ich persönlich nie machen, weil es auf analoger Seite einfach falsch ist.


    Für die Frage 2) sind meine Antworten sinngemäß dieselben.


    Eben das ist das Problem: Wie arbeitet der Signalgenerator in einem DVD-Player? Oder besser: In welchem DVD-Player arbeitet er wie?

    Warum sollte jeder Hersteller das Rad neu erfinden wollen. Für die D/A-Wandlung steht seit den 80er Jahren eine gängige Formel bereit, und es ist nach wie vor die einzige, die existiert (ITU-R BT 601).

    Ich habe schon von etwa einem halben dutzend DVD-Player von diversen Herstellern die Signale aufgenommen, die sie beim Abspielen einer Testbild-DVD ausgeben, und es gab immer nur das eine Ergebnis: Kein Player verhält sich bei der Analogausgabe generisch. Irrsinnigerweise verhält es sich überwiegend genau andersherum, sobald keine D/A-Wandlung mehr stattfindet und vom Player auf eine HD-Auflösung hochskaliert wird und per HDMI ausgegeben wird.

    Ja, das mag sein, aber wir reden nicht von reinen MPEG2 Videos, die auf einem PC abgespielt werden (rein digitale Wiedergabe), sondern von der DVD, die, so kann man wohl annehmen, von der ersten Sekunde an dafür entwickelt wurde, vom Hardware Player in ein analoges Signal ausgegeben zu werden, das sich an bestehende analoge Videostandards hält.

    Und wie bereits gesagt: Die D/A-Wandler im DVD-Player kratzt das ohnehin alles nicht, die kennen nur ITU, weil analoge Timings, die dem generischen PAR entsprächen, gar nicht existieren. Lässt sich leicht nachvollziehen, indem man einfach den FBAS-Ausgang eines DVD-Players mit irgendetwas aufnimmt (TV-Karte, Stick, egal) und unterschiedlich große Videos abspielt. Ein 720x576 MPEG2 Video verhält sich dabei im gecapturten FBAS-Video wie ein 704x576 MPEG2-Quellvideo, nur breiter. Nach MPEG2/Generisch müssten beide im FBAS-Signal ja genau gleich breit sein.
    Zwischen der digitalen und der analogen Welt gibt es nur die ITU.

    Die D/A-Wandler in DVD-Playern sind längst dieselben, die auch in DVB-Empfängern verwendet werden. Warum sonst können so viele Player Videos mit DVB-Auflösungen wie 544x576 abspielen, obwohl das auf DVD nicht erlaubt ist.

    Was denkt/wisst ihr?


    Ich denke genau dasselbe wie du, und ich ärgere mich schon seit Jahren über das heimliche Vorkommen des generischen PARs bei DVDs und im Fernsehen.

    Ich verstehe, dass es aus Sicht der MPEG2-Spezifikation (und aus "rein digitaler Sicht") Sinn macht, aber auf DVD sind dem Ganzen eben die analogen Wurzeln übergeordnet und die sagen ganz klar, dass das generische PAR hier nicht funktioniert. DVD- und MPEG2 Spezifikation sind eben nicht dasselbe.

    Die D/A Wandler im DVD-Player interessiert es nicht, was die MPEG2-Spezifikation bezüglich DAR sagt – die kennen nur eins: Wandlung nach ITU-Standard mit 13,5 Mhz (bzw. meist Vielfachen davon), was im analogen Signal für ein zu breites Bild sorgt, wenn die DVD nach generischem PAR gemastert wurde. Die D/A-Wandler passen sich natürlich nicht daran an, denn das können sie gar nicht!


    Daraus ergeben sich (meiner Meinung nach!) folgende Pixel-Aspects:
    - 4:3-PAL: ~1,094 [768/702]
    - 16:9-PAL: ~1,459 [1024/702]

    ...so wäre das laut ITU-Standard.


    Wobei man hier noch streiten könnte, ob man 575 oder 576 Zeilen nehmen muss, denn bei 576 Zeilen rundet man die analogen halben Zeilen schließlich einfach zu ganzen Zeilen auf. Das könnte falsch sein – oder auch nicht. Darüber, obwohl eigentlich Haarspalterei, habe ich mir auch schon lange den Kopf zerbrochen. :D
    Die einen sagen man muss mit 575 rechnen, die anderen sagen 576...

    Ich benutze, um nicht wahnsinnig zu werden, einfach das MPEG-4 PAR, also 12/11 für 4:3 und 16/11 für 16:9.


    Vielleicht ganz interessant, hier ein Thema dazu aus dem englischen Doom9 Forum:
    http://forum.doom9.org/showthread.php?p=1700321#post1700321
    Kurz: Videos, die mit nativem SD Equipment erstellt wurden, folgen fast immer der ITU Spezifikation, während Material, das von HD herunterskaliert wurde, es fast immer nicht tut. Alles, was heutzutage in 16:9 auf DVD vorliegt und im SD Fernsehen gesendet wird, folgt fast immer dem generischen PAR...


    Per DVD-Player auf dem (Röhren-)Fernseher wird das Bild also theoretisch etwas zu breit dargestellt...

    Definitiv. Und auch bei modernen TVs, wenn sie das Bild nach ITU auf Panelauflösung skalieren.


    In den MPEG2-Streams gibt es jetzt aber nur ein einfaches "Flag", was auskunft darüber gibt, ob der Inhalt 4:3 oder 16:9 ist.

    Es gibt neben dem DAR-Flag bei MPEG2 auch noch die Möglichkeit, in der optionalen Sequence_Display_Extension eine "horizontale Breite" anzugeben. Und auf diese Breite bezieht sich nach MPEG2 Spezifikation das angegebene DAR! Alles was über diese angegebene Breite hinaus geht, z.B. die 16 Pixel bei 704 <-> 720, würde selbst nach MPEG2-Spez. das entzerrte Bild breiter machen.
    Ist die SDE nicht vorhanden, soll laut MPEG2 das gesamte Bild auf die angegebene DAR entzerrt werden, was bei 720x576 natürlich nicht im Einklang mit ITU ist (bei 704x576 dagegen, von winzigen Abweichungen abgesehen, schon)

    Gibt man also in der Sequence_Display_Extension 704 an, und die DAR steht auf 4:3, wird das 720x576 Bild von einigen wenigen Playern (VLC z.B.) tatsächlich korrekt auf 1.36:1 statt 1.33:1 entzerrt (ich war selber erstaunt :zunge:).

    Manchmal findet man DVDs, bei denen die SDE auf 720 steht. Das würde dann quasi so viel heißen wie: "Ich bin ganz klar nach generischem PAR gemastert worden". Aber weil manche MPEG2-Encoder standardmäßig die SDE schreiben, kann man sich auch da nicht wirklich sicher sein, ob das jemand mit Absicht gesetzt hat, oder ob es einfach automatisch geschrieben wurde.


    Welche Norm?

    ITU-R BT 601


    Das ist eine kühne Behauptung. Und die wird sogar unabhängig davon aufgestellt, ob der Fernseher das Videosignal per FBAS, S-Video, YCC-Komponenten oder RGB-Euro-SCART empfangen darf.

    Diese Signale haben alle dasselbe Timing. Da gibt es keinen Unterschied. Bei RGB wird FBAS über Scart mitgeleitet und nutzt dessen Sync-Impulse, weil RGB keine eigenen hat. S-Video ist dasselbe wie FBAS, nur mit getrenntem Luma und Chroma. Komponente auch, das Y-Signal ist ein BAS-Signal, also FBAS ohne Farbe.

    Welchen Downmix muss denn ein DVD-Player für seine Stereo-Ausgabe durchführen? Da gibt es doch bestimmt einen von Dolby vorgegebenen Standard?

    Und wenn es einem nur um das Stereo-Ergebnis geht, das mit einem 2.0 oder 2.1 System wiedergegeben wird, ist DPL dann überhaupt sinnvoll?

    Schön, dass du mal wieder reinschaust, Gubel. :)

    Um die Intensity-Karte garantiert auszuschließen, würde ich erstmal 1 Stunde lang (am Anfang und Ende reicht) den "Gubel'schen Sync-Test" (also Video parallel auf Audio) vom DMR in die Analog-Eingänge der Intensity einspielen (die wir sonst ja NICHT verwenden!).


    Das habe ich mal gemacht.
    Also FBAS vom DVD-Player (per Y-Kabel) in die Analogeingänge der Intensity und mit Media Express in 8 Bit 4:2:2 AVI unkomprimiert capturen. Eine Stunde.

    Ergebnis: Perfekt syncron von der ersten bis zur letzten Sekunde. Hier ein Screenshot vom Ende. Der Anfang sieht genauso aus.

    Intensity-Analog_Synctest.PNG


    Dann könnte man die Signalstrecke Intensity->MediaExpress->AVI-File schonmal komplett ausschließen.

    Haken rein.


    Die anderen beiden Tests kann ich leider mangels funktionierendem Laufwerk im DMR nicht machen. Hab ja damals extra einen mit defektem Laufwerk gekauft. :D

    Verstehe. RGB über Scart geben aber nur DVD-Player, DVB-Receiver und Videospielkonsolen aus. Das was am Scart-Ausgang des NV-FS 200 rauskommt, ist entweder Composite (FBAS) oder S-Video. Mit dem Schalter an der Rückseite des NV-FS 200 kann man zwischen den Beiden wählen.
    Der Scarteingang des DMR muss über das Menü auch entsprechend eingestellt sein, weil es nicht möglich ist, automatisch zu erkennen, ob FBAS oder S-Video über Scart anliegt. Ist die Einstellung falsch, ist das Bild ab dem DMR schwarz-weiß.