ARD: 720p-HD als gemeinsames Produktionsformat gescheitert

  • ..............Folglich müssten "sämtliche HDTV-Beitrags- /Rohmaterial- und/oder
    Sendesignalzulieferungen" mit sofortiger Wirkung im Abtastraster 1080i50
    (von Sendern auch 1080i/25 genannt) erfolgen; lediglich in Produktion
    befindliche Zulieferungen seien davon nicht betroffen.

    1080i50....wird nun 1080i/25 genannt [Blockierte Grafik: http://www.grassvalley-foren.de/wcf/images/smilies/biggrin.png]

    http://www.heise.de/newsticker/mel…rt-1031977.html

    Interlaced wird also doch noch nicht zu Grabe getragen.

    Die Postpro-Jungs vom mdr werden sich freuen, Halbbilder, welch eine Freude für Motiongfx und Afterfx!

    Nachtrag:

    Bis anhin waren doch diese Angaben immer einzuhalten wenn man was anliefern wollte.
    ....Seite 142 und 147 im Handbuch der HD-Produktion
    http://books.google.de/books?id=HwefAArZ…epage&q&f=false

    Datenrettungen Normwandlungen Restaurierungen Digitalisierungen

    Einmal editiert, zuletzt von Goldwingfahrer (1. Juli 2010 um 22:45)

  • [Blockierte Grafik: http://www.clothdiapernation.com/vbforums/images/smilies/th_smiley_emoticons_doh.gif]

    Wieso nur? Wieso???


    Übrigens ist der Heise Artikel ziemlich inkorrekt:
    720p50 (50 Volbilder/Sekunde) hat keine "flüssigere" Bewegungsdarstellung als 1080i50 (50 Halbbilder/Sekunde). Die Zeitliche Auflösung ist in beiden Fällen identisch, nämich exakt 50 "Schnappschüsse" pro Sekunde. Das Problem ist viel mehr, dass die Anzeige-Qualität bei 1080i50 extrem von dem eingesetzten Deinterlacer abhängt, wohingegen bei 720p weniger schief laufen kann. Außerdem ist die Auflösung von 1080i sogar geringer als bei 720p, zumindest in vertikaler Richtung - 540 Zeilen versus 720 Zeilen pro (Halb)Bild. Den einzigen Vorteil der für 1080i spricht sehe ich bei Spielfilmen, die nicht interlaced vorliegen. In dem Fall überträgt 1080i ja quasi 25 Vollbilder pro Sekunde, die dann tatsächlich eine vertikale Auflösung von 1080 Zeilen haben. Bei 720p50 hat man in dem Fall dagegen eine "sinnlose" Bildverdopplung...

    Viel schlimmer finde ich allerdings, das es ARD und ZDF in ihrer "HD" Variante scheinbar nicht schaffen, das Quellmaterial, welches offensichtlich bei vielen Sendungen immer noch hochskaliertes SD Material (interlaced!) ist, gescheit nach 720p50 zu konvertieren. Da sind häufig krasse Interlacing-Artefakte zu sehen (man achte hier nur mal auf Interviews bei der Tagesschau oder heute). Und die sind nach dem Hochskalieren ja auch nich mehr raus zu bekommen. Auch sind die "Klötzchen" in dunklen/flachen Bildbereichen ohne Post-Processing (GradFun2db wirkt da zum Glück wahre Wunder!) kaum zu ertragen. Von adaptiver Quantisierung haben die wohl noch nichts gehört. Wenn man jetzt auf 1080i umstellt ist da kaum Besserung zu erwarten, eher im Gegenteil. Die Bandbreite wird noch knapper...

  • [Blockierte Grafik: http://www.clothdiapernation.com/vbforums/images/smilies/th_smiley_emoticons_doh.gif]
    Den einzigen Vorteil der für 1080i spricht sehe ich bei Spielfilmen, die nicht interlaced vorliegen. In dem Fall überträgt 1080i ja quasi 25 Vollbilder pro Sekunde, die dann tatsächlich eine vertikale Auflösung von 1080 Zeilen haben. Bei 720p50 hat man in dem Fall dagegen eine "sinnlose" Bildverdopplung...


    Das ändert aber nichts am Bewegungsfluß. 25p und 50p sind bei 720p in diesem Fall direkt vergleichbar. Bei der Konvertierung verwerfe ich dann jedes 2. Bild und lasse Zwischenbilder errechnen und der Bewegungsfluß stimmt wieder. Wozu haben wir denn AVISYNTH?
    Übrigens, die Diskussion zum Thema verlief im Forum von digitalfernsehen teilweise recht emotional und weniger sachlich. Deine differenzierte Betrachtung ist nur zu begrüßen.

  • Das ändert aber nichts am Bewegungsfluß. 25p und 50p sind bei 720p in diesem Fall direkt vergleichbar. Bei der Konvertierung verwerfe ich dann jedes 2. Bild und lasse Zwischenbilder errechnen und der Bewegungsfluß stimmt wieder. Wozu haben wir denn AVISYNTH?
    Übrigens, die Diskussion zum Thema verlief im Forum von digitalfernsehen teilweise recht emotional und weniger sachlich. Deine differenzierte Betrachtung ist nur zu begrüßen.



    Naja, der unterschied ist halt, dass 720p50 bei echtem "Film" Material quasi der Hälfte der Bandbreite für Duplikate verschenkt. Man könnte jetzt denken, dass diese Duplikate kaum Bandbreite kosten, wenn der Encoder schlau genug arbeitet. Aber darauf sollte man sich nicht verlassen. Der Vorteil von 1080i ist außerdem, dass man bei "Film" Material dann nicht nur die sinnlosen Duplikate nicht hat, sondern dass man in dem Fall auch wirklich eine deutlich höhere Auflösung erhält. Aber das gilt wie gesagt ausschließlich für Filme, nicht für "interlaced" Material. Wenn es um 50 Bilder/Sekunde Material geht, sind mir 50 Vollbilder pro Sekunde in 720p Auflösung tausend mal lieber als 1080i mit 50 Halbbildern pro Sekunde. Erst recht, wenn es "nativ" in 720p50 produziert wurde...

  • Zitat

    Man könnte jetzt denken, dass diese Duplikate kaum Bandbreite kosten, wenn der Encoder schlau genug arbeitet. Aber darauf sollte man sich nicht verlassen.


    Stimmt, (auch wenn man erwartet hätte, dass es weniger ist) gebobbtes 25i Material (also dann 50p Material) verbraucht ja auch doppelt so viel Speicherplatz bei allen mir bekannten H.264 Encodern. :(

    Zitat

    Wenn es um 50 Bilder/Sekunde Material geht, sind mir 50 Vollbilder pro Sekunde in 720p Auflösung tausend mal lieber als 1080i mit 50 Halbbildern pro Sekunde. Erst recht, wenn es "nativ" in 720p50 produziert wurde...


    Zustimm.

  • Ich finde es eigentlich viel bedrückender, dass man sich im Zuge von HDTV nicht von festen Bildraten getrennt hat. Insgesamt wirkt vieles so als hätte man sich so an den Klumpfuß gewöhnt, dass man ohne nicht mehr richtig laufen kann. Interlaced zählt mit dazu. Auch die Auflösung hätte man variabel spezifizieren können. Man hatte immerhin 50? Jahre Zeit für die Entwicklung. Und das Problem von Normkonvertierungen und Upscaling nervt wohl jeden der mal damit zu tun hatte.

  • Viel mehr nervt mich, dass es keine größeren Displays mit einer hohen Pixeldichte gibt,... wenn ich auf nem Laptop FullHD haben kann, warum sind die größeren Displays dann nicht mit entsprechend höheren Auflösungen möglich?

    Cu Selur

    Ps.: von wegen Normwandlung und Unsinn: Warum werden eigentlich nicht Reihenweise die Produzenten von Animematerial gefoltert. Ist mir vollkommen Unklar was die Käufer sich da so für nen Schrott andrehen lassen.

  • Selur, möglich sind sie, aber teuer.

    Je größer das Display umso wahrscheinlicher ist es, dass Pixelfehlerklassen nicht erreicht werden. Damit ist das gesamte große Display verloren. Bei Laptop Displays stellt der Hersteller mit fast gleichem Aufwand 4 oder 9 oder 16 Displays her, wenn davon ein gewisser Anteil nicht OK ist, ist das Risiko kalkulierbar und der Preis wird akzeptabel.

    Die größten hochauflösenden Displays die ich kenne sind die 30" von Apple, Dell etc. NEC hat ein farbkritisches Profidisplay mit 27" im Angebot.

    Was aber noch dazukommt ist, dass die Übertragungswege derzeit noch nicht auf höhere Auflösungen optimiert sind. Schon die Auflösung der 30"er erfordert zwei digitale Quellen.

    Animeproduzenten könnten ohne feste Bildraten auch endlich vernünftige Arbeit leisten ;)

  • Ich glaub wir reden irgendwie aneinander vorbei,...
    Apple 30" hat doch auch nur 2560x1600 Pixel, bei der Größe hätte ich eher auf 3840x2400 oder mehr gehofft,....
    Wenn ich nen 15,4" Laptopbildschirm mit 1920x11200 habe und dann auf nen 27" mit 2560x1600 gucke würde ich den nicht gerade HighTech nennen. :)

    Zitat

    Schon die Auflösung der 30"er erfordert zwei digitale Quellen.


    Was ja nicht so das Problem ist und nur heißen würde, dass man DisplayPort nutzen müsste oder halt bessere Schnittstellen her müssen. :)

    -> die ppi/dpi sind bei größeren Displays einfach lächerlich niedrig wenn man sieht was z.B. bei nem Iphone machbar ist,...

    hier mal ein paar Zahlen:
    3.5" mit 960x640 -> 329.65dpi (Iphone 4)
    22.2" mit 3840x2400 -> 203.98 dpi. (z.B. von ViewSonic, hier mal ein Screenshot von dem Desktop, da wird der Monitor unter Windows als zwei Monitore angesprochen)
    7.5" mit 1200x900 -> 200dpi (OLPC $100-Laptop)
    15,4" mit 1920x1080 -> 147.02 dpi. (gibt es von Dell)
    9,7" mit 1024x768 -> 131.96dpi (iPad)
    27" mit 2560x1600 -> 111.81 dpi. (Standard)
    24" mit 1920x1080 -> 94.34 dpi. (Standard)
    30" mit 2560x1600 -> 75.47 dpi. (Standard)

    Zitat

    Animeproduzenten könnten ohne feste Bildraten auch endlich vernünftige Arbeit leisten


    Die Frameraten sind da nicht das Problem sondern die Leute mit wirklich unakzeptablen Arbeitsschritten,..
    (bin mir sicher, dass selbst wenn vfr Standard wäre viel Animeproduzenten immer noch Schrott produzieren würden)

    Cu Selur

  • Hm haben 27"er jetzt 2560er Auflösung? Dachte die stünden immernoch bei 1920x1200.

    Eigentlich reden wir nicht aneinander vorbei, die Aufstellung unterstützt ja die Preisthese. Ich kannte nur deine Vorstellung von hochauflösend nicht ;)

  • Schlagen? Im Gegenteil.
    1080p ist wie alt? 40 Jahre? 30 Jahre?
    Wenn sich die Fernsehtechnik ebenso wie die Audiotechnik weiterentwickelt hätte würde 2400p heute minimal Standard sein.
    Hätte sich die Autotechnik gleichermaßen weiterentwickelt würden wir in 3l Autos mit Spitzengeschwindigkeiten von 500kmh sitzen.

    HD ist lang nicht am Ende, was auch die Industrie verstanden hat und FullHD (1080p) in HD1080p umbenannt hat. FULL ist noch lang nicht erreicht.
    4048x4048 anamorphic ist afar Kinostandard??

    Anekdote: Lucas hat 4 in 1080p rendern lassen, wogegen 1-3 in 4k remastered wurden, bisher nicht vom Negativ?

    Was ich sagen will; HD wird als neu verkauft in D, ist aber uralt und wird in absehbarer Zeit von neuen Abkürzungen abgelöst werden. Trotzalledem freut man sich über im Moment über nativ aufgelöstes Material. Darauf mussten wir lange warten, genießen wir mal in einer Zeit zu leben, in der Fortschritt wieder ein Thema ist.

  • Ich weis es gehört nicht hier rein, aber was mich als Otto-Normal-Nix-Versteh-Verbraucher mehr interessiert is folgendes:

    Wie gut kann ein Film/Fernseh-Bild überhaupt sein das es ein "Standard-Auge" noch wahrnimmt? Ist da mit "FUll-HD" nicht eigentlich schon die grenze erreicht? Wohl gemerkt, ich rede hier vom "Standard-Auge" (und das nicht nur weil bei mir nur noch eins mit Brille richtig funktioniert.).

    Und aus aktuellem Anlass, weil gerade mein digitaler SAT-Receiver seien geist aufzubeben scheint und ich somit gerne einen mögichst günstigen aber dennoch guten neuen brauche:

    Kann es sein das, wie mir die typen aus den beiden Multimedia-Discountern (der eine "MitteGroß" und der andere mit Ringen ;) ), ein guter teurer Receiver durch vernünftiges Upscaling (?) das Bild auf meinem HDReady/HD-TV besser darstellen kann als das übertragene ausgangsmaterial ist? (Gleiche gegebene Info gilt für DVDs auf BD-Playern)

    Ich kanns irgendwie nicht glauben und vertraue den Meinungen hier im Board mehr als besagten Discounter-Experten.

    PS: Weggelassen hab ich mein Problem dann gleich doch auf HD-Receiver zu gehen, da ich sowieso schonmal vor habe die kostenpflichtigen HD-Übertragungen der Privaten rigoros zu boykottieren. Immerhin gehen die mir mit den Werbeblöcken schon genug auf die nerven und über das HD-Pay-TV wird das wohl garantiert nicht billiger.)

    :esel: Verlang ich zu viel, oder bin ich einfach nur zu blöd? :ichdoof:

  • Die benötigte Auflösung ergibt sich immer aus der Bilddiagonale und dem Abstand Auge/Mattscheibe. Ergo sind auch bereits höhere Auflösungen als "Full-HD" geplant, und der Name Full-HD wurde abgeschafft und durch HD1080p ersetzt.

    Upscaling meint erstmal nur, dass das Bild von 720x576 entzerrt und auf 1920x1080 vergrößert wird. Dabei gibt es unterschiedliche Algorithmen welche mehr oder weniger "Fehler" ins Bild einfügen. Weiterhin gibt es dann noch Algorithmen welche die bekannten Kompressionsfehler von MPEG2 abmildern sollen oder nach Anteilen des Bildes suchen, welche geometrisch nachgebildet werden können (Text, scharfe Konturen), um diese dann in voller Auflösung neu zu berechnen.

    In meinen Augen ist das aber alles unnötig, da man selten so nah vor dem TV sitzt.

    Übrigens ist alles was dir bei MM&S erzählt wird mit Vorsicht zu genießen und enthält maximal den Informationswert der Infoblättchen der Hersteller. Es hat Seltenheitswert einen Mitarbeiter zu treffen, welcher dich nach deinen Bedürfnissen ausstattet und nicht nach den Bedürfnissen des Managements.

    Was HDTV-Reciever betrifft würde ich nach Merkmalen wie Anzal der Tuner/CI-Slots, interne/externe Festplatte, Art des Betriebssystems (für zukünftiges grauzonen-Gucken und Restriktionsumgehung) achten, anstatt auf die Qualität des Upscalers, der ist im Segment gehobener Ausstattung vermutlich sowieso hochwertig.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!