Hallo!
Die Frage steht eigentlich schon im Titel...
Die heutigen, üblichen digitalen Frame-Rates entspringen ursprünglich ja aus den nativen Frequenzen von analogen PAL- und NTSC-Übertragungssystemen, und deren Frequenzen aus der Netzfrequenz.
Analoges PAL-B/G/I... hat 25fps (bzw. 50 Halbbilder/sec.), weil in Europa (und wo es sonst verwendet wird) 50Hz Netzfrequenz herschen...
In USA (und anderen Ländern mit "M"-Standard) hat man aber doch nativ 60Hz Netzfrequenz. Warum hat (analoges und "digitales") NTSC dann aber 29,97fps (bzw. 59,94 Halbbilder/sec.)?
Das ist ja ein Faktor 1000/1001. Warum ist das so?
Daraus resultierend die Frage:
"Filme" werden/wurden (ja immernoch) mit 24fps gedreht (das kommt von der früheren Zelluloid-Bildfrequenz).
Bei der Ausspielung über 50Hz-(PAL)-Systeme wird ein simpler Speedup gemacht (24->25fps) und der Ton ebenfalls entsprechend schneller gemacht (ca. 4%).
Bei der Ausspielung über 59,94Hz-(NTSC)-Systeme wird erst ein (vernachlässigbarer) Speed-Down 24->23,976fps (das 1/2,5-fache von 59,94) und das dann per Telecine-Verfahren auf 59,94 fields/sec. aufgeteilt.
24fps-Filme tauchen bei nativer Speicherung (z.B. auf BluRay-Disc) dann immer als 23,976fps auf...
Werden diese "geringfügig langsameren" 23,976 nun überall verwendet? An sonsten gibt es ja nun auch Digi-Cams, Handys etc. die mit _30_ fps filmen, statt mit 29,97.
Echte _60_ Hz hingegen z.B. bei Monitoren auf (PC, TV, Laptop, ...).
Das heißt bei Filmen oder NTSC-Material gibt es immer alle ca. alle halbe Minute einen leichten "Ruckler", richtig?
Warum hat man diese krummen Zahlen genommen? Entstand wohl aus dem analogen NTSC, aber warum hat das so einen krummen Wert?
Gruß Alex