Beiträge von ac-chan

    Ich habe mir das einzige Dokument das sie zu dem Format bereitstellen angesehen und bin entsetzt. Ich kann mich da eigentlich nur Dark Shikari und würde sogar noch weitergehen. Das man den Code zur Spezifikation macht ist schon schlim genug, aber das man dann nicht auf reines einfaches C zurückgreift ist abartig. Da sind irgentwelchen tollen Tricks mit drinnen, wo man nur mit der Dokumentation der Compiler herausbekommen kann was der Sinn des Codes ist. Hinzu kommen optimierungen an bestimmte DSPs und asmbler Code, den heute nur noch wenige leute deuten können und dann auch noch von dem Chip abhängt. Alles zusammen hätten sie die Spezifikation auch in Klinggonisch schreiben können und die selbe verschtändlichkeit und nutzbarkeit erreicht.

    Ist mir keins wirklich bekannt. Um grossartige Video- und Tonbearbeitungen zu machen ist mencoder auch nicht geeignet. Da solltest du dich mal bei transcoder(hauptsächlich Video), gstreamer(beides), nmm(network-integreted multimedia middleware -> eierlegende Wollmilchsau) und sox(Sweizer Armeemesser im bereich Auio be- und verarbeitung per shell(Script)).

    PS: wollte nur mal wieder vorbei schauen.:zunge:
    Was ist eigentlich mit dem Wiki? Seit einem Monat keine Posting mehr dazu und aufrufen liess es sich eben auch nicht.

    Das übliche Problem, das die meisten Leute nicht wissen was analog und was digital ist. Darum funktionieren ja auch immer die Werbeslogans aller" Digital, bunter, schöner, besser".

    Zunächst einmal sind Farbräume eine reine Theorie, wie man eine Farbe beschreibt. Bei RGB mittels der sogenannten primärfarben rot, grün und blau. Bei YUV gibt es die helligkeit(Y) und die fie Farbe wird mittel Koordinaten der Axen rot-zu-gelb und grün-zu-blau(U und V bzw bei YPbPg Pb und Pg).

    Diese daten können sowohl analog als auch digital übertragen werden. Dabei ist analog kein fester Wert, sondern ein ermittelter Wert, den man durch noch genaueres messen verfeinern kann, während digitale Werte durch ihre Datenbreite(also wie viele Zustände, an und aus, 0 und 1, man pro zeit übermitteln kan) abhängig.

    Um das mal zu veranschaulichen.
    Analog: 0,5 ist ein Wert zwischen 1 und 0. Oder wenn ich genauer messen kann zwischen 0,6 und 0,4 oder noch genauer zwischen 0,51 und 0,49 oder noch genauer 0,5000000000000001 und 0,499999999999999. Analogwerte sind also Messgenauigkeits abhängig.
    Digital: Wenn eine lampe 0,001 Sekunden zum an und zum wieder ausschalten braucht, dann kannst du maximal 1000(oder eher 999) werte(an, aus) geben. Wenn die lampe aber 0,1 Sekunden braucht zum ändern des zustandes, kannst du nur 10(oder 9) Werte/Zustände übermitteln.

    Hoffe das Hilft dem verständnis von Farbraum und was analog und digtal ist und das dies nichts miteinander zu tun hat.:cool:

    Zitat

    wie siehts eigentlich im Moment so aus?
    * Welche SubFormate werden eigentlich noch gepflegt?


    In der aktiven(bemerkbaren) Entwicklung befindet sich im Moment nichts.
    Der früher an USF gearbeitet hat werkelt gerade an einem Bildbasierten Untertitelformat(Subpicture) aber irgentwelche fortschritt bemerkt man da auch schon seiten Monaten nicht mehr(Jahresbeginn). SSA/ASS v5 ist zwar öffentlich zugänglich wird aber von keinem implementiert, weil noch nicht officiell fertiggestellt. sst habe ich nicht mehr verfolgt, fand ich die Syntks schrottig.

    Anders sieht es mit Bibliotheken aus. Die Libssa (früher ein Modul in mplayer) ist nun eigenständig und soll wohl noch entwickelt werden. Auch libasa meldet abundzu was neues, aber ohne das man es wirklich ausprobieren kann.

    Zitat


    * Aegisub scheint als einziges Programm noch weiterentwickelt zu werden.

    Es gibt wohl auch welche die noch an sabbu arbeiten(nch dem ja ende letzten Jahres der eigentliche entwickler aufgegeben hat/musst). Und von Subtitle workschop war auch kürzlich was neues rausgegkommen, aber der interessiert mich nicht.

    Zitat


    * Wann werden endlich Picture; Sound; Movie Events unterstützt?
    >>> * suche ich ganz dringend!

    Meinst du in SSA/ASS? Warscheinlich nie. Es gab ja auch Meinungsverschiedenheiten wie man das in Version 5 machen möchte. Und da der initator von v5 ja der haubtentwickler von aegisub ist, wird das wohl noch eine ganze weile auf Eis liegen. Die Standardisierten enthalten ja sowas meist garnicht erst(ich glaube nur TimedText vom W3C hatte Bilder, da gibt es aber noch keine implementierung).


    Das ist alles was ich in letzter Zeit mitbekommen habe. Ich bin aber auch schon seit anfang des Jahres nicht mehr ernsthaft da hinter her gewesen. Erst war Anime Marathon Vorrangig und seit der Vorbei ist, leide ich einwenig unter Lustlosigkeit(ganz algemein, nicht nur Computer/video, Untertitel bezogen).

    Es ist generell davon abzuraten Untertitel zu übersetzen und das dann als Untertitel zu nutzen(wirkt ganz furchtbar). Das dann auch noch durch automatisches Übersetzen zu automatisieren ist ... nun ja lustig trifft es nicht ...

    1. Audio und Videolänge sind nieh gleichlang, weil sampling und framerate sogut wie nie auf den selben Zeitpukt fallen.
    2. Wie beschneiden dürfte ja wohl nicht so schwer sein. Löst aber nicht dein Problem, was ja unterschiedlich schnelle Video und Audio spuren sind.
    3. Sollten die Audio- und Videodaten wirklich gleichzeitig aufgenommen worden sein und gleich lang sein, dürften sie nach dem Encoding nicht unterschiedlich lang sein. -> Überprüfe die einstellungen des Encodierprogramms/-programme.

    Ansonsten werfe mal einen Blich auf avidemux und transcode(

    Lieber LigH, PHP ist keine Programiersprache, sondern eine Script oder auch interpretersprache. Alle Programiersprachen müssen erst in Binärform gebracht werden damit sie ausgeführt werden können. Die einzige mir bekannte ausnahme ist Perl was ein Zwitter/Bastard ist(Script wird zur Laufzeit in Binärform umgewandelt. Ist aber sonst eher eine Krankheit als eine Sprache :zunge: ).

    Es sollte mich wundern wenn der Beamer das Bild AR an hand des Bildinhaltes versucht zu erkennen. Normalerweise geschied das an hand der Mitgesendeten Signale oder des Videosignals selbst.

    edit1: In dem ISO selbst war nur ein logo.png und sieht völlig anders aus als dein Screenshot. ich werde nach her mal schon was da alles in der romfs.bin ist.

    edit2: In der Datei romfs gobt es nur eine Datei mit Logo und die heisst ntsclogo.jpg. Könnte es sein das die mit dem Umschalten von NTSC auf PAL Probleme hast? Ausserdem ist das alles Uralt(von 2004). Gibt es da nichts neueres?

    Die idx datei ist im selben Ordner mit delben namen(ausser Endung) und hat die selben Rechte. Drinnen fand ich auch nichts ungewöhnliches.

    Es folgen weidere solcher Zeilen mit ab und zu Vob/Cell Zeilen.
    Das ist doch ok, oder?

    ja.

    Ich wüsste nicht was dagegen spricht. Es ist noch immer eins der stabilsten, und best ausgestateten Distributionen. Was soll ich mit dem ganzen *buntu, *SUSE, RedHat schrott. Das sind vieleicht die großen nammen in neueren Versionen vertreten, aber dafür auch immer mit massen haft bugs(sowohl in den genutzten Versioenen der Programme als auch bei den Distributions eigenen Programmen/Konfigurationen).

    Nur so am rande, ich hasse auch Gnome und ganz besonders KDE. Die haben zu viele abhängigkeiten und blähen das System unnötig auf und machen es instabil. Ich nutzte lieber Icewm, Firefox/Dillo, OpenOffice, Vim, mc, mplayer/vlc. Das reicht mir für das meiste.

    Bei srt musst du den decoder/renderer entsprechend einstellen. Bei ssa kannst du dies mit den styles beeinflussen(fontgröße, randabstand). Wenn du sagst mit welchem Untertitel Editor du arbeitest kann man dir sagen wie dort macht. Ansonsten kannst du auch einen normalen text editor nutzen und den randabstand(margin) anpassen.

    Ich was die DIN ist. Die meisten Normen(oder auch SAtadard) der ISO stammen aber von der ISO und sind nichts anderes als deren übersetzung mit anpassungen an deutsches Recht.

    Die MPEG(JTC1/SC29/WG11) gehört nicht zur ISO, sondern zur JTC1(Joint Technical Comittee) was ein zusammenschluss der ISO mit IEC ist und die Technischen Standards erstellen.