Gibt es einen effektiven Packer für Videofiles ?

  • @Light
    Aber das bestätigt doch die Kernaussage des kleinen Packertests,wenn auch sehr vereinfacht,oder trivial, ausgedrückt ,es lohnt sich nicht..!
    Verstehe immer nocht nicht was dir die Zornesfalten auf die Stirn treibt.

  • @katja
    jo,uha wird ja schon jahre benutzt um audio oder auch bilder platzsparend zu speichern.lässt sich ja schön per batch ein-und auspacken. :D
    habe allerdings noch nicht damit avi/mpeg gepackt oder gesehen,dass das jemand gemacht hätte.

    g/l

    md "%date%_%time:~0,2%.%time:~3,2%.%time:~6,2%"
    ...........................................................................................
    [X] <---- hier bitte bohren für neuen monitor.

  • leguangras
    warum auch, weil es einfach keinen Nutzen bringt. Im normalfall, sparst Du 0.5 bis 2% von schon gut Encodeten Material, wenn Du aber dann noch 1-5h pack und entpackdauer dazurechnest und dadurch noch die Fehleranfähligkeit, wenn nur ein Bit falsch ist. Rest kannst Du ja denken.......

  • die unendliche geschichte:
    hatte mal ein rar geladen,4 mb gross.darin war ne iso,480 mb gross.in der iso waren 26 mb nutzdaten .... :D

    g/l

    md "%date%_%time:~0,2%.%time:~3,2%.%time:~6,2%"
    ...........................................................................................
    [X] <---- hier bitte bohren für neuen monitor.

  • @ leguangras:

    Ich kenne so eine Art von CD-Images. Und ich möchte in diesem Board nicht über den Zweck dieser Images sprechen...

    Aber dass diese Images sich so gut haben komprimieren lassen, beweist ja schon indirekt, dass sie aus zum Großteil leeren Sektoren bestanden haben müssen, denn nur regelmäßige, sich wiederholdende Muster können stark komprimiert werden.
    __

    @ bigotti5:

    Sicher, man kann spezielle Inhalte generieren, die auch nach Komprimierung mit Entropie-Encodern wiederum regelmäßige Muster aufweisen. Dazu kommt noch, dass MPEG die Entropiecodierung auch nur in einigen Bereichen verwendet, drum herum aber immer noch regelmäßige Muster aufweist - insbesondere wenn es sich um multiplexte Daten handelt (Beispiel DVD: Blockgröße 2048 Bytes wegen DVD-Sektor-Größe, und am Anfang jeses Sektors ein System-Header, der erst mal definiert, was im Rest dieses Sektors zu finden ist).

    Und nicht zu vergessen das Padding: Ich kann einen MPEG-Encoder zwingen, Schwarzbild mit 8 Mbps zu encodieren. Dann wird das Encodier-Ergebnis mit Füllmaterial auf die gewünschte Größe aufgeweitet. Diese Auffüll-Daten lassen sich selbstverständlich auf wenige Bytes schrumpfen.

    Mit MP3 läßt sich das noch einfacher und schneller zeigen: Man komprimiere Stille auf erzwungene CBR 320 kbps - pure Platzverschwendung, und das merkt auch jeder Packer sofort.

    Wer jedoch Bilder oder Videos mit natürlichem Ursprung komprimiert, der hat schon Rauschen im Bild. Und bereits dieser Zufallsfaktor sorgt dafür, dass es verlustfreien Packern im Allgemeinen schwer fällt, regelmäßige Muster zu finden, die man noch komprimieren könnte.
    __

    @ Henrik:

    War ja auch nur "gespielter Zorn"; aber trotzdem - versuche erst mal, den Entropie-Begriff aus der Shannonschen Informationstheorie zu verstehen. Nur so aus Neugier. Ich behaupte - das lohnt sich. ;)

  • tach auch

    War es nicht eine Ableitung von Gödel , die theoretisch dazu führt,
    daß man das Wisen der Erde in genau einen Zahl zusammenpacken kann?

    Ich finde aber nichts dazu. Muß aus einem SF Roman aus den 70 er sein.
    Eine Truppe junger Leute wir d in eine Generationsraumschiff gesteckt und entwickelt sich auf Grund von (???) zu Genies.
    Und die schicken denen Zu Hause eine Zahl in der das Wissen um Krebsheilung, ÜberlichRaumfahrt und wasweißich alles gepackt ist.
    Sie hätten das Wissen "Gödelisiert ".
    Geht das ?

    Gruss BergH

  • Für diejenigen die sich Shannons Text wirklich durchlesen wollen, ihr findeted ihn hier.

    PS: Wuste garnicht das PCM schon so alt ist(vor 1924)
    PPS: muss jetzt dringent ins Bett, muss in ein paar stunden wieder zu einer 11h Schicht, obwohl ich gerade von einer gekommen bin.:nein: :ohoh:

    AC-Sama(Robert Vincenz)
    (werde für das -Chan zu alt :zunge: )

  • Gänzlich unbekannt ist mir seine Theorie nicht ,da es die Grundlage für Kryptographie ist....

    Der Mann ist mir ja auf Anhieb sympatisch....

    Zitat

    laut einer Anekdote sah man ihn bei Bell in der Nacht jonglierend auf einem Einrad in den Gängen herumfahren. Randprodukte seiner beruflichen Tätigkeit sind unter anderem eine Jongliermaschine, raketengetriebene Frisbees, motorisierte Pogostöcke,


    http://de.wikipedia.org/wiki/Claude_Shannon

    Zitat

    Entropiekodierer werden häufig mit anderen Kodierern kombiniert. LHarc zum Beispiel verwendet einen LZ-Kodierer und gibt die von diesem Kodierer ausgegebenen Zeichen an einen Huffman-Kodierer weiter. Auch ZIP und Bzip besitzen als letzte Stufe einen Entropiekodierer.


    http://de.wikipedia.org/wiki/Entropiekodierung

    Verständliches Beispiel :

    Zitat

    Bei gleichmäßiger Verteilung kann bei einem Alphabet auf kein Zeichen verzichtet werden. Dagegen ist die Buchstabenhäufigkeit in der deutschen Sprache ungleichmäßig. Beispielsweise ist der Buchstabe E 7 Mal häufiger als M oder O. Setzt man die Wahrscheinlichkeiten in (1) ein und multipliziert mit N = 26, d.i. die Anzahl der Zeichen , erhält man:

    H(I) \cdot N = 22{,}5

    Ohne Informationsverlust könnte das Alphabet um 3 Buchstaben reduziert werden. Diese Überlegung berücksichtigt nur die statistische Verteilung der Buchstaben. Häufige Buchstabenkombinationen wie SCH oder ST bleiben genauso unberücksichtigt wie gleich klingende Buchstaben (Q, K).

    Auch gute Information :
    Datenkompression
    http://de.wikipedia.org/wiki/Datenkompression


    Abschließend die große Frage : Wieviel Shannon hat diese Posting ? ;D
    http://de.wikipedia.org/wiki/Shannon_%28Einheit%29

  • Zitat von bergh


    War es nicht eine Ableitung von Gödel , die theoretisch dazu führt,
    daß man das Wisen der Erde in genau einen Zahl zusammenpacken kann?

    OT
    wen sowas interessiert sollte sich mal 'gödel,escher,bach' zu gemüte führen.
    gute lektüre,erschienen 1979 von hofstadter!

    g/l

    LigH
    wie emotional du hier rangehst zeigt eigentlich nur,wie sehr du dich mit datenkompression beschäftigt hast.
    find ich gut.....
    bei mir fing das mit arj -x an...
    gruss

    md "%date%_%time:~0,2%.%time:~3,2%.%time:~6,2%"
    ...........................................................................................
    [X] <---- hier bitte bohren für neuen monitor.

  • Zitat

    War es nicht eine Ableitung von Gödel , die theoretisch dazu führt,
    daß man das Wisen der Erde in genau einen Zahl zusammenpacken kann?

    OT: In jeder irrationalen Zahl ist die gesamte Weltliteratur zusammengefasst. Diese rauszufiltern ist bloß nicht ganz einfach ;). Mit Gödel hat das aber Recht wenig zutun.

  • sade

    Zitat

    In jeder irrationalen Zahl ist die gesamte Weltliteratur zusammengefasst...


    Gibt es in etwa auch in der Kunst....
    Bildhauer sagen : alles ist im schon vorher im Stein,man muß das unpassende nur weghauen....

  • Huffman ist übrigens nur im Bereich ganzzahliger Bits optimal. Eine Kleinigkeit besser ist "arithmetische Komprimierung", die mehrere Zeichen in vergleichbarer Baumstruktur als Festkommazahl interpretiert (allerdings hat IBM ein Patent darauf - stört nur kaum jemanden...), dadurch wird im Mittel auch nicht-ganzzahlige Bit-Anzahl pro Code erreicht.

    So richtig interessant werden doch erst die "Dictionary Compression Algo's", die über den trivialen Ansatz von Lempel und Ziv hinausgehen: Markov-Ketten erweitern den Ansatz der unbedingten Wahrscheinlichkeit (wie häufig kommt ein Zeichen vor) auf die bedingte Wahrscheinlichkeit (wie häufig kommt Zeichen Z, wenn schon Zeichen X und Y vorhanden sind - das sollte auch erklären, warum die so viel Hauptspeicher beim Komprimieren brauchen: Sie müssen sich riesige Baumstrukturen merken).

    Bei diesen Algoritmen kommt noch die "Automaten-Theorie" mit ins Spiel. Bekannte Implementierungsvarianten sind PPM und LZMA. In einer Abhandlung zum extrem schnellen Algoritmus LZP wurde gezeigt, dass eine der LZ7x-Algorithmen (ich glaube, es war LZ78 ~ LZW) nur die Trivialform mit Komplexität 0 ist.

    Was ich bis heute noch nicht komplett verstanden habe, ist BZip2; die Burrows-Wheeler-Transformation scheint Daten nach bestimmten Regeln so umzusortieren, dass sich danach teilweise regelmäßige Muster ergeben, die weiter komprimiert werden können.

  • Ja, KGB packt wirklich noch um ein paar Prozente besser. Aber leider ist es ansonsten reichlich unvollständig - der Archivheader ist als Klartext lesbar und speichert offensichtlich nur Name und Originalgröße der Dateien. Versteckte Dateien werden ignoriert, Dateidaten nicht wiederhergestellt. Verschlüsseln kann er zwar mit AES, aber das Hinzufügen von Fehlerkorrekturdaten kann ich nicht erkennen. Für ernsthafte Archivierung also unbrauchbar.

    Außerdem liegen die Kompressionsraten für MPEG-artige Dateien mit praxisrelevantem Inhalt auch nur bei über 90% -- keine "Revolution". Dem Speicherverbrauch nach zu folgern wahrscheinlich ebenfalls überwiegend ein LZ-Markov-Packer (wie 7-zip).

  • LigH: "Für ernsthafte Archivierung also unbrauchbar."
    Könnte man QuickPar und dergleichen nutzen um Fehlerkorrekturdaten zu erzeugen. Da man diese Daten eh separat von den komprimierten Daten aufbewahren sollte stört ein anderes Programm eigentlich auch nicht wirklich. ;)

    ----

    Hab mal einen 6MB avc clip genommen und den komprimiert.
    =>
    1. Der Packer nutzt den Arbeitsspeicher gut aus 1.5GB von 2GB durch KGB belegt beim Packen und Entpacken ;)
    2. Die Kompression dauert relativ lange 5:50min für 2:03min Video.
    3. Ergebnis: aus 6.908.144 Bytes wurden 6.877.037 Bytes (d.h. nur 0.45% Gewinn)
    4. Das Entpacken dauert so lange wie das Packen.

    => Welt ist wieder in Ordnung. Packen lohnt sich nach dem Encoden i.d.R. nicht. :D

    Cu Selur

  • LigH

    Zitat

    Was ich bis heute noch nicht komplett verstanden habe...


    Kennst du schon den Artikel über die Burrows-Wheeler-Transformation ?
    http://www.wortwolken.de/Bu/Burrows-Whe…sformation.html

    Selur
    Liegt das am Arbeitsspeicher oder an den Einstellungen ,das du mit Kgb nur 5:50min für 2:03min Video
    Ich habe für das 16 Sekunden AVI (s.o) über 16 Minuten gebraucht. P4 2 Ghz 512 Ram

  • @ Selur:

    Extra-Paritätsdaten ... bitte. Aber weder Attribute noch Datum/Zeit wiederherstellen? Nein danke.
    __

    @ Henrik:

    Gelesen habe ich darüber schon ein paar mal hier und da. Mal schauen, ob der Artikel verständlicher ist...

    Und je nach Kompressionsstärke braucht KGB u.U. mehr Speicher, als ohne Auslagerung verfügbar sein könnte, da rasselt sich die Platte 'nen Wolf.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!