Beiträge von DJ oSSi

    ich habs nur auf gulli.com gefunden (undergroundblabla)
    ich stell mich nicht hin um irgendwas zu beweisen
    ich selbst würde es nicht als eine revolution bezeichnen
    wenn man anfängt objekte in video zu differenzieren
    um dadurch wiederholungen einzusparen

    ich würde die revolution erst in der fraktalen kompressionsweise sehen
    bzw wenn ein grid-computer mit künstlichem bewusstsein vorhanden wäre
    oder die zeitmaschine von ronald matell jahrelang berechnet und das ergebnis
    zur startzeit zurückholt. echtzeitberechnung kompliziertester systeme eben

    Welche Fragen meinst Du?
    Wenn ich mir die biologische Verarbeitung von Reizsignalen, Bewusstsein und Wahrnehmung, Erinnerung vor Augen halte, halte ich noch wesentlich bessere Kompressionen für möglich. Muß eben nur künstliche Intelligenz her. Und daran wird ja inzwischen auch schon gearbeitet.

    Hab neulich bei einem Kumpel ne DVD gesehen wo Staffel 5 bis 9 von Simpson drauf war
    (im RealMedia Format... ehrlich gesagt auf dem Fernseher (kein kleiner) sah man zu einer DVD wo Staffel 5 und 6 drauf war im MP4AAC+-Format nicht unbedingt große unterschiede)..
    nun ja meckern wir mal nicht... verglichen zur gesamtzeit der menscheit erleben wir ja grade eine explosion.. (an die wir uns schon fast gewöhnt haben)

    (Übrigens meine Maus hab ich mal Nexus genannt, weil ich der Nexus gegeben habe, jetzt ist sie aber inzwischen im Nexus...)

    ===
    so denke mal hier kann man nach langer zeit ein fortschritt vermelden....
    wer weitere interessante berichte dazu findet kann sich ja hier dazu melden
    ===

    Ein Kinofilm auf 50MB gepackt

    Euclid Discoveries kündigt die Revolution im Filmdownload an. Ihre objektbasierte Kompression soll über viermal kleinere Files als MPEG-4 erzeugen können und einen Kinofilm auf 50MB Größe eindampfen können. Auf eine Standard-CD würden so 14 komplette Movies passen, der Filmdownload könnte extrem beschleunigt werden.

    Was sich wie ein verspäteter Aprilscherz anhört, ist bereits mit 14 Patenten geschützt und befindet sich im Testverfahren. Die Funktionsweise: Objektbasierte Kompression. Statt der kompletten Bilder packt das Verfahren Objekte aus dem Video separat - Gesichter beispielsweise - und kann sie beim Wiedererscheinen im Film aus bereits vorhandenen Daten abbilden.


    Momentan arbeitet Hersteller Euclid Discoveries daran, die einzeln gepackten Objekte zu verkleinern: immer kleinere Bereiche des Videos sollen einzeln erfasst und komprimiert werden. Aktuell erziele man bereits Kompressionsraten von 38.000 zu 1 - Zahlen, die mit Vorsicht zu genießen sind, da Komprimierung sehr stark vom Ausgangsmaterial abhängt.

    In einem Testlauf konnte das Verfahren gegenüber MPEG-4 überzeugen: mit EuclidVision konnte beim Übertragen einer Videokonferenz fast viermal so hoch komprimiert werden.

    Die Filmwirtschaft gibt sich erstaunlich gelassen: MPAA-Sprecherin Kori Bernards nannte die neue Kompression eine neue Möglichkeit zur Contentverbreitung. Man nehme nicht an, dass die Euclid-Kompression zum Copyrightverstoß ermuntert. Neue, erfreuliche Töne.

    Ein Kinofilm auf 50MB gepackt

    Euclid Discoveries kündigt die Revolution im Filmdownload an. Ihre objektbasierte Kompression soll über viermal kleinere Files als MPEG-4 erzeugen können und einen Kinofilm auf 50MB Größe eindampfen können. Auf eine Standard-CD würden so 14 komplette Movies passen, der Filmdownload könnte extrem beschleunigt werden.

    Was sich wie ein verspäteter Aprilscherz anhört, ist bereits mit 14 Patenten geschützt und befindet sich im Testverfahren. Die Funktionsweise: Objektbasierte Kompression. Statt der kompletten Bilder packt das Verfahren Objekte aus dem Video separat - Gesichter beispielsweise - und kann sie beim Wiedererscheinen im Film aus bereits vorhandenen Daten abbilden.


    Momentan arbeitet Hersteller Euclid Discoveries daran, die einzeln gepackten Objekte zu verkleinern: immer kleinere Bereiche des Videos sollen einzeln erfasst und komprimiert werden. Aktuell erziele man bereits Kompressionsraten von 38.000 zu 1 - Zahlen, die mit Vorsicht zu genießen sind, da Komprimierung sehr stark vom Ausgangsmaterial abhängt.

    In einem Testlauf konnte das Verfahren gegenüber MPEG-4 überzeugen: mit EuclidVision konnte beim Übertragen einer Videokonferenz fast viermal so hoch komprimiert werden.

    Die Filmwirtschaft gibt sich erstaunlich gelassen: MPAA-Sprecherin Kori Bernards nannte die neue Kompression eine neue Möglichkeit zur Contentverbreitung. Man nehme nicht an, dass die Euclid-Kompression zum Copyrightverstoß ermuntert. Neue, erfreuliche Töne.

    ====
    Copy von Gulli.com
    ====

    Kann da jemand mal ein Thread dazu einrichten?
    Denke mal das wird äußerst interessant.
    Ich kann mich auch erinnern, das ich selbst die eingesetzten Verfahren
    bzw. die Herangehensweise an objektbasierende Kompression hier irgendwo
    in einem Thread (über ein Jahr her) mit einigen diskutiert habe.
    (der threadtitel hiess hier bei doom9: MPEG-4 weiterentwickelt)

    Wenn jemand dazu greifbare Software findet bitte ich um Links ...

    DANKE SCHÖN

    Ausschrift von Foobar 0.9

    Failed to load DLL: foo_neromp4.dll
    Reason: Wrong version number; this component appears to have been built with outdated version of foobar2000 SDK and needs to be recompiled with newer version in order to load; please contact author of this component to obtain an updated version of this component.

    Zitat von katjarella

    Ich habe KEINE Probleme mit Foobar2000Beta 0.9 und Nero6 Encoding. Welche Probleme hast Du denn? Beschreibe doch mal genauer.

    Und das mit der Seitmaschine, ist wohl das dummste was ich heut gelesen habe, denn es gibt nur 2 Möglichkeiten. Entweder Du bist eingetragener Betatester oder Du nutzt ne illg. Version.

    dann scheine ich im Moment die falsche [foo_neromp4] zu verwenden.
    über welche Komponente gehst Du denn?

    Zitat von LigH

    Ich verstehe die Frage nicht.

    Wie können wir denn Nero 7 schon testen, wenn das laut Homepage erst "bald" verfügbar sein wird?

    Oder verwendest du etwa "Bootlegs" aus fragwürdiger Quelle?

    Ich gebe keine Auskunft über meine Zeitmaschine 8))
    Aber es müßte meines Wissens inzwischen auch für Dich testbar sein.

    Wenn Du Lust hast mach doch mal folgendes....
    Nero 6 und Foobar 2000 0.8 (mit NeroPlug)......

    installier die 0.9... schon fängt das Problem an...
    da die Abwärtskompatiblität fehlt

    das Nero 7 keine weitere Umstellung mit sich bringen soll
    wäre unlogisch 8)=
    ____
    iLL23

    Hat jemand mal Nero 7 getestet in Zusammenarbeit mit foobar?

    Es geht um die Konvertierung von Musikdateien (z.B. MP3)
    in AACplus (bzw. M4A [HE-AAC]). Es stand bisher ein Plugin
    zur Verfügung, daß Zugriff über den Nero-Encoder erlaubte.

    Die Installation des neuen Foobar (0.9) brachte so wie
    Nero 7 eine Umstellung einher...

    Wie bringe ich nun die beiden zur Kooperation?

    Wer Nero komplett installiert hat, wird sicherlich in der Liste der
    DirectShow Filter die Nero Module gesichtet haben..
    Es sind immerhin 23 Stück...
    Wenn man jetzt an AAC+ (bzw HE-AAC) interessiert ist
    ist man enttäuscht das kein passender Kompressionsmanager vorhanden ist
    (AVM) sodaß viele Programme erst garnicht den Zugriff darauf geben.

    Mit GraphEdit ist es anders. Aber ein anderes Problem taucht hier auf.
    welche Module verlangen welche Formate und Vormodule usw.

    Hat jemand unter Euch schon irgendwie mit den Filtern von Nero was zustande gebracht?... Das es geht hat mir ein kleines Tool von LEADTek
    bewiesen, das diese Filter verwendet hat und damit AAC+-Streams
    in die Videosstreams mit Hilfe von DirectShow gemuxt hat.
    Aber leider hat es mir den kompletten Filtergraph nicht angezeigt.

    Weis da jemand Bescheid?

    Zitat von Selur

    Kumepl meinte auch er sehe hier und da Probleme die aber vorallem daran leigen würden ordentliche Bedingungen hier und da zu finden und außerdem CPU Power würde an allen Ecken und Enden fehlen. ;)

    Pss.: Zu Divx:
    siehe:
    http://www.heise.de/newsticker/meldung/35321

    also ich hab mal ein bisschen hochgerechet... fuer encoding
    bräuchte man etwa 5GHz und 1-2GB Ram... damit liesse sich was
    anfangen... der rest wäre eine optimierungsfrage...

    die divx-news ist mir schon bekannt... ist leider ein jahr alt..

    cHRISTOPHER LAMBERT:::::::... tHE hIGHlANDER
    .....kopf gefallen.......
    ES KANN NUR EINEN GEBEN. mit dem ich mich zuerst unterhalte

    was hat den dein kumpel gemeint...
    werde ich zum Recall eingeladen, hab ich ne runde weitergeschafft?
    oder hat er nen bug gefunden...
    hast du telnummer vom kammerjäger?

    mal ne andere frage..... weiste irgendwas neues von DIVX 6?
    hab gelesen soll "inkompatibel" zu mpeg4 werden?
    würd mich interessieren ob die einen zeitplan haben....

    naja.... ich denke mal mit sehr viel speicher und einer strategie eines lernenden netzes
    (netzcomputer) ginge das auch.... aber vielleicht finde ich noch tricks um den aufwand zu minimieren... da wäre mir programmierbare (reconfigurable) hardwarechips am liebsten also wo software in hardware umgewandelt wird... vielleicht gibts auch paar TI-DSPs die dafür herhalten können... ich würde mich gerne mit jemanden unterhalten der sich mit tracing beschäftigt... dann würd ich weiterkommen..... selur du meintest doch ich sollte mich mal bei den leuten von XVID einklinken.... kennst du da jemanden der deutsch kann?... sojemand wie den rududu-coder wäre mir auch recht aber er is ja franzose... über einfache sachen kann ich ja englisch.. aber bei solch komplexen sachen fehlt mir echt der wortschatz..

    na der bug ist der das wir nen quantencomputer brauchen kicher....
    paar japaner haben auf ner messe schon paar quantenchips vorgestellt
    (hab ich aus der ct)...

    irgendwie ist der vergleich mit dem schwamm recht praktisch...
    zumal es ein filter darstellt der hin und herwischen muss (multipass)

    der dreck den es hinterlässt (rauschextrakt) wird analysiert
    und man kann dann einen speziellen schwamm dafür nehmen.

    aber naja.... klaut mir alle die idee... ich werds als patent einreichen 8)))
    wie gesagt... das klappt alles erst wenn der sprite"finder" fertig ist...
    auf das volle bild angewendet bzw. etwas was sich nicht bewegt
    oder wo ein anderer encoder die daten schon verquantisiert hat
    hilft es kaum... der müsste schon schlimmstenfalls dvd-daten
    erhalten... noch bessere daten wären angebrachter...MJP2K
    oder DV..... oder einen detektor einführen der kompressionsartefakte
    erkennt (etwas intelligenter als partialdeblocking) und entsprechende bereiche
    als unzuverlässige vertrauensbasis definieren...
    wäre ja eigentlich etwas ähnliches wie bei der begrenzung der pixelauflösung..
    wäre dann die begrenzung der makroblockauflösung.... obwohl ich hoffe
    dass der humbug bald standardmässig abgeschafft wird....

    und wenn diese schwammstruktur ausgereift ist kann man
    ja kucken ob man da zweck speicheroptimierung mit wavelets statt splines
    arbeiten kann.. hier mach ich aber keine prognose da ich derzeit noch keine vorstellung davon machen kann... also gut möglich das es in diesem fall gar kein sinn macht zumal es sich ja um einmal-benutzen-und-wegwerfen-schwämme handelt...
    höchstens als presets für den rauschartdetektor noch sinnvoll...

    Selur
    haste den planeten des kleinen männchen retten können?
    (also durchgespielt?)

    wegen künstliches rauschen....
    käme drauf an wie schlau das rauschen verteilt wurde
    (also zeitlich, örtlich, amplitude und mit objekten mitbewegend)
    ich denke mal das obige methode JEDES WASSERZEICHEN ERKENNT
    und deswegen denke ich auch wird die industrie sowas nicht unterstützen

    vielleicht gibt es deswegen noch kein kommerzielles produkt
    auf dieser basis... ich kann mir nicht vorstellen das keiner
    vor mir / uns auf soetwas gekommen ist.....

    das ist aber nicht das ende....
    mit den neuen informationen die wir gewinnen
    (rauschart verändert sich ja wohl kaum schlagartig)
    (allerhöchstens bei szenenwechsel)
    sozusagen die deltadaten (rauschextrakt)
    kann mit einer statistik buch geführt werden
    an stellen wo punktuell eine störung aufgetreten ist
    ist ab den moment wo die störung wieder weg ist
    die wahrscheinlichkeit sehr gering das diese störung
    schon ein frame danach wieder vorhanden ist
    die mittlere rauschverteilung zeigt uns eine weitere
    möglichkeit dank wahrscheinlichkeitsberechnung
    daten als eher vertrauenswürdig einzustufen
    und ihnen mehr gewicht zu geben

    so schaukeln sich beide algorithmen gegenseitig
    von einem minimalen untrainiertem rauschbewerter
    zu einem objektspezifischem erfahrenem bewerter hoch

    zu toppen wäre diese methode nur noch durch eine weitere methode
    wo bekannte muster wie z.b. haut haar selbstähnlichkeiten (wie büsche
    baumwipfel oder nebel und partikelsysteme) als solche erkannt werden
    und nach einem synthetischem ersetzen zwar zum original nicht mehr
    identisch ist aber überhaupt nicht auffällt...

    beispiel:
    wenn man kurz einen kirschbaum filmt, wer zählt nach ob wirklich
    die gleiche anzahl von kirschen an dem baum hängt und alle an ihrem
    richtigem platz sind??!!? das gehirn merkt sich nur dichte regelmässigkeit
    und grenzverlauf des behanges.... zusammengefasst...
    es fiele nur dann auf wenn das bild unnatürlich wirkt....

    also lasst uns mal brüten was es für rauscharten gibt....

    wenn ich mir sozusagen alle abzüge einzeln vorhalte
    und eine standardabweichung erlaube dann so
    entweder in einem kanal ist starke abweichung erlaubt oder
    nur eine kleine über alle kanäle gleichzeitig
    in einem mathematischem raum beschrieben
    hiesse das ein netz aus verbundenen splines
    plus erlaubte abweichung grafisch gesehen eine art
    schwamm wäre (mit den vielen löchern drin)
    alle abweichungen, deren fixpunkte in den löchern
    und nicht in der schwammsubstanz befinden ordnen wir dem
    rauschen zu und hätten schon mal eine gute ausgangsbasis
    für ein erstes bewertungssystem...
    nach einem multipassverfahren können wir weitere
    detaildaten für unwahrscheinlich erklären
    und als zwischenstufe detaildaten in mit und ohne vertrauensbasis
    splitten... geben wir den detaildaten mit vertrauensbasis
    mehr gewicht in der berechnung als den daten ohne
    können so pro pass die daten ohne vertrauensbasis
    in rauschen oder details (mit vertrauensbasis) zertrennt werden
    grafisch gesehen erhält unser bewertungssystem (die schwammstruktur)
    immer komplexere formen an und kann zum schluss in die detaildaten
    die unterhalb der auflösung liegen umkonvertiert werden (mehrdimensionale
    interpolation).... dieser schwamm sozusagen bildet nun unsere
    neue (größte) gaussstufe unserer pyramide....
    und ist entrauscher, entwackler, deinterlacer und sharper in einem..

    auf der einen seite bräuchte man dazu einen rauschartdetektor
    auf der anderen seite ein wahrscheinlichkeitsbewertungssystem
    der rauschen und relevante details auseinanderhält...
    man kann noch weitere verbesserungen erhalten
    wenn zur bewegung noch zooms hinzukommen...
    also ich denke mal das mit x,y,z-interpolation man die
    rauschwerte (starke abweichungen von der standardabweichung)
    gut auseinanderhalten kann....
    bleibt eine textur z.b. über min. 3 frames stehen
    kann ein mittelwert errechnet werden der auch zur
    besseren wahrscheinlichkeitsbewertung herangezogen werden kann

    es ist schon schwer alle register zu ziehen und trotzdem noch
    ässer im ärmel zu haben, aber wozu haben wir denn gehirne...

    nur mal eine frage...
    wenn ein pixel gerade berauscht ist....
    und wir menschen ihm dieses recht absprechen wollen
    sollten wir erstmal unterscheiden wodurch er berauscht ist
    und wann er wie lange berauscht ist...

    tritt der rausch nur im helligkeitskanal auf
    oder auch woanders?.....

    vergleicht man die standardabweichungen aller kanäle
    untereinander ist rauschen umsomehr erkennbar...