jetzt mal ganz offtopic....
probiert mal http://dejan.id.au/samorost.swf aus....
dauert etwa 5-10min
MPEG-4 weiterentwickelt?
-
-
Zitat
jetzt mal ganz offtopic....
probiert mal http://dejan.id.au/samorost.swf aus....
dauert etwa 5-10min
Is nett gemachtZitatauf der einen seite bräuchte man dazu einen rauschartdetektor auf der anderen seite ein wahrscheinlichkeitsbewertungssystem der rauschen und relevante details auseinanderhält...
Allein das ordentlich hinzubekommen wäre schon der Hammer.Zitatman kann noch weitere verbesserungen erhalten wenn zur bewegung noch zooms hinzukommen...
Yup, das ist klarZitatalso ich denke mal das mit x,y,z-interpolation man die rauschwerte (starke abweichungen von der standardabweichung) gut auseinanderhalten kann....
Ob das immer klappt bezweifle ich, aber als Ansatzpunkt sicher nicht schlecht. Ist halt die Frage wie gut man sich um künstlich hinzugefügtes Rauschen drumrummögeln kann.Zitatbleibt eine textur z.b. über min. 3 frames stehen kann ein mittelwert errechnet werden der auch zur besseren wahrscheinlichkeitsbewertung herangezogen werden kann
wobei natürlich die Gefahr immer besteht, das Details sich mit Rauschen vermischen.Zitates ist schon schwer alle register zu ziehen und trotzdem noch ässer im ärmel zu haben, aber wozu haben wir denn gehirne...
Stimmt.Zitattritt der rausch nur im helligkeitskanal auf oder auch woanders?.....
Kommt drauf an, kann sowohl in den Helligkeitskanal, als auch im Farbkanal auftreten.
Zitatvergleicht man die standardabweichungen aller kanäle untereinander ist rauschen umsomehr erkennbar...
zumindest wenn eine Verbindung zwischen dem Rauschen in den Kanälen erkennbar ist.Cu Selur
-
also ich denke mal das man hier erst noch rauschforschung betrieben werden müsste
also lasst uns drogen nehmen 8))
-
-
also lasst uns mal brüten was es für rauscharten gibt....
wenn ich mir sozusagen alle abzüge einzeln vorhalte
und eine standardabweichung erlaube dann so
entweder in einem kanal ist starke abweichung erlaubt oder
nur eine kleine über alle kanäle gleichzeitig
in einem mathematischem raum beschrieben
hiesse das ein netz aus verbundenen splines
plus erlaubte abweichung grafisch gesehen eine art
schwamm wäre (mit den vielen löchern drin)
alle abweichungen, deren fixpunkte in den löchern
und nicht in der schwammsubstanz befinden ordnen wir dem
rauschen zu und hätten schon mal eine gute ausgangsbasis
für ein erstes bewertungssystem...
nach einem multipassverfahren können wir weitere
detaildaten für unwahrscheinlich erklären
und als zwischenstufe detaildaten in mit und ohne vertrauensbasis
splitten... geben wir den detaildaten mit vertrauensbasis
mehr gewicht in der berechnung als den daten ohne
können so pro pass die daten ohne vertrauensbasis
in rauschen oder details (mit vertrauensbasis) zertrennt werden
grafisch gesehen erhält unser bewertungssystem (die schwammstruktur)
immer komplexere formen an und kann zum schluss in die detaildaten
die unterhalb der auflösung liegen umkonvertiert werden (mehrdimensionale
interpolation).... dieser schwamm sozusagen bildet nun unsere
neue (größte) gaussstufe unserer pyramide....
und ist entrauscher, entwackler, deinterlacer und sharper in einem.. -
das ist aber nicht das ende....
mit den neuen informationen die wir gewinnen
(rauschart verändert sich ja wohl kaum schlagartig)
(allerhöchstens bei szenenwechsel)
sozusagen die deltadaten (rauschextrakt)
kann mit einer statistik buch geführt werden
an stellen wo punktuell eine störung aufgetreten ist
ist ab den moment wo die störung wieder weg ist
die wahrscheinlichkeit sehr gering das diese störung
schon ein frame danach wieder vorhanden ist
die mittlere rauschverteilung zeigt uns eine weitere
möglichkeit dank wahrscheinlichkeitsberechnung
daten als eher vertrauenswürdig einzustufen
und ihnen mehr gewicht zu gebenso schaukeln sich beide algorithmen gegenseitig
von einem minimalen untrainiertem rauschbewerter
zu einem objektspezifischem erfahrenem bewerter hochzu toppen wäre diese methode nur noch durch eine weitere methode
wo bekannte muster wie z.b. haut haar selbstähnlichkeiten (wie büsche
baumwipfel oder nebel und partikelsysteme) als solche erkannt werden
und nach einem synthetischem ersetzen zwar zum original nicht mehr
identisch ist aber überhaupt nicht auffällt...beispiel:
wenn man kurz einen kirschbaum filmt, wer zählt nach ob wirklich
die gleiche anzahl von kirschen an dem baum hängt und alle an ihrem
richtigem platz sind??!!? das gehirn merkt sich nur dichte regelmässigkeit
und grenzverlauf des behanges.... zusammengefasst...
es fiele nur dann auf wenn das bild unnatürlich wirkt.... -
Selur
haste den planeten des kleinen männchen retten können?
(also durchgespielt?)wegen künstliches rauschen....
käme drauf an wie schlau das rauschen verteilt wurde
(also zeitlich, örtlich, amplitude und mit objekten mitbewegend)
ich denke mal das obige methode JEDES WASSERZEICHEN ERKENNT
und deswegen denke ich auch wird die industrie sowas nicht unterstützenvielleicht gibt es deswegen noch kein kommerzielles produkt
auf dieser basis... ich kann mir nicht vorstellen das keiner
vor mir / uns auf soetwas gekommen ist..... -
Planet wurde gerettet, am besten finde ich die Schafe (oder Lama?)
Werde mich am Montag wahrscheinlich mit nem Kumpel treffen, eventuell sieht der den Bug ;), irgendwie hab ich noch das Gefühl irgendwas übersehen wir.
Cu Selur
-
na der bug ist der das wir nen quantencomputer brauchen kicher....
paar japaner haben auf ner messe schon paar quantenchips vorgestellt
(hab ich aus der ct)...irgendwie ist der vergleich mit dem schwamm recht praktisch...
zumal es ein filter darstellt der hin und herwischen muss (multipass)der dreck den es hinterlässt (rauschextrakt) wird analysiert
und man kann dann einen speziellen schwamm dafür nehmen.aber naja.... klaut mir alle die idee... ich werds als patent einreichen 8)))
wie gesagt... das klappt alles erst wenn der sprite"finder" fertig ist...
auf das volle bild angewendet bzw. etwas was sich nicht bewegt
oder wo ein anderer encoder die daten schon verquantisiert hat
hilft es kaum... der müsste schon schlimmstenfalls dvd-daten
erhalten... noch bessere daten wären angebrachter...MJP2K
oder DV..... oder einen detektor einführen der kompressionsartefakte
erkennt (etwas intelligenter als partialdeblocking) und entsprechende bereiche
als unzuverlässige vertrauensbasis definieren...
wäre ja eigentlich etwas ähnliches wie bei der begrenzung der pixelauflösung..
wäre dann die begrenzung der makroblockauflösung.... obwohl ich hoffe
dass der humbug bald standardmässig abgeschafft wird....und wenn diese schwammstruktur ausgereift ist kann man
ja kucken ob man da zweck speicheroptimierung mit wavelets statt splines
arbeiten kann.. hier mach ich aber keine prognose da ich derzeit noch keine vorstellung davon machen kann... also gut möglich das es in diesem fall gar kein sinn macht zumal es sich ja um einmal-benutzen-und-wegwerfen-schwämme handelt...
höchstens als presets für den rauschartdetektor noch sinnvoll... -
Dann werden wir wohl einfach noche in bissel auf den Quantencomputer&co warten
-
naja.... ich denke mal mit sehr viel speicher und einer strategie eines lernenden netzes
(netzcomputer) ginge das auch.... aber vielleicht finde ich noch tricks um den aufwand zu minimieren... da wäre mir programmierbare (reconfigurable) hardwarechips am liebsten also wo software in hardware umgewandelt wird... vielleicht gibts auch paar TI-DSPs die dafür herhalten können... ich würde mich gerne mit jemanden unterhalten der sich mit tracing beschäftigt... dann würd ich weiterkommen..... selur du meintest doch ich sollte mich mal bei den leuten von XVID einklinken.... kennst du da jemanden der deutsch kann?... sojemand wie den rududu-coder wäre mir auch recht aber er is ja franzose... über einfache sachen kann ich ja englisch.. aber bei solch komplexen sachen fehlt mir echt der wortschatz.. -
Bei den Xvid Leuten können auf jeden Fall Koepi, Christoph Lampert Deutsch, da sie meines Wissens beide Deutsche sind. Prinzipiell kannste ja auch mal ChristianHJW anhauen, der ist zwar nicht im Xvid Team, aber einer der CoreCoded Leute und die sind auch nicht auf den Kopf gefallen.
Cu Selur
-
cHRISTOPHER LAMBERT:::::::... tHE hIGHlANDER
.....kopf gefallen.......
ES KANN NUR EINEN GEBEN. mit dem ich mich zuerst unterhaltewas hat den dein kumpel gemeint...
werde ich zum Recall eingeladen, hab ich ne runde weitergeschafft?
oder hat er nen bug gefunden...
hast du telnummer vom kammerjäger?mal ne andere frage..... weiste irgendwas neues von DIVX 6?
hab gelesen soll "inkompatibel" zu mpeg4 werden?
würd mich interessieren ob die einen zeitplan haben.... -
Kumepl meinte auch er sehe hier und da Probleme die aber vorallem daran leigen würden ordentliche Bedingungen hier und da zu finden und außerdem CPU Power würde an allen Ecken und Enden fehlen.
TelNummer hab ich von keinem von beiden. Die Email von Koepi gibt's auf seiner Homepage und Christophers Email findet man wenn man mal einfach die Dev Mailingliste von Xvid durch guckt.
Cu Selur
Ps.: der heißt Lampert mit 'p'
Pss.: Zu Divx:
siehe:
http://www.heise.de/newsticker/meldung/35321 -
Zitat von Selur
Kumepl meinte auch er sehe hier und da Probleme die aber vorallem daran leigen würden ordentliche Bedingungen hier und da zu finden und außerdem CPU Power würde an allen Ecken und Enden fehlen.
Pss.: Zu Divx:
siehe:
http://www.heise.de/newsticker/meldung/35321also ich hab mal ein bisschen hochgerechet... fuer encoding
bräuchte man etwa 5GHz und 1-2GB Ram... damit liesse sich was
anfangen... der rest wäre eine optimierungsfrage...die divx-news ist mir schon bekannt... ist leider ein jahr alt..
-
===
so denke mal hier kann man nach langer zeit ein fortschritt vermelden....
wer weitere interessante berichte dazu findet kann sich ja hier dazu melden
===Ein Kinofilm auf 50MB gepackt
Euclid Discoveries kündigt die Revolution im Filmdownload an. Ihre objektbasierte Kompression soll über viermal kleinere Files als MPEG-4 erzeugen können und einen Kinofilm auf 50MB Größe eindampfen können. Auf eine Standard-CD würden so 14 komplette Movies passen, der Filmdownload könnte extrem beschleunigt werden.
Was sich wie ein verspäteter Aprilscherz anhört, ist bereits mit 14 Patenten geschützt und befindet sich im Testverfahren. Die Funktionsweise: Objektbasierte Kompression. Statt der kompletten Bilder packt das Verfahren Objekte aus dem Video separat - Gesichter beispielsweise - und kann sie beim Wiedererscheinen im Film aus bereits vorhandenen Daten abbilden.
Momentan arbeitet Hersteller Euclid Discoveries daran, die einzeln gepackten Objekte zu verkleinern: immer kleinere Bereiche des Videos sollen einzeln erfasst und komprimiert werden. Aktuell erziele man bereits Kompressionsraten von 38.000 zu 1 - Zahlen, die mit Vorsicht zu genießen sind, da Komprimierung sehr stark vom Ausgangsmaterial abhängt.In einem Testlauf konnte das Verfahren gegenüber MPEG-4 überzeugen: mit EuclidVision konnte beim Übertragen einer Videokonferenz fast viermal so hoch komprimiert werden.
Die Filmwirtschaft gibt sich erstaunlich gelassen: MPAA-Sprecherin Kori Bernards nannte die neue Kompression eine neue Möglichkeit zur Contentverbreitung. Man nehme nicht an, dass die Euclid-Kompression zum Copyrightverstoß ermuntert. Neue, erfreuliche Töne.
-
Woah, das ist ja der Hammer. Ich hoffe die verletzen nicht die Patente von Prochnow. Mehr zum leidigen Thema ohne Beweise gibt's auch hier.
Revolutionen ankündigen ist ja toll, gibt's auch nur einen Beweis, dass das funktioniert? (Pressemeldungen von irgendwelchen Firmen, das sie irgendwas Tolles geschafft haben, gelten nicht)
Trotzdem Crossposting!
-
http://www.eucliddiscoveries.com/press_release.php#032806
Die Aussagen sind einfach viel zu vage, kurios und es ist niemandem möglich sie zu verifizieren.
(Evt.: http://eucliddiscoveries.com/download/)Genug Kritik hier:
http://digg.com/movies/Euclid_…ter_than_MPEG-4DivX ist mit jedem Versionssprung 4mal besser geworden, Infima hat auch den Stein der Weisen gefunden und bitte nicht vergessen: "Chuck Norris can compress a whole DVD into one single Byte."
Einen Vorsprung streite ich nicht ab, aber die Zahl "460" scheint mir gewürfelt. -
Soweit ich die Diskussionen im englischen Forum verfolgt habe handelt es sich dabei heiße Luft (TM).
Das "460x stärker als MPEG4" komprimierte Material bestand aus 1 fps Material mit praktisch 0 Bewegung. Tests mit XviD und x264 ergaben, dass man damit auch durchaus vergleichbare Kompression bei vergleichbarer Qualität erzielen kann.
http://forum.doom9.org/showthread.php…ighlight=Euclid
M.E. reiht sich dieses Verfahren nahtlos in die Reihe mit "Sloot Superkompression", "Video Magic" und weiteren ein. Ich lass mich gerne von neuen Technologien überzeugen, aber nicht mit Pressemeldungen.
Ausserdem hänge ich diesen Thread an den alten an. Bitte Crossposting unterlassen.
-
Zitat von matthiasb
Die Aussagen sind einfach viel zu vage, kurios und es ist niemandem möglich sie zu verifizieren.
Wie immer halt...
Hast du die Demo mal angeschaut (von deinem Downloadlink)?
Zitat von KopernikusAusserdem hänge ich diesen Thread an den alten an. Bitte Crossposting unterlassen.
Hui, und mich gleich mitgerissen, ich war grad beim Antworten.
-
Jetzt mitmachen!
Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!