DiAVC - bisher schnellster AVC-Decoder - taugt der was ?

  • Hehe, da freu' ich mich schon drauf. Wenn eine Quelle "normal" gesample'd ist, dann ist Super-Resolution technisch nicht möglich. Egal ob CUDA oder STREAM. :rolleyes:



    Die Idee hinter "Super Sampling" besteht doch darin, aus mehreren "niedrig" aufgelösten Bildern des selben Motivs ein "hoch" aufgelöstes Bild zu berechnen.

    Zum Beispiel indem man anstatt einer teuren "HD" Kamera mehrere preiswerte "SD" Kameras parallel einsetzt und es am Ende am Rechner per "Super Sampling" kombinieren (hoch rechnen) lässt.

    Aber es gibt wohl auch Ansätze dieses Verfahren auf "einfache" Videos anzuwenden, indem man mehrere aufeinander folgende Einzelbilder verwendet.

    Zumindest in den "statischen" Bildbereichen hat man dann ja mehrere Aufnahmen des selben "Motivs" auf die man "Super Sampling" anwenden kann. Schweinsz hatte auch en Paper dazu greifbar.

  • Der Gebrauch der Begriffe ist typischerweise recht schwammig. Und wenn der richtige Begriff lange genug "falsch" gebraucht wurde und so in den allgemeinen Sprachgebrauch übergegangen ist, dann ist eh' alles zu spät...

    So wie ich das verstehe, sind Super Sampling und Super Resolution zwei paar Stiefel.

    S.Sampling kann irgendwas sein, mit trickreichem Schärfen/Enhancing/wasauchimmer. NNEDI macht z.B. Super-Sampling.

    S.Resolution ist ein Puzzle bei dem Pixel aus benachbarten Frames zusammengebastelt werden. Das macht aber nur dann wirklich Sinn, wenn das Quellmaterial entsprechendes Sampling aufweist (im Prinzip: Point Sampling).
    (Das macht im Prinzip jeder adaptive Deinterlacer, sogar tdeint. MVBob/MCBob machen's in "Reinform", und TGMC vom Prinzip her auch, wenngleich ein wenig anders.)

    Normale Quellen haben das aber nicht. Die haben typischerweise ein Bereich-basiertes Sampling. Und da ist's dann eben so, dass die Nachbarframes so gut wie gar keine "zusätzliche" Informtion enthalten. Ein Frame enthält ein "unscharfes" Feature, und die Nachbarframes enthalten genau das gleiche "unscharfe" Feature. Da gibt's im wesentlichen nichts zu holen.


    Aber is' ja eigentlich egal ... wenn die Leute Super-Resolution hören, dann werden sie halt rallig. Auch wenn technisch nicht viel dahintersteckt.

    Man kann problemlos einen Kaugummi für 10 Euro verkaufen. Es muss nur "Sonderangebot" dranstehen, dann kaufen alle wie verrückt. ;)

  • Ja, es war in der Tat "Super Resolution" gemeint, als das Erzeugen eines hoch-aufgelösten Bildes aus mehreren niedriger aufgelösten Bildern. Es geht nicht um "einfaches" hoch skalieren + nachschärfen.

    "Super Resolution" Verfahren wurden definitiv für "normale" Videos vorgeschlagen, d.h. heißt es werden mehrere aufeinander-folgende Aufnahmen als Eingabe verwendet.

    Schweinsz hatte damals, wie gesagt, auf ein Paper verwiesen, in dem ein solches Verfahren im Detail beschreiben wird. Leider hab ich jetzt gerade weder den Link noch die entsprechende PM von damals greifbar.

    Und ob das erwähnte Verfahren in der Praxis etwas taugt kann ich natürlich nicht beurteilen, da es ja zum jetzigen Zeitpunkt noch nicht in DiAVC implementiert wurde.

    (Auch weiß ich nicht, ob der Algorithmus, der in besagtem Paper vorgeschlagen wurde, in die selbe Richtung wie scharfi's "Temporales Super-Sampling" geht)

  • Nö. Das ist Interpolation, keine Super Resolution. :)

    Die E.D.I. Algorithmen suchen "fehlende" Pixel. Im Original fehlt aber nichts, weil ja bei der Erstellung des Originals mehrere Pixel miteinander verschmolzen wurden. Und deswegen kommen nur interpolierte Zwischenwerte dabei raus. Gut, die Kanten werden feiner sein, ohne Treppenartefakte ... das ist aber auch alles.

    Wenn da ein 2*2 Pixel-Cluster ist, dann würde Super-Resolution daraus ein lesbares "e" oder "o" oder "x" oder "+" machen, je nach dem was es ursprünglich mal war.

    Aber alles, was sich praktisch nachvollziehen lässt, macht nix anderes als den 2*2 Pixel-Haufen zu einem großem n*n Pixel-Haufen aufzupumpen. Das ist Interpolation.
    (Und nochmal: da der Pixel-Haufen in benachbarten Frames praktisch identisch aussieht, wird da auch nichts anderes bei 'rumkommen...)


    "Whitepapers" hab' ich schon viele gesehen. Nur leider nichts, was auch in der Praxis funktioniert.

    Es gibt auch genügend viele Whitepapers zur Konstruktion eines Perpetuum Mobile. Papier ist geduldig.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!