Beiträge von jb_alvarado

    Ja du hast schon recht, das hätte ich machen sollen. Ich wollte halt bewusst vorher so wenig Informationen wie möglich über die Umfrage geben, damit der Teilnehmer nicht beeinflusst wird. Da die Umfrage jetzt eh schon zu Ende ist kann ich auch schreiben um was es ging.
    Ich muss eine "Forschungsarbeit" für das Fach Designforschung schreiben. Als Thema habe ich mir Computervisualisierung, im speziellen 3D- Produkt-/ Architekturvisualisierung rausgesucht. Ich versuche dabei den "Uncanny Valley" Effekt ( http://de.wikipedia.org/wiki/Uncanny_Valley ) zu übertragen um Rückschlüsse darüber ziehen zu können, wann es Sinn macht eine Visualisierung photorealistisch zu gestalten und wann eine Skizze ausreicht. Bzw. wenn man einen gewissen Grad an Realismus nicht erreichen kann, ob es dann überhaupt Sinn macht, zu versuchen diesen zu erreichen.

    Hallo allerseits,
    muss zurzeit ne Hausarbeit schreiben. Dazu muss ich einige Befragungen durchführen. Wäre super wenn ihr teilnehmen könntet. Hier schon mal die erste:

    http://www.doodle.ch/m67sgar4bk5xb2hi

    Im laufe des Tages werden noch 2-3 folgen. Dauer pro Umfrage 1-5 Minuten.
    Vielen Dank schon mal!

    ---------------

    Hier der 2. Teil

    http://www.doodle.ch/qh3xccfxchikqt8s

    -------------

    Hier der 3. Teil

    http://www.doodle.ch/mm6ehndcv89qfzwp

    -------------

    Und der 4. Teil

    http://www.doodle.ch/idxx7aki9fx6qn37

    Ist eigentlich ne reine Schnittarbeit. Hast es doch eh schon erkannt:
    "als wäre die hälfte der bewegund weggeschnitten"
    Wenn man selber dreht am besten die Bewegungen langsamer vollziehen als gewöhnlich, damit man keine Zeitlupe im nachhinein faken muss. Außer du hast ne Kamera parat die ~50fps aufnehmen kann. Dann löscht du willkürlich Frames raus und tust auf die einzelnen Sequenzen verschiedene Geschwindigkeiten drauf.

    Hallo zusammen,
    auch wenn's vielleicht ne dumme Frage ist :): Gibt es in VirtualDubMod eine Möglichkeit, dass man die Framerate von importierten Image-Sequenzen dauerhaft auf 25FPS stellen kann? Wenn man Images standardmäßig importiert wird die Rate immer als 29,* angegeben. Muss halt recht oft Images-Sequenzen komprimieren, da wäre es fein wenn mir diese Einstellung erspart bleiben würde.


    So, und dann willst du das Videoframe als Textur an den Shader der 3D-Grafikkarte weitergeben?

    Jup, nur nicht als GPU Shader, sondern für einen 3D Software-Renderer (mental ray)
    Über Umwege das Script laden bekomme ich schon hin, geht glaub ich auch über makeAVIS. Schöner wäre es halt wenn ich direkt das avs laden könnte. Was natürlich auch fein wäre, wäre ein Script-Fenster in der shader- GUI meines 3D Programms. Allerdings würden das meine Kenntnisse überschreiten.
    Wo ich noch ein Problem sehe, ist die Tatsache dass avisynth nur auf einem Prozessorkern läuft und diese Limitierung auf den Renderer übertragen könnte. Was natürlich nicht akzeptable wäre.
    Habe aber auch gerade CImg entdeckt, vielleicht genügt das für meine Zwecke eh schon. Muss es nur noch zum laufen bekommen :).

    Hallo Miteinander,
    sorry das Thema wurde sicher schon angesprochen, aber ich habe nichts Vernünftiges gefunden.
    Ich spiele gerade mit dem Gedanken, einen shader zu basteln mit dem ich avs Scripte in einen Software Renderer laden kann. habe jetzt nicht wirklich viel Erfahrung mit Programmieren, behelfe mir da meisten mehr mit copy and paste und ein bisschen editieren. Die shader- Sprache ist c bzw. c++, um ein normales Image zu laden würde man diesen Code verwenden:

    Jetzt versteht der Renderer natürlich das avs File nicht, das müsste ich dem erst beibringen...
    Gibt es für solche dinge eine Schnittstelle die leicht einzubinden ist?

    hab jetzt einen lösungsweg gefunden, funktioniert halt leider nur im compositing in verbindung mit keying... aber falls es jemanden interessiert:
    ursache konnte ich nicht zu 100% herraus finden, fehlermöglichkeiten wären: -fehler im aufname codec
    -schlechte beleuchtung
    -in-camera sharpening (habe erst im nachhinein erfahren, dass man das für das keying ausschalten sollte. ist auch die wahrscheinlichste ursache.)
    - zu häftiges blau, was den chip überlastet hat

    lösungsansatz:

    -den clip in die 3 r g b kanäle aufsplitten
    - jeweils grün und blau horizontal um 2-4 pixel bluren
    -kanäle wieder zusammen mischen
    -dust and scratches drauf legen
    -neues projekt mit orginaldatei anlegen und das vorherige resultat als key in source definieren

    in c* würde das dann so ausschauen:
    https://localhost/www.pixelcrusher.de/files/final_key.jpg

    hallo mal wieder,
    gibt es möglichkeiten, den filter TNLMeans zu beschleunigen? ich weiß schon, dass man die werte etwas runterschrauben kann, aber das reicht leider noch nicht. ziel wäre ein gutes entrauschen (der noise ist eh nur sehr gering), was mir die kanten nicht verwischt. wenn ich auf eine framerate von ~10-6 fps beim abspielen komme, reicht mir das schon.
    meine zeile sieht bis jetzt so aus:

    Code
    TNLMeans(h=1.5,ax=2,ay=2,bx=0,by=0,sx=3,sy=3,a=1.0)

    habe auch schon ein paar andere de-noiser versucht, aber tnlmeans hatte die besten ergebnisse erzielt...

    falls wer testen möchte:

    https://localhost/www.pixelcrush…e-testszene.rar

    2 sekunden
    22,6mb (mit Huffyuv wäre es nur 1mb kleiner geworden)
    upper first

    zielfarbraum darf nicht unter yuv2

    ah, danke für die korrektur! kein wunder, dass ich mit dem begriff resize nichts vernünftiges gefunden habe...
    dass das upsampling stattfinden muss, war mir schon klar, nur dachte ich vielleicht wäre das spline-verfahren etwas präziser.
    wir mussten leider eine bluebox nehmen, der grüner stoff hätte unseren geldbeutel gesprängt... jetzt versuch ich halt, das bestmögliche raus zu holen. auf fx-guide.com wird noch ein verfahren beschrieben, wie man in flame aus dv am besten die r g b kanäle generiert, das werde ich mal versuchen in combustion um zusetzten. vielleicht verbessert das auch noch den key.

    scharfis_brain von yv12 hoch interpolieren, würde bei uns nichts bringen, haben eh schon v210 (müsste eine yuv variante sein) 4:2:2.
    weißt du zufällig, womit man dieses Edge directed interpolation bewerkstelligen kann? vielleicht haben wir ja das programm in der fh...

    hallo mal wieder,
    trotz gefahr zulaufen mich mit der frage zum affen zu machen, würde mich eins interessieren: ist es möglich und sinnvoll den chroma channel eines clips zu resizen? also quasi aus einem 4:2:2 gesampleten clip 4:4:4 zu generieren.
    es ist so, dass ich zurzeit mit chroma keying zu tun habe, und mich da grade in die ganze thematik einlese. hier stehen dazu ganz nützliches tips:
    http://generalspecialist.com/2006/10/greens…n-checklist.asp
    dort gibt es auch eine nette beispielgrafik, die noch mal verdeutlicht, wie groß der u und v channel im gegensatz zum luminance channel ist. also die hälfte. dadurch entstehen natürlich kleine treppchen, die beim keying auch mal verstärkt zum vorschein kommen können. wenn ich jetzt aber den chroma channel mit dem filter spline36resize auf die volle auflösung bringen könnte, sollte doch der treppchen effekt geringer sein, da die interpolation sicher besser ist, als bei der standardverarbeitung.
    liege ich hier falsch, oder würde das wirklich eine verbesserung mit sich bringen?
    würde mich auf antworten freuen!

    gruß

    jb_

    von avid gibt's ein code-pack davon, welches man sich selber compilieren kann, aber ob da ein directshow filter mit bei ist, keine ahnung... warum muss es denn über directshow laufen? ist doch eh nur ein produktionscodec, und läuft auch in allen applikationen.

    hallo allerseits!
    hoffe das passt so einigermaßen in dieses forum, hab ansonsten kein plan wo ich mit dieser frage hin soll...
    kennt ihr zufällig eine möglichkeit, wie man ein screen capture live übers netz streamen kann?
    es ist so, dass ich mit 2 kollegen eine kleine community leite. um besseren support zu leisten und um die leute besser untereinander bekannt zu machen, wollen wir zukünftig ab und an skypecast- meetings abhalten. dabei wäre es sehr praktisch, wenn wir den desktop live streamen könnten, so dass die leute sehen wo man im programm was findet...
    müsste doch rein theoretisch möglich sein?! wenn man eine tv-karte eingebaut hat, könnte man diese ja auch als "webcam" angeben...
    was meint ihr?

    gruß

    jb_