Posts by Monk

    Gestern abend ein leckeres Heineken getrunken. Heineken ist eins der Biere, die nicht so schwer im Magen liegen. Heute aber bin ich als fast-Kölner gezwungen (Luftlinie wohne ich 30 km von Köln entfernt), um 11:11 Uhr am 11.11.11 den Auftakt des Karnevals in DÜSSELDORF zu begehen. Da wirds dann wahrscheinlich nur Altbier geben. Aber auch unter den Altbieren gibts einige Perlen wie z. B. das gute alte Schumacher Altbier.:D

    Das schlimmste Bier, das ich jemals trinken "durfte", war wohl "Berliner Kindl". Dieses war damals im örtlichen Getränkemarkt im Angebot, also wurde es prompt ausprobiert. Nachher war mir dann klar, warum es wohl im Angebot war. ;D

    http://www.express.de/nachrichten/re…1217095073.html

    Bin gerade auf einen Artikel im Express aufmerksam geworden. Das ganze liest sich wie Proll-Comedy, mit dem Unterschied, dass hier wohl einiges pure Realität ist.

    Es ist wirklich traurig, dass man solch asozialen Existenzen auch noch eine Plattform bietet und vor allen Dingen, dass die Polizei machtlos dabei ist, von so etwas verhöhnt zu werden.

    Wenn es nach mir ginge, sollte alleine solche Drohungen ausreichen, einen Menschen einzusperren und den Schlüssel wegzuschmeissen.

    Es ist nur traurig.

    Da wir uns in zwei Themen hier im Talk- im Turm-Bereich schon etwas ausführlicher über die Thematik 3D-Rendering unterhalten haben, möchte ich hiermit die Gelegenheit nutzen und ein Thema starten, was sich allgemeiner mit der Thematik beschäftigt. Hier können dann zum Beispiel youtube-Links interessanter Videos und ähnliches gepostet werden.

    Ich starte mal und möchte ein Video vorstellen, dass den Transformationsprozess von Optimus Prime aus Transformers darstellt. Angeblich wurde es mit blender hergestellt. Hier ist der Link:

    Optimus Prime youtube

    Du willst sicher nicht wissen, wie lange das Rendern von "The Wet Bird" in PovRay gedauert hat... :D

    Das Rendern lass ich mir da noch gefallen, weil es sich lediglich um ein Bild handelt.:D Was ich aber garnicht wissen möchte, ist, wie lange er für die einzelnen Gebäude oder die Autos gebraucht hat. Ich denke mal, dass da einige Zeit ins Land gezogen sein wird. Sowas bastelt man nicht in ein, zwei oder drei Tagen. :D

    So schlimm war's gar nicht, nur 21 h auf einem P-II 350 MHz.

    Das hält sich wirklich noch in Grenzen. Unglaublich, dass sowas damals mit einem PII möglich war.

    Modelle sind die eine Sache. Aber die Texturen reißen es erst richtig heraus.

    Da gebe ich Dir auf ganzer Linie Recht LigH. Gerade die Texturen bringen den Rechner zum Kochen. In meinem Falle hatte ich zum Beispiel diese Metallschiene eingebaut. Nur diese Schiene hat die Rendering-Zeit in den speziellen Bildern (Schiene Zoomaufnahme) verfünf- bis verachtfacht.

    Ich glaube, man kann daher sagen, dass die Auswahl der Texturen noch schwerwiegender als die Anzahl der Polygone für die Rechenzeit ist.

    Die Beispiele in der Galerie Natur sind beeindruckend. Auch die TB 303 gefällt mir sehr.

    Die haben da wirklich schöne Dinger in Ihrer Galerie. Ich bin dort durch Zufall vor wenigen Wochen auf ein Projekt gestossen, dass ein Haus, bestehend aus mehreren terrassenförmigen Ebenen in Hanglage zeigte. Leider finde ich das nicht mehr. Das war so gut ausgearbeitet, dass es einer echten Fotografie schon sehr nahe kam.

    Nicht wirklich schlecht. Zur schnellen Visualisierung auf jeden Fall brauchbar.

    Ich denke, dass dieser Renderer zu weitaus mehr zu gebrauchen ist. Hier muss bedacht werden, dass ich diese City-Kulisse innerhalb von 6 Stunden konstruiert habe. Hätte ich mir jetzt einige Wochen Zeit genommen und die Details weiter ausgearbeitet, dann würde es richtig spektakulär ausschauen.

    Es sollte halt erstmal nur ein Test werden. Deshalb auch so wenige details. Die komplette Stadt besteht zum Beispiel nur aus 10.000 Polygonen. Ich habe aber trotzdem schon über 30 Stunden rendern müssen. Wenn man jetzt neben der detailreicheren Visualisierung die Render-Optionen intensiver austestet und höhere Profile anwendet , dann ist da wie gesagt, richtig spektakuläreres drin. Am heftigsten in meinem Fall war der Metalllook der Transrapidschiene. Diese Sequenz von knapp 200 Frames hat mich sage und schreibe fast 70% der gesamten Renderzeit benötigt (insgesamt waren es 1400 Frames).

    Im Kerkythea-Forum habe ich schon Bilder gesehen, wo mir wirklich die Spucke wegbleibt. Bei manchen Visualisierungen ist das 3D-Modell wirklich kaum noch vom Foto zu unterscheiden.

    Wie ich gestern im anderen Thread zum Thema blender erfahren habe, rendern die Cracks von Pixar teilweise selbst bis zu 90 Stunden an einem einzigen Frame. Daher kann man ganz klar sagen: Je mehr Zeit man investiert, desto atemberaubender werden die Ergebnisse. Ich denke da zum Beispiel an soft-shadows und ähnliches.

    Danke für Deine Links. Interessant war hier Dein eingefügtes Bild, in dem beschrieben wird, wie lange Pixar zum Rendern einzelner Frames benötigt. Es ist in der Tat so, dass Rendern nicht gleich Rendern ist. Du kannst einen Frame in einer eher lauen Einstellung laufen lassen und hast schon nach ein paar Sekunden die ersten Ergebnisse. Bei Kerkythia zum Beispiel habe ich mal das Metropolis Light Profil getestet. Wenn ich das durchlaufen lassen würde, rendert er ein Bild 10.000 mal hintereinander. Am Anfang ist das Ergebnis recht grob und wird immer feiner. Wenn das Bild die gewünschte Qualität erreicht hat, bricht man den Rendervorgang einfach ab und speichert es.


    Ich habe das wie gesagt mal getestet, aber selbst nach 30 Stunden (nach 130 Durchgängen) war immer noch eine leichte Körnung zu sehen. Dann habe ich abgebrochen, weil es mir doch zu lang wurde. :D

    Bei Pixar kommt hinzu, dass die Ihre Bilder wahrscheinlich in einer astronomisch hohen Auflösung für Kinos mit digitalen Filmprojektoren speichern werden.

    Aber so eine Renderfarm könnte ich mir auch noch gut in meinem Keller vorstellen. Da hast Du im Winter zudem noch die Heizung gespart.:D

    Süß... kann das laufen? :)

    Ne, noch nicht. :D Ich habe mich bisher nur mit Pfad-Animationen beschäftigt. Dazu habe ich mir eine fiktive Stadt gebastelt und eine Art Transrapid durch die City düsen lassen.

    Je nachdem wie aufwendig die Szenen werden (Spiegeleffekte und ähnliches) wird die Berechnung für den Rechner eine Mörderarbeit. Ich rendere derzeit eine Sequenz, die ich in sketchup entworfen habe. Auch hier habe ich eine fiktive Stadt gebastelt, leider ist der Transrapid hier statisch. Sketchup erlaubt nur mit Tricks die Animation von Gegenständen. Es gibt zwar für windows-Maschinen das plugin sketchup physics. Das ist aber mehr eine nette Spielerei, weil sich fertige Sequenzen damit schlecht rendern lassen. Die Sequenz ist insgesamt 56 Sekunden lang und wird wohl, wie es derzeit ausschaut, vier Tage rendern. Hier braucht der Compi stellenweise bis zu 5 Minuten für ein einziges Bild, je nach Inhalt des Bildes.

    Die von mir entworfene Stadt besteht derzeit aus ca. 10.000 Faces. Nur mal zum Vergleich:

    Das niedliche Männlein oben bringt es durch die Haare (trotz Interpolation) auf stattliche 1,6 Mio Polygone.

    Bei der Gelegenheit würde mich mal interessieren, mit welchen Mördermaschinen die Jungs von Pixar arbeiten. Das müssen ganze Fabrikhallen vollgestopft mit Rechnern sein. :D

    Aber davon abgesehen, lässt sich natürlich vieles einstellen. Figuren können schon eine recht qute quali bei ca. 10.000 faces (ohne Haare) haben.

    edit: Bei der Gelegenheit hier, mal eine absolut irre Sequenz, erstellt mit blender. Leider sehr kurz, aber einfach nur Wahnsinn.

    Tsunami in New York

    Ich habe dazu mal eine Frage. Sind blender-Games nicht plattformunabhängig? Soviel ich weiß, muss lediglich die Software blender installiert sein, um ein blender-Spiel laden zu können. Da blender für linux, MacOSx und windows erhältlich ist, müssten die Spiele eigentlich auf jedem System laufen.

    Ich habe mich in den letzten Tagen nun doch mal mit blender beschäftigt. Das Programm ist sehr komplex, bietet aber unwahrscheinliche Möglichkeiten in der Videoanimation. Wenn man sich einmal mit blender beschäftigt hat und hat die brutale Hürde des Einstiegs gemeistert, dann sollte man doch irgendwann Gefallen an dieser recht komplexen Software finden.

    Wer also mal 1 bis 2 Wochen (zum Beispiel im Urlaub) Zeit aufbringen kann und sich intensiv mit dem Programm beschäftigt, wird schon bald in der Lage sein, eigene, richtig gut aussehende Videosequenzen zu erstellen.

    Ich habe zum Beispiel folgendes Bild mit blender erstellt und habe dabei Gebrauch von blenders Partikelmodus (Haare) gemacht.

    [Blocked Image: http://www.kerkythea.net/phpBB2/files/ok_197.png]

    Da ich schon immer fasziniert vom Modelling in 3D war, habe ich mich das erste Mal vor ca. 1,5 Jahren mit google sketchup beschäftigt. Vorher hatte ich mir eine zeitlang blender angeschaut, damit kam ich aber trotz Tutorial-DVD, die ich extra bei Amazon orderte, nicht wirklich zurecht. Ich schwenkte also wieder um auf sketchup und merkte mit der Zeit, dass man anhand vieler Tricks und Kniffe sogut wie alles umsetzen kann.

    Einziger Haken: sketchup selbst rendert nicht. Dazu muss auf Fremdanbieter zurückgegriffen werde. Die Preise liegen hier ab 200 $ bis nach oben hin keine Grenzen.

    Dann entedeckte ich eine freeware-Variante, mit der sich für mich als Laie unglaubliches anstellen lässt.

    Hier mal ein Beispielbild:

    Vorschau:
    [Blocked Image: http://img6.imageshack.us/img6/9058/auto…ild1280600a.png]

    grössere Version:
    klick

    Die Rendering-Software nennt sich Kerkythea und ist wie bereits erwähnt, auf der Seite des Herstellers kostenlos herunterzuladen.

    Anschliessend fertigt man wie gewohnt die Grafiken (Modelle) in sketchup an und exportiert das ganze als xml-File. Dieses kann man dann mit Kerkythea öffnen. Der Export funktioniert über ein spezielles kerkythea-plugin für sketchup.

    Hier gibts eine hervorragende Anleitung zur Installation.

    Info: Das erstellte Bild wurde ausschliesslich mit kostenlosen Produkten hergestellt (google sketchup Standardversion und Kerkythea).

    Ich hoffe, ich konnte dem ein oder anderen einen nützlichen Tip geben.

    Kölsch ist kein Bier!:D

    Das ist immer wieder lustig.:D Jeder Deutsche, der mit Köln nicht viel am Hut hat, beschwert sich über das Kölner Bier. Alle Touristen, die nach Köln kommen, zieht es aber zu allererst in die Kölner Brauereien, weil sie einmal das weltbekannte Kölsch probieren wollen.

    Ich für meinen Teil mag zugegebenermaßen, je nach Stimmung, alle Sorten von Bier (egal, ob Alt, Kölsch, Pils, Weizen usw.), aber dieses Budweiser hier hat einen unheimlich zarten Geschmack und ja, es ist das Original-Tschechische.:D

    Ich sitze gerade auf der Terrasse und trinke ein kühles Budweiser. Ist doch herrlich, bei so einer Hitze draußen im Schatten zu sitzen und sich was kühles zu gönnen.

    Bisher war ich immer "Kölsch"-Verfechter. Das rührt aber wahrscheinlich daher, dass ich lediglich 30 km von Köln entfernt lebe und da gehört es sich nunmal für einen Rheinländer "Kölsch" zu trinken. Letzte Woche kam mein Vater und meinte, ich solle mal ein Budweiser probieren. Das tat ich dann auch und war angenehm überrascht. Das liegt dermaßen weich auf der Zunge, dass man glauben könne, Budweiser wird mit Regenwasser gebraut. :D

    Was trinkt Ihr denn so? Ihr werdet ja kaum alle Antialkoholiker sein ...:ani_lol:

    Freu, ich habs hinbekommen mit Selurs Variante. Hier mein script:

    Quote

    intro=AVISource("intro.avi")
    intro=intro.FadeIn(50)
    intro=intro.FadeOut(25)
    haupt=AVISource("hauptteil.avi")
    vorspan+haupt

    Danke nochmal für Deine Hilfe Selur.


    Sorry, ich bin schon vor lauter Experimentierei total doesbaddelig. Ich bekomme es immer noch nicht auf die Reihe ImageSource und AviSource in einem script unterzubringen.

    Wie müsste dieses Script denn ausschauen?

    Quote

    intro=ImageSource("mein_Bild.jpg", end=250)
    intro.FadeIn(50)
    intro.FadeOut(50)
    haupt=AviSource("hauptfilm")
    intro+haupt

    genau dieses Intro + haupt bringt mir eine Errormeldung, weil es sich dabei natürlich um verschiedene Formate handelt.

    Hi Selur,

    ich habs jetzt folgendermaßen gelöst:

    Ich habe mein Intro-Video genauso behandelt wie das erste, sprich habe es nochmal mit xvid "unrestricted profil" und Quant. 1 konvertiert. Dann habe ich mein dummy-File mit Audacity erzeugt. Ich habe dort ein ganz genau 10 Sekunden langes signal aufgenommen. Die 2 Videosourcen konnte ich nun mit Hilfe von Avisynth an MeGui übergeben. Die 2 Soundschnipel (sind beide noch PCM) werde ich in Audacity zu einem einzigen verbinden und diese Wav-Datei dann in Itunes als AACplus konvertieren, um die dann anschliessend in MeGUi mit meinem Video zu muxen. Das ist zwar ein irre komplezierte Weg. :D Habe das eben mal mit Movie-Maker probiert. Da hatte ich innerhalb von 3 Minuten was ich wollte. Der Qualitätsunterschied ist aber nur Wahnsinn. Da nehme ich gerne Umwege in Kauf.

    edit:

    Habe jetzt auch mal schnell Selurs Weg probiert. Dazu benutze ich folgendes script:

    Quote

    AVISource("c:\pfad zu meinem video")
    ImageSource("hg.jpg", end = 250)
    FadeIn(50)
    FadeOut(50)
    ConvertToYV12

    Ich werde aber das Gefühl nicht los, dass irgendwas fehlt. Das Bild erscheint jetzt für 10 Sekunden, dann wird der Monitor schwarz. Muss ich dem Avi noch sagen, wann er starten soll? Ergibt sich das nicht automatisch?

    Hi,

    ich sitze hier schon den ganzen nachmittag und mache mir Gedanken darüber, wie ich ein bestehendes Video mit einem kleinen Intro versehen kann. Folgende Ausgangsposition:

    1.) Ich habe mit camstudio einen screencast erstellt.

    Auflösung: 1024x576
    FPS:25
    Audio: PCM
    Video: camstudio lossless-codec

    2.) Weil es mit dem anschliessenden Frameserving nicht so klappen wollte, habe ich diese AVI-Datei in Virtual Dub geladen, dort einen Logo-Filter und einen FadeIn- und FadeOut-Effekt hinzugefügt und das ganze per xvid (Quant. 1) im Full Processing-Modue konvertiert.

    Schaut schonmal super aus.

    3.) Dann habe ich diese Datei mittels Avisynth in MeGUI geladen, um dort mein mp4-File zu erzeugen. Jetzt habe ich ein Video, dass also mp4 ist und noch dazu in Quicktime abgespielt werden kann.

    4.) Dann habe ich mit dem Programm jpgVIDEO aus einem jpeg-Bild eine Avi-Datei erstellt. Diese wurde auch mittels 25FPS und camstudio lossless konvertiert.

    Jetzt dachte ich mir, da ja beide avi-Dateien den gleichen codec, die gleiche Auflösung und die gleiche Framerate besitzen, ist es doch eventuell möglich beide in Virtual Dub zu laden. Aber Pustekuchen ... ich vermute mal, er spuckt mir dan einen Fehler aus, weil meine Intro-avi-Datei keinen Sound enthält.

    Schlussfrage: Wie kriege ich diese beiden Dateien zusammen? Es muss irgendwie möglich sein, sie zu mischen, so dass ich am Ende ein einziges avs-script in MeGui laden muss.

    Ich bin wie immer für jede Hilfe oder jeden Denkanstoss dankbar.

    Cheers
    Monk

    Die Seite ist eigentlich ein php-Dokument. Es sieht also jetzt so aus:

    PHP
    echo "<a  href=\"#\" onclick=\"Effect.toggle('$post[0]', 'appear'); return false;\">Optionen</a>";
    echo "<div id=\"$post[0]\" style=\"display:none; width:720px;border-style:none;margin-bottom:10px;background:#f3f3f3\">";
    echo "<div class=\"kommentare\"></div</div>";

    Funktioniert auf jeden Fall super. Habe es mit IE, Firefox, Opera und Webkit getestet.