Beiträge von Wally

    gradfun2db sollte ans Ende und ich würde den Threshold erhöhen,..

    danke, habs mal ans ende gepackt. ...nutze nu jedoch zusätzlich (bzw. ersatzweise, wie mans sehen will) noch das gradfunkmirror-script, da sonst die ränder nicht beachtet werden, was hin und wieder doch nen wenig schräg aussieht.

    mit dem threshold hab ich ma nen bissl gespielt, musste bei höheren werten jedoch feststellen, dass sich verstärkt 'auras' um detaillierte/bewegte objekte bilden, die vor nem verblockten hintergrund stehen, den gradfun bearbeitet.

    über 1.2 will ich da schon gar nicht gehen; diese aura fällt dann schon zu sehr auf und der positive effekt bei den verblockten bereichen hält sich zu nem höheren thr. dann auch in grenzen.

    ...
    Die Anwendung von GradFun2db führt m.E. allenfalls zu leichten Verbesserungen.
    ...

    öhm, are u kidding me? ^^
    aufgrund der aussage hatte ich das gar nicht weiter beachtet und habs dann ma allein ausprobiert, nachdem ich das script von mp4guy ausprobiert hatte (welches zwar nett aussah, aber mit ~1fps nich unbedingt meinem zeitrahmen entspricht).

    GradFun2db macht exakt das, was ich mir gewünscht hab! die verblockten stellen werden weicher, grobe 8x8 blöcke sieht man nicht einen einzigen mehr und das bild wird wesentlich angenehmer, in beiden szenen, aus denen ich die obigen bilder hatte. die schärfe bleibt, soweit ich das auf den ersten blick sehen konnte, großteils behalten und performance von dem ding ist ja auch erstklassig :)


    Wenn man schon HD als Ausgangsmaterial hat, sollte man erst schärfen und dann das Bild verkleinern. Und auch nicht mit einem so stark weichzeichnenden Resizer wie Bilinear sondern besser mit einem schärferen wie Spline16 oder Spline36.

    ich hatte irgendwo mal aufgeschnappt, dass es beim downsizen relativ egal sei, welchen resizer man nutzt; nen flüchtiger test hatte mir das bestätigt (war wohl zu flüchtig), daher hatte ich den genommen.
    aber danke für die info, sieht doch wesentlich besser aus mit Spline36 :)


    Sharpen() kann nichts was LSF oder SeeSaw nicht auch können, außer wesendlich mehr Bildfehler zu produzieren, die sich negativ auf Bildqualität und Kompremierbarkeit auswirken.

    mmmh, mag sein, dass ich SeeSaw völlig blödsinnig konfiguriert habe, aber im direkten vergleich von
    Sharpen(0.3) vs SeeSaw(NRlimit=0, NRlimit2=3)
    gewinnt sharpen bei mir. mit nrlimit=0 soll SS ja nicht denoisen, was ich auch nicht will, jedoch werden hier bereiche geschärft, die ich als völlig überflüssig betrachte, wie bspw. leichte farbverläufe an ner wand, die unscharf wie sie sind besser aussehen und wohl auch bitrate sparen. was schärfer werden soll, bspw. details in gesichtern, verarbeitet sharpen wunderbar, ohne das unnötige zu verarbeiten, wie SS es tut.


    also erstmal vielen dank... mein hauptproblem dürfte mit GradFun2db erlösung gefunden haben :)

    wally


    edit:
    dass ich nen deblocker vor dem croppen/resizen anwenden muss, ist mir klar. warum aber vor dem resizen schärfen und nciht erst danach?
    ebenso GradFun2db; sollte ich das auch unbedingt vorm resizen anwenden, oder ist der zeitpunkt da egal? immerhin wäre das nur die halbe anzahl pixel, dieverbastelt werden müssen und würde somit wohl reichlich performancegewinn bringen, wenn ichs nach dem resizen anwende.

    hio, danke erstma für die Antworten :)

    Die deblock-filter hab ich auch schon durchgehabt, haben jedoch seltsamerweise selbst mit extremen Parametern nichts zur Bildverbesserung in den entsprechenden Szenen beitragen können.

    Das letzte Script werd ich ma ausprobieren, hoffe das bewirkt was.
    Ich schätze, das sollte auch vor dem croppen/resizen angewendet werden, richtig?


    Wally

    Salve,

    ich lese mich nu schon seit Tagen wieder durchs Netz, auf der Suche nach ner akzeptablen Lösung für mein Problem:
    Quelle ist nen x264-Video, 720p, welches auf DVD-Norm soll, also 576p. Grundsätzlich ja kein problem...
    Schärfe vom Ursprungsmaterial ist größtenteils erstklassig, ebenso minimales Rauschen, was also keinerlei Filter bedarf. Den Schärfeverlust beim downsizen hab ich schlichtweg mit dem einfachen sharpen-filter ausgeglichen. Seesaw und LimitedSharpenFaster hatte ich ausprobiert, hat mir jedoch nicht die gewünschten Ergebnisse gebracht.

    So, Problem ist nu, dass stellenweise recht starke Verblockungen auftreten, also diese einfarbigen 8x8 Makroblöcke bei größeren Flächen mit gleicher/ähnlicher Farbgebung. Hab ma 2 Bildausschnitte angefügt, die das recht deutlich machen. Beim blauen Bild (Wasser) tritt in dem dunklen Bereich links der Luftblasen nen recht deutliches Pulsieren auf. Beim roten (ne Zimmerdecke) gibts nen stärkeres 'Flackern', welches die Verblockungen recht auffällig macht.

    [Blockierte Grafik: http://img505.imageshack.us/img505/3172/water1qc9.th.png] [Blockierte Grafik: http://img505.imageshack.us/img505/3001/red1jx6.th.png]

    Wie man sich wohl denken kann, würd ich diese Verblockungen gern loswerden, bzw. irgendwie kaschieren. Andererseits möchte ich den Rest des Videos, also die Szenen in denen wunderbare Schärfe herrscht, davon unberührt lassen. Die Verblockungen treten bereits in der Quelle auf, also nicht erst nach dem resizen; wie man im Script sieht, hab ich den deblocker vom Decoder aktiviert, wobei dieser eben nicht sonderlich viel nutzt.

    Bei der schier endlosen Menge an Filtern, die es gibt, bin ich nu etwas überfordert. Ich hab null Ahnung, welcher da evtl. das kann, was ich möchte. Ebenso gäbe es ja verschiedene Möglichkeiten, z.b. auch Grain hinzufügen, um das ganze zu 'verdecken' (wobei auch das dann nur an Stellen geschehen sollte, an denen diese starke Blockbildung auftritt). Die durchschn. Bitrate wird über 6000kbit/s liegen, daher sollte es zumindest kein Problem sein, würde die Komprimierbarkeit durch Grain oder so schlechter werden. Beim rumspielen hab ich in diesen Problemzonen z.b. mit dem FFT3D-filter halbwegs nette Ergebnisse gehabt, jedoch wurde hier eben alles weicher, was wiederum weniger schön ist.

    Die eierlegende Wollmilchsau kann ich wohl nicht erwarten, das ist mir klar, jedoch wäre ich dankbar über nen paar Tipps, mit welchem Filter ich da evtl. gewünschte Resultate erzielen kann.

    Da das wie gesagt auch nur in einigen wenigen Szenen vorkommt, könnt ich nen passenden Filter doch sicher auch ausschließlich für die entsprechenden Frames einsetzen. Mir würde jedoch nur die etwas umständliche Methode in den Sinn kommen, die Stücke mit Trim() zu teilen, für jedes Stück nen eigenes Script zu erstellen und dieses Stückwerk anschließend wieder zusammenzusetzen. Oder geht das einfacher? ^^

    Fragen über Fragen...
    Hoffe mal, das ist nicht zuviel zum lesen, aber lieber etwas ausführlicher als die Hälfte vergessen ;)

    Danke scho mal für Antworten

    Wally

    ------------------
    Bisher verwendetes Script...

    huiiii, vielen dank für die Erläuterung, super super super!!! :D

    ich denke, alle meine fragen hast du damit mehr als hinreichend beantwortet.

    mir ist nicht so richtig klar, was du mit dem Q per prediction und dem "1,25 passes" genau meinst, aber gut, was du mir sagen wolltest, hab ich soweit glaub ich verstanden :)
    ...und ob ich opv für den bestmöglichen wert nu 1, 2 oder 3x durchlaufen lasse, stört mich auch nicht weiter... 1 durchlauf ist ja schöner weise in <20min erledigt und wenn ich gleich den passenden wert finde, spar ich sogar nich zeit.

    Vielen vielen dank für deine Mühen, hast mir wirklich weitergeholfen! :daumen:

    gruß Wally

    Den Q-Faktor muss ich selbst vorgeben. Entweder ich mach das ganze mit BatchCCEWS oder ich stell CCE komplett manuell ein und da ist es ja zwangsweise auch nötig, Q selbst zu setzen.

    Bei RoBa verwendet CCEWS die OPV-Methode nur zum erstellen der VAF, danach wird nen multipass encode auf Basis dieser VAF durchgeführt. (damit wird dann ja sichergestellt, dass die gewünschte Zielgröße erreicht wird)

    Ich stelle also also für den ersten durchlauf
    - 1-pass VBR, Q=X, Output=nur 'Video information file' ein,
    beim 2ten durchlauf
    - Multipass VBR, feste avg-Bitrate, Output=nur 'Video files'.

    Eben deshalb war meine Frage ja, ob der Q-Faktor auf mein Ergebnis überhaupt Auswirkungen hätte, weil er ja 'nur' als Basis für die VAF verwendet, letztendlich aber mit multipass encodet wird.

    -------------------------------------------------------------

    Also wird der Quantization-Faktor bereits mit in das Video Information File einbezogen, oder würde der erst beim Encoden 'angewendet' werden?

    Denn wäre der Faktor erst beim Encode relevant, nicht aber beim erstellen der VAF, dann wäre es ja vollkommen irrelevant, welchen Wert ich dabei eingebe, da er nie verwendet würde.

    Wenn sich das Aussehen der VAF jedoch schon mit nem anderen Faktor ändert, hätte der Wert ja doch noch Auswirkungen auf die Qualität, ich müsste mich um diesen also auch kümmern.


    mir kommen beim schreiben selbst immerwieder irgendwelche neuen wirren gedankengänge, ich glaub deshalb wirds am schluss sehr schwer zu lesen ^^
    aber ich danke dir, dass du dich dennoch mit mir auseinandersetzt :D

    ich habs erwartet :D

    Q gibts aber zwangsweise auch bei RoBa, da die VAF doch mit der Methode erstellt wird.
    da ich auf dieser basis ja mit festgelegter variabler bitrate encode, also festgelegter zielgöße, war meine frage, ob ein ändern des Q-wertes überhaupt eine auswirkung auf das finale file hat, oder ob allein die variante, die bitrate durch quantisierung anstatt komplexität (siehe Rippraff's post) zu bestimmen ausschlaggebend ist.

    ich versuchs mal grafisch darzustellen ^^

    Code
    Q20 (5GB)      Q30 (3,6GB)
    |             |              |
    |-------------|------|-------|-------------
    |                    |
                     Zielgröße (4,36GB)


    Q20(bessere Quali) -> One-Pass/CQ 5GB Ziel
    Q30(schlechtere Quali) -> 3,6GB (theorie;beispiel)

    Beim anschließenden Multipass müsste bei Q20 somit ja auf Bitrate verzichtet werden (die anbestrebte quali kann also nicht restlos gehalten werden)...
    bei Q30 kann jedoch noch dazugegeben werden (die angestrebte quali wird also gehalten).

    würde dies nun die quali beeinflussen, oder ist cce so intelligent, um es in beiden fällen perfekt anzugleichen?


    Wenn ich mir vorstelle, dass cce die Quantisierung ausliest und in der vaf speichert und dieser Wert mal Faktor Bitrate genommen wird, wäre der gewählte Q-Wert ja irrelevant, da ja ein einheitlicher Wert als Basis genommen wird.

    Wenn sich bei unterschiedlichen Q-Werten jedoch schon bei der Berechnung andere Werte ergeben (die also nicht bei jedem Frame denselben Unterschied haben), welcher Wert wäre dann besser?


    noch geb ich nicht auf... irgendwann verfass ich schon nen text, den jemand versteht :D

    verdammt, hin und wieder denk ich etwas verquer :D
    mit 'niedriger CQ-Wert' dachte ich umgekehrt, also 100=niedrig, 0=hoch, also nen qualitatives niedrig ^^

    Aber soweit isses mir dann erstmal klar, was genau die Unterschiede sind (so in etwa hatte ich mir es ja gedacht), wobei ich mit der Quantisierung noch nich so richtig was anfangen kann (muss wohl noch viel lernen ^^).

    Schon mal vielen dank für die erklärung, bin wieder etwas schauler :)

    Das einzige was mich noch grübeln lässt ist die Auswirkung des Wertes, den ich beim OPV angebe (in Verbindung mit der RoBa-Methode natürlich).

    Angenommen mit der verfügbaren Bitrate ist ein größeres Ergebnis möglich, als mit dem OP-Wert 'angestrebt' wurde (bei meinem Beispiel kam ich bei 25 auf 2GB, jedoch wären 3GB verfügbar), hätte der Wert dann eine spürbare auswirkung, auch wenn er höher (also z.b. bei 40, und damit das erzielte OPV-Ergebnis noch kleiner) wäre?

    Und die andere Seite... wenn mit dem eingestellen OP-Wert ein Ergebnis erreicht werden würde, welches ÜBER dem verfügbaren Platz liegt, könnte in dem Fall ein besseres Ergebnis erreicht werden, wenn man einen höheren OP-Wert nimmt, der eine Größe unter dem verfügbaren Platz erreichen würde?

    ...oder ist der OP-Wert in Verbindung mit Multipass völlig irrelevant und es wird bei jeden Wert die gleiche qualität erreicht?

    danke nochmals für aufklärende Worte :D

    Welcher Link wo? Bitte exakt, damit er evtl. repariert werden kann.

    Ansonsten... Bei DVD-5 zu DVD-R wird nicht neu komprimiert. Da gibt es geeignetere Spezialtools, um evtl. Struktur zu ändern, Teile wegzulassen usw.; und dass man in "Top-Qualität" eine original DVD-9 sofort auf weit unter 4 GB kriegt, ist ohne mehr Details auch kaum vorstellbar.

    http://forum.gleitz.info/showthread.php?t=4752
    beide links am ende des posts führen ins leere. ersterer scheint noch von vor dem boardumzug(oder änderung der forensoftware) zu sein, letzterer scheint beabsichtigt 'deaktiviert' zu sein.

    Bei DVD-5 zu DVD-R ist klar, da mach ich keinen reencode, wäre reichlich sinnfrei.

    Moin,

    auch wenn die Fragestellung nicht ganz klar ist - CQ25 ist ja bei weitem nicht das Ende der Fahnenstange, auch wenn es schon sehr gut aussieht. Und: Ja - das ist Sourcenabhängig; d.h. ein anderer Film gleicher Länge kann bei CQ25 durchaus 7GB groß werden (sonst identsche Instzellungen vorausgesetzt)...

    Gruß Karl

    @beide
    danke für die antworten :)
    also mir gings darum, obs beim reduzieren von DVD9 auf DVD5 sinn macht, die RoBa-Methode zu verwenden.

    Mit meinem Beispiel wollte ich nur zeigen, dass es bei diesem einen Test mit nem relativ niedrigen CQ wert bereits ne erstklassige quali ergab, das platzlimit der dvd jedoch ne ~60% höhere avg-bitrate zuließ.

    Daher drängte sich mir die Frage auf, welcher sinn und zweck dahinter steckt, die Video Information File auf Basis des 1-Pass-modus zu erstellen.

    Anders ausgedrückt:
    Welchen vorteil bietet die methode gegenüber nem alleinigen Multi-Pass encode (bei welchem ja die .vaf aufgrund der avg-bitrate erstellt wird(?)), also was genau wird da anders gemacht?
    Das ist der Punkt, der mir nicht so ganz klar ist.

    Hoffe, es ist nun etwas ersichtlicher, was ich überhaupt will ;D

    Wally

    salve.

    die suche habe ich schon genutzt, konnte jedoch nichts zufriedenstellendes finden. auch google spuckt mir immer nur brockenhafte infos aus, die nich wirklich für aufklärung sorgen.

    und zwar folgendes: verwende gewöhnlich die Big3(000) mit CCE.
    nun bietet BatchCCEWS ja direkt die möglichkeit, die RoBa methode zu verwenden, was, wenn ich richtig beobachte und verstanden habe, lediglich die erstellung der VAF mit Constant Quality zur änderung hat.

    Nun ist genau dieser Schritt das, was ich bei ner DVD nicht ganz verstehe.
    Habe testweise einfach mal nen Film (16:9, 93min, sehr gute, scharfe, rauschfreie bildquelle) nur mit CQ25, CQ30 und CQ 50 encodet.

    ergebnis war:
    CQ25 - 2,0gb, quali 1
    CQ30 - 1,8gb, quali 1-
    CQ50 - 1,38gb, quali 2- (um die konturen herum wurds etwas blockig)

    nun bietet CQ25 schon ne exzellente quali, liegt aber noch über 1gb unter dem, was für das video für ne dvd5 zur verfügung stünde.
    ist das nu zufall, weil die source einfach so saugut ist und sich scheinbar exzellent komprimieren lässt (ist eigentlich sehr farbintensiv, kaum dunkel etc) oder kann ich da grundsätzlich so nen kleines ergebnis erwarten?

    wenn letzteres der fall ist, was hätte es für einen sinn, wenn ein qualitätslevel angestrebt wird, welches weit unter dem möglichen liegt? oder hab ich da irgend nen argument bei vergessen?

    sorry wenns das thema schon gab und ich es einfach nur übersehen hab (der link zur möglichen diskussion im gepinnten roba-thread führt ins 404), bitte nich übel nehmen :)

    danke scho mal für aufklärung

    wally

    Hallöli,

    ich mach meine sicherungen gewöhnlich mit den Big3 und will da auch nich wirklich von weg. nu wollt ich doch gern mal sehen, was der CCE SP2 so besseres leisten kann als der alte CCE SP.
    BatchCCEWS unterstützt den neuen nicht, das hab ich schon gemerkt, deshalb wollt ich den schritt einfach manuell gehen, is ja soweit kein thema.
    nur eine sache macht mir sorgen und ich weiß nicht, wie weit das die herstellung der originalen struktur (kapitel/cells) des filmes beeinflusst:

    Code
    ;Version 1.0.1.6
    0,"C:\DIF4Uoutput\VTS01\VTS__01_P01.P.16~9_1.AVS",0,9032,3407,0,5,30,16,0,217610,
    -1,-1,-1,-1,-1,0,7236,12724,21439,27571,34534,37408,43302,46536,53502,61496,68244,
    73892,78858,85888,90820,97448,105071,106890,107804,114286,119005,125678,129888,
    138856,143132,149287,154984,160908,168130,173863,177056,181300,188237,194621,
    199820,206127,208205

    das ist die ccedata-file von scenaid, die ich in batchccews lade. bis zu den -1 werten solltens grundlegende einstellungen wie min/max/avg bitrate usw sein, ab der 0 die kapitel bzw. cell-trennungen.
    Meine Frage ist nun, ob batchcce die cell-werte nutzt oder das im späteren verlauf von scenarist erledigt wird?
    Ich hab in BatchCCEWS zwar den eintrag "Use Chapter Points File (if it exists)" gefunden, welcher bei mir nicht aktiviert ist, jedoch bin ich nicht sicher ob damit diese einträge gemeint sind.

    Kurzum, muss ich diese cell-markierungen auch beim manuellen erstellen mit CCE SP2 beachten oder kann das ignoriert werden (z.b. weils von scenarist gehandhabt wird)?

    schon mal danke für hilfe :)

    Wally

    moin,

    hab nen riesen problem. musste mein system formatieren und nu spinnt CCE rum.

    Ich arbeite immer mit den Big3, also DVD-Image in Daemon-Tools mounten und mit DoItFast4U demuxen. danach mit scenaid script erstellen und batchccews wird geladen. (roba-methode, 5-pass, min. bitrate 0, max 9080 oder so)

    nuja, ich starte mit batchccews, CCE Trial (2.70.02.11 sowie ...09) startet, erstellt im ersten durchlauf die .vafdatei, klappt wunderbar.
    CCE beginnt zu arbeiten und schmiert genau beim Übergang vom ersten zum zweiten Pass ab, ohne fehlermedlung ohne nix.

    Ich hatte das problem vor jahren schonmal mit der 2.50 oder 2.67 gehabt, aber mann mich überhaupt nicht mehr daran erinnern, wo das problem lag und wie ichs gelöst hab.

    Prozzi ist übertaktet (E6300 @ 2,33ghz), ram nicht (mdt 1gb single channel). ich hab damit bisher jedoch keine probleme gehabt. vorm formatieren hab ich mit dem system ohne probleme umwandeln können und cce ist nie abgeschmiert.

    hat irgendjemand ne idee, woran des liegt? hab das forum und google schon durchforstet, konnte aber bisher nichts passendes finden. das problem ist kein unbekanntes wie ich gemerkt habe, jedoch war nie ne lösung zu finden.

    ich such auf jeden fall weiter aber sollt jemand mehr wissen als ich, über hilfe wäre ich sehr sehr dankbar.

    gruß

    Wally

    danke für die Antworten :)
    hab mal nen Sample erstellt. Lässt sich mit mpc seltsamerweise nicht abspielen, mit vlc jedoch schon, deshalb hab ich das Ergebnis mal so akzeptiert. Sollte jemand Freude dran haben, sich daran zu probieren, um nen akzeptables Ergebnis irgendeiner art zu erzielen, hätte ich gegen Vorschläge nix einzuwenden :D
    http://rapidshare.com/files/22079783/sample.zip.html

    Didée: Ich werd deinen Ratschlägen mal folgen, hoffe nur, damit auch einigermaßen zurecht zu kommen ^^

    nexustheoriginal: Mir wurde bisher stets davon abgeraten, interlaced Material mit niedriger Bitrate zu vereinen. Und ~3500 seh ich doch als recht niedrig an.

    Moinsen!
    Ich bin nich allzu bewandert mit dem erstellen von avisynth-scripten, hab dashalb meist vorlagen verwendet und die meinen bedürfnissen nach kenntnisstand angepasst.
    Nu hab ich hier Interlaced ausgangsmaterial rumliegen (PAL, 25fps, japanischer ursprung, kein anime).
    hab mir also nen script erstellt, welches soweit funktioniert und auch von der qualität nachm umwandeln zufriedenstellend ist. nu hab ich jedoch bemerkt, dass das bild hackt. dies sieht man bereits, wenn ich das script im player abspiele, liegt also nicht am encoden, sondern definitiv am script.

    ziel ist wieder dvd. da die volle bildbreite beim ausgang nicht genutzt wurde und rechts mehr rand war, hab ich resized. mit den werten hab ich ne fehlerrate von 0,0% bekommen. die ränder oben/unten hab ich mit LetterBox neu gemacht, da sie nachm deinterlacen pulsiert haben, was störte.

    nuja, wie gesagt hackt das bild jedoch alle sekunde, was ich mal aufs deinterlacen schiebe. aber da ich letztendlich kaum ahnung von den filtern habe, weiß ich nich, inwiefern ich das ergebnis mit anderen einstellungen bei TDeint positiv beeinflussen könnte. hab die erklärung dazu zwar gelesen, jedoch nicht das gefunden, was mir vielleicht helfen könnte.

    da ich nur ne avg-bitrate von 3480 zur verfügung habe, wollt ich das material nich interlaced lassen, da des dann wohl eher bescheiden werden dürfte, oder nicht? zudem müsst ich aufs resizen dann vermutlich auch verzichten, oder lässt sich das damit noch vereinbaren?

    hoffe mal, hier kann mir nen kompetenter kopf weiterhelfen.
    vielen dank scho mal :)

    Wally

    sorry ^^
    wie gesagt, is bis auf die pluginpfade übernommen, einstellungen konnt ich ohne bild ja noch keine tätigen.

    hallöli,
    die frage mag etwas dämlich sein, aber ich bin selbst grad etwas überfragt, da ich nich weis, was avisynth nicht passt.

    und zwar war meine absicht, ne zeichentrick-serie in avis umzuwandeln. dabei hab ich mich an dieses universelle anime avs script von hier erinnert und dacht mir, damit könnt ich mal rumspielen. also script komplett kopiert und in ne avs gepackt, das pluginpack geholt, alle ins pluginverzeichnis von avisynth und die pfade in der avs angepasst.

    nu kommt jedoch, wenn ich versuche, die vob (zum testen nen stück mit chopper-xp rausgeschnitten und dafür das d2v-prjekt erstellt) über das script zu laden, die fehlermeldung
    "MPEG2SOURCE: The input file is not a D2V project file.
    (C:\***...***\test.AVS, line 27)"
    Dementsprechend passt ihm scheinbar was nicht an der d2v-datei, deren pfad in zeile 27 steht.

    Wenn ich jedoch nen stinkeinfaches avs-script erstelle, das mpeg2-plugin lade und mit "mpeg2source("test.d2v",idct=7)", wie auch original in dem anime-script, auf die quelle verweise, kann ich die avs im player (mpc) ohne probleme öffnen und abspielen.
    demnach hab ich eben keine ahnung, was des ding will, da die zeile ja eigentlich korrekt ist. im anime script is ansonsten auch alles so belassen wie es hier zu finden war (abgesehen von den pfaden zu den plugins, die alle korrekt sind).

    Da ich damit noch irgendwas um die 60-90x22min bearbeiten darf, wäre ich überaus glücklich, wenn mir da irgendjemand helfen könnte. :)

    ich danke scho mal

    Wally

    neu encoden, weil das material für ne dvd5 zu groß ist. mit der hohen benötigten bitrate hab ich auch schon des öfteren gelesen, aber die 4500kbit sind das äußerste was möglich ist.


    hab dabei die vob2 vom film gescannt.

    also ziel wie gesagt ne dvd5. angeschaut solls zzt. auf nem normalen röhren-tv werden (dafür reicht des bild auch aus, mein dvd-player filtert das bild eigentlich ziemlich gut), jedoch will ich aufm lcd dann nich die totale enttäuschung erleben, sollte einer in nächster zeit angeschafft werden.