Beiträge von Kika

    Zitat

    und dass der e6600 was feines ist braucht man nicht sprechen.

    Ich fand's etwas verwirrend, dass die Taktfrequenzen gegenüber der Vorgängerversion der Dualcore-Prozessoren wieder gesunken sind, aber die Leistungsfähigkeit beim Encoden ist bislang beeindruckend. Bei Spielen, besonders den modernen, kenne ich mich allerdings nicht so gut aus.

    Also, da hier der Preis eine Rolle zu spielen scheint: Mein neuer PC hat mich 1250 Euro gekostet.

    Die Komponenten:
    Core 2 Duo 6660
    1 GByte DDR2-RAM
    2 Samsung 250 GByte Serial-ATA-Platten
    GeForce 7950 GT
    LG DVD-Laufwerk
    LG DVD-Brenner (Dual Layer mit Lightscripe)
    Mainboard ASUS P5LD2 LE
    Midi-Tower Cooler Master + Papst-Gehäuselüfter
    Windows XP Home

    Das Ding ist bei allem was es tut bislang derartig schnell, der langweilt sich sogar bei h.264 in 1080p im Klon-Mode mit 2 verschiedenen Monitor-Auflösungen. Von daher halte ich den Preis für mehr als angemessen.
    Bei Prozessor-Lüfter auf Vollgas lässt er sich problemlos auf 2x3GHz übertakten - was will man also mehr?
    OK, nächsten Samstag kaufe ich mir halt noch 1 GByte RAM ... Wenn Spiele wirklich so viel RAM brauchen ...

    Zitat

    Ob und wie sich diese Ausreißer negativ bemerkbar machen, muss erst durch eine Sichtkontrolle überprüft werden.

    Exakt da steckt das Problem: Wie stark nehmen die verschiedenen Leute sowas wahr? Ich als Video-Irrer bemerke jede Blockbildung und jedes Ruckeln. Egentlich kann ich jede Schwäche sofort entdecken - ist halt die Frage, wie ich sie bewerte. Unschärfen, wie sie z.B. durch Half-D1 enstehen, stören mich weniger als Blockbildung. Ich kenne aber auch durchaus Leute, die sowas auch dann nicht sehen, wenn man sie mit der Nase drauf stößt.

    Das mag aber jeder für sich selbst entscheiden.

    Das mit den Fixationspunkten ist ein zweischneidiges Schwert. Es gibt ja noch sowas wie die globale Wahrnehmung und die Randwahrnehmung. Wir bemerken durchaus große Änderungen eines größeren Bereiches auch dann, wenn sie außerhalb des Fixationspunktes liegen. Am Beispiel des Ferraris fällt das prima auf. Selbst, wenn man sich ausschließlich auf den Wagen konzentriert, nimmt man die doch starke Änderung des Hintergrundes deutlich war.
    Erinnert Ihr Euch noch an Dinge wie "Lebende Wände"? Oder das Pumpen von großen Flächen mit wenigen Details? Das alles betrifft Dinge, die bei der Betrachtung nicht im Fixationspunkt liegen.
    Hinzu kommt, dass man manche Dinge in ruhigen Bildern viel viel stärker bemerkt als bei starker Bewegung. Das macht es ja gerade so schwierig, ein mathematische Modell zur Beurteilung von Bildqualität zu entwickeln.

    Das würde das Problem nicht lösen, da dann die Ruckler exakt DURCH die Wandlung von 50 auf 60 Hz auftreten würden.

    Eine Bewegtbild mit der Framerate x ruckelt immer, wenn es mit Framerate y abgespielt wird und beide nicht direkt geradzahlig durcheinander teilbar sind.
    25 Hz geht bei 25, 50, 75, 100 Hz ruckfrei, aber auf 30, 60 etc. Hz niemals.

    Nun, warum ch SSIM nicht traue:
    SSIM unterschlägt Fehler, die beim Transcoden entstehen. Das deshalb, weil sie nur einzelen Blocks, Macroblocks oder bestenfalls Slices betreffen (bei MPEG2). Dummerweise kann man solche Fehler aber SEHEN.

    Das Problem ist, dass Encoder das Bild global betrachen und alles verändern, während DCT-Transcoder aber gezielt nach bestimmten Kriterien nur einzelne Bildelemente verändern. Global betrachtet, verändern Encoder also immer mehr am Bild, als dies DCT-Transcoder tun - ob dies nun aber zum Guten oder Schlechten geschieht - wer legt die Regeln fest, nach denen das bewertet wird?

    Ein Beispiel: Ein Transcoder entscheidet, dass eine große Fläche, die ein Drittel des Bildes einnimmt, ruhig stärker komprimiert werden kann(wobei sie versaubeutelt wird), während der Encoder aber das geamte Bild verändert - nur, was empfindet man auf psychovisueller Ebene als besser? SSIM mit Sicherheit den Transcoder, Menschen aber den Encoder.

    Habe ich. Die neue ist ja voll für den Ar... träge, unübersichtlich und eigentlich so gut wie unbrauchbar. Hallo? Da werkeln zwei echte und zwei virtuelle Prozessoren - und trotzdem ist das träge wie sau? *kopfschüttel*

    Der Witz ist ja, dass es völlig unproblematisch ist, auf Bildschirm 1 mit 1024x768 und auf Bildschirm 2 mit 1920x1080 zu arbeiten - das klappt perfekt, solange es nur um den Desktop geht. Bei Vollbildvideo haben beide Control-Panele aber nur die Wahl zwischen Aus und Automatik - letztere ist halt so eine Art Zufallsgenerator, was die Wahl zwischen 720p und 1080i betrifft. :(

    Aber ich will nicht meckern, der Teststream des Films "300" von Anixe HD kommt auch in 720p titanisch gut rüber. Ich muss nur mal mein Multimedia-System auf Vordermann bringen, denn beim Abspielen via VLC ruckelt es leicht, da gibt's wohl Timing-Probleme, denn auf dem primären Monitor ruckelt es nicht (Prozessorlast = 2x45%).

    Die Mühe, die Ihr Euch macht in allen Ehren - der Sinn indess erschließt sich mir nicht so ganz.
    Der SSIM-Wert kann mir doch gar nicht sagen, ob Ergebnis A besser ist als Ergebnis B. Über das Warum wurde ja schon hinreichend diskutiert.
    Wenn solche Messergebnisse Sinn haben sollen, dann müssen sie innerhalb einer Gruppe gleich arbeitender Programme ermittelt worden sein. Also nur Transcoder oder nur Encoder.

    Na ja, die olle Kiste läuft ja noch perfekt. Ist halt nur ein P4 1,9.

    Der neue ist ein Core 2 Duo E6600 - der geht ab wie Lotte. :) Der langweilt sich sogar bei 1080p in h.264. :D

    Nur das Problem - ein echtes Problem ist's ja nicht - mit dem LCD-TV am DVI-Anschluß 2 nervt etwas.

    Zitat

    Machst dich in letzter Zeit ja ganz schön rar..! Soviel Arbeit..?

    Auch, ja.
    Ich bin generell nicht mehr so aktiv in den Foren wie früher.

    Zitat

    Wäre es möglich, dass du deshalb noch keine Antwort bekommen hast, weil deine Graka noch relativ neu, nicht SOO weit verbreitet.., oder (jedenfalls für die Meissten!) noch "sau-teuer" (oder zu-) ist..?

    Nun, bereits mit der alten GeForce war das ähnlich, von daher hätte es ja ein Treiberproblem sein können..

    Ansonsten hab ich mir letzte Woche einen komplett neuen PC geleistet - mit lauter guten Sachen drin. ;)

    Sacht ma... Kann man einer GeForce 7950 irgendwie beibringen, einen genau definierten Video-Out-Modus via DVI immer einzuhalten? Denn irgendwie verhält sich da meine nach dem Zufallsprinzip.
    Mal schaltet sie meinen LCD-Fernseher auf 1080i, mal auf 720p - und das auch noch unabhängig von der Videogröße.

    Nutzen tue ich den Klon-Modus, bei dem Bildschirm 2 (der via DVI angeschlossen ist) das Vollbild-Overlay anzeigt. Bildschirm 1 ist ein Monitor, der über DVI-VGA-Adapter angeschlossen ist.

    Nerven tut das deshalb, weil z.B. die 1080p-Teststreams im Modus 720p ausgegeben werden, während manche DVDs auf 1080i hochgezogen werden.

    Während der Desktop dargestellt wird, hält sich das Teil an die vorgegebene Auflösung, nur eben bei Videos nicht.

    Ihr macht Euch das alle zu kompliziert.

    Ein ppar Dinge sind wichtig:

    1. PAL hat immer 576 Zeilen - notfalls dadurch, dass man mit schwarz auffüllt.
    2. MPEG kann horizontal gestaucht sein
    3. Bei MPEG2 sind Pixel nicht quadratisch, sondern rechteckig
    4. Die Stauchung bei anamorpher Speicherung beträgt immer 1.33:1
    5. Formate wie 480x576 basieren auf Vollbildauflösungen, sind aber horizontal gestaucht.

    Wenn Ihr rechnen wollt, geht einfach davon aus, dass auf DVD nicht 720x576 gespeichert wird, sondern 768x576 (entspricht 704x576 und ist erlaubt).