Geforce6 mit programmierbaren MPEG1/2/4 Encoder

  • Hmmmm.....wenn man das so liest, könnte sich der Funktionsumfang von Software MPEG4 Encodern bald ändern bzw. erweitern. Wenn die Geforce6 Karte das hält, was sie in diesem Featurenbereich verspricht, könnte man ja auf noch schnelleres MPEG4 Encoding hoffen.....und sei es nur, daß die CPU entlastet wird. Vielleicht wird sich die Qualität eines Software Encoders demnächst auch u.a. daran bemessen, welche Qualität sie aus solchen Hardware-Chips per Softwareansteuerung rausholen kann?!?

    Ok, da die GF6 Karten noch nicht zu kaufen sind, kann man derzeit nur Mutmaßen, aber es ist eine interessante Mutmaßung, wie ich finde.....

    Gruß,
    Gromit

  • Leider vermute ich das dort nicht die genauesten Algorithmen verwendet werden und das auf Grund des Preises erstmal kaum Projekte die Features verwenden werden. (Die Programmierer bräuchten immerhin die Karte um zu testen. => Vielleicht verwendet DivX bald die Grafikkarte, aber bei Xvid wirds wohl noch dauern.)

    Die Karte wird ja keinen Encoder als solches haben, sondern 'nur' einige Funktionen die man beim Encoden braucht z.B. MotionEstimation können soweitz ich bis dato gehört habe, aber wir werden sehen.

    Cu Selur

  • Selur
    Woher hast du Infos darüber das nicht genau genug gerechnet wird?
    Also leider habe ich noch nicht die Zeit gehabt verschiedene Artikel zu lesen, aber nach dem was ich bis jetzt las kann die GF6 doch relativ genau rechnen (64Bit Ausgabe, und PixelShader ist dank 3.0 ebenfalls noch genauer [obwohl die GF FX auch schon sehr genau war, was ihr ja zum Verhängniss wurde]. All diese Komponenten zeigen das Nvidia doch Wert auf Genauigkeit nimmt).
    Aber ich lass mich gerne unterrichten!

  • Sicher bin ich mir nicht, dass nur eine Vermutung die ich daraus gezogen habe wie bis dato die Möglichkeiten waren die GPU zum Encoden zu nutzen. Außerdem werden sie z.B. beim Resizen und Deinterlacen wahrscheinlich eher Algorithmen genommen haben die möglichst mit an den Rechenopertionen die bis dato von gpu's gemacht worden sind 'verwand' sind. (leider sind diese Algorithmen meist nicht so genau, bin da auch kein Pro)

    Sicher ist es möglich auch die komplexeren/genauern Algorithmen in Chips zu brennen, nur ob diese Chips dann auch noch mit Shader&Co Funktionen kompatibel sind bezweifle ich momentan.

    Cu Selur

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!