Wie ist das Verhältnis von bitrate und pixelanzahl ?

  • Nehmen wir zwei ansonsten gleiche Videos, die sich nur in Auflösung unterscheiden:

    Video 1: 640x480 Pixel
    Video 2: 352x288 Pixel

    Wenn jetzt beide mit einer Bitrate von sagen wir 600 kbps encoded sind dann hat das erste doch die eindeutig schlechtere Qualität oder sehe ich das falsch?

    Es müsste irgendwie eine Kennziffer geben von Bitrate je angezeigtem Pixel Auflösung. Das wäre in obigen Fällen:

    1.) 640x480/600000 = 0,512
    2.) 352x288/600000 = 0,16896

    Wieso wird diese Kennziffer nicht als Qualitätsmassstab verwendet ?

  • Zitat von mattad

    Wieso wird diese Kennziffer nicht als Qualitätsmassstab verwendet ?


    Weil das nicht geht. Weil Video nicht gleich Video ist. vergleiche bitte ein rein schwarzes Video mit einer Regenbogen Animation., da braucht das bunte VIEL VIEL mehr Bitrate als das andere. Und somit gibts es KEINE echte Formel oder "Kennziffer".

  • Eben, genau wie Katjarella sagt. Hinzu kommt noch folgendes:
    640x480 sind natürlich immer schärfer als 384x288 (oder auch 352x288). Sind schließlich mehr Pixel da, und mehr Pixel können auch mehr Details darstellen.
    Was bezeichnet man jetzt als "besser"? Geht es um die Schärfe, ist natürlich das 640er "besser". Geht es aber um Blockfreiheit, dann ist bei dieser Bitrate das 384er besser.
    Als weiteren Punkt muss man bedenken, dass die Effizienz der Encoder mit der Bildgröße besser wird. Höhere Bildgröße bedeutet auch, dass es öfters mal größere Flächen gibt, die einfacher zu encoden sind.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!