Nehmen wir zwei ansonsten gleiche Videos, die sich nur in Auflösung unterscheiden:
Video 1: 640x480 Pixel
Video 2: 352x288 Pixel
Wenn jetzt beide mit einer Bitrate von sagen wir 600 kbps encoded sind dann hat das erste doch die eindeutig schlechtere Qualität oder sehe ich das falsch?
Es müsste irgendwie eine Kennziffer geben von Bitrate je angezeigtem Pixel Auflösung. Das wäre in obigen Fällen:
1.) 640x480/600000 = 0,512
2.) 352x288/600000 = 0,16896
Wieso wird diese Kennziffer nicht als Qualitätsmassstab verwendet ?