• Hallo Forum!

    Möglicherweise gibt es auf meine Frage ja aktuelle Antworten, aber Google spuckt mir eher "alte" Antworten aus.
    Ich benutze Staxrip 1.3.1.6_beta und zum ersten Mal NVEncC.

    Dazu meine Frage, wie sieht es aktuell mit den Qualitätsunterschieden zwischen CPU und GPU Umwandlung aus?
    Man liest des Öfteren, dass CPU Umwandlung viel besser sei, aber diese Meinungen sind doch teilweise 1 Jahr alt oder mehr und in der Programmierung wird sich seither doch schon einiges geändert haben, so meine Vermutung.

    Die Geschwindigkeit mit der GPU ist extrem! :cool:
    Ich habe eine GTX 980 Ti.

    Wenn der Qualitätsunterschied nur eher gering sein wird, dann möchte ich in Zukunft von der GPU nicht mehr weg, wenn die Unterschiede aber doch eher drastisch sind, dann nach wie vor CPU.

    Gibt es von euch Erfahrungswerte?

    Ist die Standardeinstellung von Staxrip mit NVEncC für nicht Profis ok, welchen Einstellungen entsprechen diese mit der normalen x264 CPU Konfiguration?

    Und vor allem, wie kann ich die einzelnen Qualitätsunterschiede feststellen? Ich habe kein sonderlich gut geschultes Auge, sodass ich wohl tatsächlich Standbilder brauche, die ich neben- oder übereinander vergleichen muss.
    Mit Staxrip kann ich zwar ein Preview Fenster aufmachen, aber nicht speichern.
    Ich bin mir nicht sicher, ob die Preview Bilder stimmen, da ich überhaupt keinen Unterschied erkenne. Möglicherweise sind die nur zum Schneiden usw. gedacht.

    Könnt ihr mir vielleicht ein paar Tipps geben?


    LG,
    Stoffl

  • Solange die Komplexität der GPU-Algorithmen sich nicht ändert, also vor allem der Vergleich mit vorherigen (und zukünftigen) Frames eher sehr begrenzt bleibt, wird sich an den Nachteilen gegenüber CPU-Encodern nicht viel ändern. GPU-Encoding mag extrem schnell sein können, das kann CPU-Encoding mit mehreren Kernen aber auch sein. Und wenn die Bitrate knapp wird, dann wirst du beim GPU-Encoding sicherlich schneller als beim CPU-Encoding Qualitätsverluste feststellen, da erst der Vergleich der zeitlichen Entwicklung die Video-Encodierung richtig effizient macht, und gerade die ist in der GPU noch immer stärker eingeschränkt.

    Bei intel mit QuickSync hat man da wohl noch etwas bessere Algorithmen als bei Nvidia oder gar ATI.

  • Sorry für meine späte Antwort! :hm:
    Danke jedenfalls für die Info.

    Schade, dass da nicht mehr gemacht wird von den programmierern.
    Aber das Geld liegt eben hauptsächlich am Spiele Markt, deshalb geschieht da auch mehr.

    LG

  • Die Programmierer können ja nicht mehr machen, als ihnen die Hardware erlaubt. Grafikchips sind für so manche Dinge geeignet, für Video-Encodierung aber eher nicht ganz optimal strukturiert.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!