HDR mit DisplayPort/HDMI

  • Hi,

    ich habe:

    Wenn ich den Monitor per DisplayPort anschließe, wird er richtig als 10bit erkannt.

    Wenn ich den Monitor allerdings per HDMI anschließe, wird er nur als 8bit erkannt.

    Als HDMI Kabel verwende ich ein deleyCON 5m HDMI Kabel 2.0a/b - High Speed mit Ethernet - UHD 2160p 4K@60Hz 4:4:4 HDR HDCP 2.2 ARC CEC Ethernet 18Gbps 3D Full HD 1080p Dolby (https://www.amazon.de/gp/product/B005M0XU32).


    Habe leider nicht noch einen HDR Bildschirm zum Testen, darum die Frage: Übersehe ich da was? Eigentlich sollte das doch klappen, oder?


    Cu Selur


    Ps.: Nein, DisplayPort nutzen ist keine Lösung, da ich die zwei DisplayPort-Anschlüsse für meinen HP Z27q (https://support.hp.com/de-de/document/c04601277) brauche. "Die Grafikkarte des angeschlossenen PCs muss 5120 x 2880 bei 60 Hz unterstützen und über 2 DisplayPort-Ausgänge verfügen, um den Monitor im bevorzugten Modus zu betreiben." mit einem HDMI Kabel ist bei 4096x2160 Schluss (da geht aber 10bit).

  • Okay, wenn ich HDMI und 30Hz verwende, gehen 12bit obwohl es ein 10bit Panel ist,...

    -> nicht viel schlauer als vorher, entweder kann die Grafikkarte nicht mehr als 30Hz bei HDMI und 4k oder der Monitor.

    Werde ich wohl erst klären können, wenn ich 'ne neue Grafikkarte habe, aber das wird noch dauern.


    Cu Selur


    Ps.: okay, die Tage leihe ich mir von nem Kumpel mal dem seinen 4k Monitor zum Testen obs on Grafikkarte oder Monitor liegt.

  • vielleicht must du das Ausgabeformat von RGB auf YCbCr* oder ähnlichem im nvidia pannel umstellen.

    die 4k/10bit kommen wohl nicht ohne kompromisse.

    entweder von der grafikkarte(/anschluss) oder vom monitor(/anschluss).

    war bei meinem supa dupa benq auch eine offenbarung.

    4k/10bit kann der nur im YCbCr*-modus

    bedonnders hdmi wird immer wieder bei der auflösung rumgetricks...

    ...bei filmen fällt ja sowas nicht auf.


    aber kannst ja den hersteller ja mal n liebesbrief schreiben... ;D


  • Selur:

    Den Spezifikationen nach, macht der Monitor aus China 4k und 60 Hz.

    Die Asus Geforce 1070 ti mit 8 GB ist eine gute GK. Stellt auch 4k zur Verfügung, allerdings so wie es aussieht nur mit 30 Hz.

    Zu 10- und 12Bit, sind keine Infos zu finden. Da müsstest du einmal in der Bedienungsanleitung nachsehen.


    Aus eigener Erfahrung, kann ich nur sagen, dass ein HDMI-Kabel mit 5m für 9,99 Euro kein stabiles Bildsignal liefert.

    Bei HDR10+, 60Hz, und 18GBit/s in 4:4:4 RGB meiner Meinung nach schon gar nicht. Bei 4k braucht man min. eine Datenübertragungsrate von 21 GB. Eigentlich sollten es 24 GB.


    Das DisplayPort-Interface mit 77,4 GBit/s ist am schnellsten. Aber Vorsicht da gibt es auch DP-Kabel mit nur 18- oder 36 GB.

    Die schnellsten HDMI-Kabel bieten zurzeit 48 GB, so wie das EQUIP 119383 Ultra-High-Speed-Kabel.


    EQUIP 119383 Ultra-High-Speed-Kabel, 48 Gbit/s


    Ich denke, das Kabel ist noch bezahlbar mit 21,95 Euro.


    HQ-LQ:

    Ich sehe, dass bei deinem GK-Treiber unter „Dynamischer Ausgabebereich“ „Begrenzt“ (16-235) ausgewählt ist.

    Aktuell stellt man für Monitore, immer auf den vollen Bereich von 0-255 ein, egal ob es RGB oder YUV ist.

  • Zitat

    Ich sehe, dass bei deinem GK-Treiber unter „Dynamischer Ausgabebereich“ „Begrenzt“ (16-235) ausgewählt ist.

    Aktuell stellt man für Monitore, immer auf den vollen Bereich von 0-255 ein, egal ob es RGB oder YUV ist.

    Mach ich auch, tv scale war nur ausgewählt weil ich kurz vorher die Treiber neu installiert und alles zurückgesetzt hatte.

    Werde mal mit nem anderen Kabel versuchen.

  • der treiber läuft automatisch auf 'begrenst' wenn ich einen YCbCr*-modus auswähle.

    aber scheinbar kocht windows 11 noch seine eigene suppe.

    so muss man in den windows einstellungen extra den HDR modus aktivieren.

    der ignoriert auch die nvidia HDR einstellungen.

    ich weiß dann auch nicht was windows für ein ausgabeformat wählt.

    bei mir sieht dann alles so blass/farblos aus.

    zz lauf ich weiter im SDR... 🤷

  • Selur:

    Das HDMI-Kabel mit 8K, müsste normalerweise 10Bit darstellen können. Das ist mir auch ein Rätsel.

    Wichtig für die Zukunft ist die Datenübertragung mit 48 Gbit/s. Eigentlich müssten 18 Gbit/s für 10Bit auch bei einem guten HDMI-Kabel ausreichen.

    Dein deleyCON-Kabel ist auch schon HDMI 2.0.


    Mich würde einmal die Bezeichnung von deinem „teurem“ HDMI-Kabel interessieren. 20 Euro wäre jetzt nicht unbedingt teuer.

    Der Kollege Zerobrain bei YT, machte schon vor längerer Zeit einen großen Test mit 4K-HDMI-Kabel.

    Jeder kann sich selbst ein Urteil über die Qualität der getesteten HDMI-Kabel bilden, die er haben möchte.

    In der Praxis sieht die wirkliche Qualität ganz anders aus.


    HDMI Kabel Test: Vermessen, zerlegt und bewertet.


    Gute HDMI-Kabel fangen in dieser Preisklasse an:

    Avinity Ultra-High-Speed-HDMI-Kabel, 8K, 48 Gbit/s


    Ich schätze, dass dein innocn 27M2U nicht wirklich 10Bit darstellen kann. Anders kann ich mir das nicht erklären.

    Dein HDMI-Displayport-Adapter unterstützt vermutlich eine andere HDCP-Version, darum bleibt das Bild schwarz.

  • Adapter: was ich so an HDMI<>Displayport Adaptern auf der Arbeit finden konnte, hab ich mal probiert, da wird der Monitor aber nicht erkannt.

    Vermutlich braucht es da spezielle Adapter, die auch noch zusätzliche Informationen 'erfinden'.

    Monitor zu Kumpel schleppen hab ich nicht versucht. Vielleicht demnächst.

    Denke, ich warte jetzt aber erstmal bis Ende Oktober, um zu sehen, was sich da am Grafikkartenmarkt so tut. Werde vermutlich Ende des Jahres eh ne neue Grafikkarte kaufen, die dann 3 DP Anschlüsse hat und damit ist das Problem dann auch erledigt.


    Cu Selur