Hi,
ich habe:
- eine alte Geforce 1070 ti (mit 2xDP 1.43 und 2xHDMI 2.0b; https://rog.asus.com/de/graphics-ca…ing-model/spec/) und
- einen innocn 27M2U (https://www.amazon.de/gp/product/B09XVCVB3M).
Wenn ich den Monitor per DisplayPort anschließe, wird er richtig als 10bit erkannt.
Wenn ich den Monitor allerdings per HDMI anschließe, wird er nur als 8bit erkannt.
Als HDMI Kabel verwende ich ein deleyCON 5m HDMI Kabel 2.0a/b - High Speed mit Ethernet - UHD 2160p 4K@60Hz 4:4:4 HDR HDCP 2.2 ARC CEC Ethernet 18Gbps 3D Full HD 1080p Dolby (https://www.amazon.de/gp/product/B005M0XU32).
Habe leider nicht noch einen HDR Bildschirm zum Testen, darum die Frage: Übersehe ich da was? Eigentlich sollte das doch klappen, oder?
Cu Selur
Ps.: Nein, DisplayPort nutzen ist keine Lösung, da ich die zwei DisplayPort-Anschlüsse für meinen HP Z27q (https://support.hp.com/de-de/document/c04601277) brauche. "Die Grafikkarte des angeschlossenen PCs muss 5120 x 2880 bei 60 Hz unterstützen und über 2 DisplayPort-Ausgänge verfügen, um den Monitor im bevorzugten Modus zu betreiben." mit einem HDMI Kabel ist bei 4096x2160 Schluss (da geht aber 10bit).