4k 10 bit Farbtiefe mit IGPU i5-6600 möglich?

inso

Newbie
Registriert
Mai 2017
Beiträge
7
Hi,

ich überlege meinen Full HD Bildschirm durch eine 4K (3820x2160) Variante (BenQ BL2711U) zu ersetzen. Der Monitor, den ich ins Auge gefasst habe ist für Bildarbeitung gedacht. Als Feature kann dieser 10bit Farbtiefe darstellen. Ich frage mich nur ob dies meine aktuelle iGPU des Skylake i5-6600 kann oder on ich dafür eine dedizierte Karte brauche. Aktuell habe ich das Board MSI B150M Pro-DDP ins Augegefasst, da es 2 Display Ports 1.2 besitzt. Ich also in Zukunft ggf. einen weiteren 4k Monitor ergänzen kann.

Wenn es eine dedizierte Karte sein muss, würde ich mich über Empfehlungen von euch freuen. Da der Rechner aktuell flüsterleiste ist, wäre eine passive oder sehr leise gekühlte natürlich super.

Vielen Dank für eure Hilfe
inso
 
Zuletzt bearbeitet:
Nein geht nicht. Man benötigt eine Quadro/FirePro um 10bit zu realisieren. Und hardwarekalibrierbar sollte der Monitor dann auch sein.

Eine Quadro K620 kommt mit UHD klar allerdings ist das wirklich mau bei UHD; empfehlen würde ich eine Quadro M2000/P2000.
 
Zuletzt bearbeitet:
HDR gibt es ab der Kabylake Generation.
 
Wenn du 10bit wirklich benötigst, warte damit noch ein wenig. Die ersten Monitore mit HDR rollen gerade an. Eine Grafikkarte wirst du für 4k aber so oder so benötigen.
 
Vielen Dank für eure bisherigen Antworten. Die Karten die du nennst, sind ja wahnsinnig teuer :-(.

Das Board was ich oben genannt habe, besitzt 2 Display Ports. 4k sollte also grundsätzlich gehen. Die
iGPU kann wohl 3 4k Displays mit 60 Hz versorgen laut intel Spec..
 
mediafrost schrieb:
Nein geht nicht. Man benötigt eine Quadro/FirePro um 10bit zu realisieren. Und hardwarekalibrierbar sollte der Monitor dann auch sein.

Eine Quadro K620 kommt mit UHD klar allerdings ist das wirklich mau bei UHD; empfehlen würde ich eine Quadro M2000/P2000.

mediafrost schrieb:
Das will ich sehen wie man über HDMI2.0 einen 10bit Workflow mit Adobe CC realisiert ;)

Also ich weiß ja immer nicht woher ihr dieses Halbwissen anhäuft...
Ich kann selbst mit meiner alten GTX die 10-12bit ansteruern ohne Probleme.
Und ja das geht über HDMI, DP und !DVI!(ohne 4k natürlich)
Ja dein vorhaben funktioniert, solange du nicht HDR+4K mit zb. Netflix und co schauen möchtest.
 
Nein das geht nicht. Eine GTX packt nur bei DirectX die 10bit im Vollbild - sonst nicht. Da Adobe jedoch OpenGL nutzt benötigt man auch eine demensprechend Grafikkarte welche über DP angeschlossen wird.

Einen reinen 10bit workflow ist mit keiner GTX möglich und mit HDMI (egal in welcher Version) erst recht nicht.
 
Zuletzt bearbeitet:
mediafrost schrieb:
Nein das geht nicht. Eine GTX packt nur bei DirectX die 10bit im Vollbild - sonst nicht. Da Adobe jedoch OpenGL nutzt benötigt man auch eine demensprechend Grafikkarte welche über DP angeschlossen wird.

Einen reinen 10bit workflow ist mit keiner GTX möglich und mit HDMI (egal in welcher Version) erst recht nicht.
Nur Blöd das auch die OpenGl Spiele in 10 bit laufen... naja dont feed the Troll ^^
Mal ganz im ernst, dass ist vlt. auch ein "spezial feature" von Adobe, nur damit die kleinen relativ teuren Workstation GPU´s überhaupt noch Absatz finden(im Heimbereich). Auf jeden fall habe ich keine Probleme gehabt egal mit welcher (Grafik)Schnittstelle, GPU, Spielen oder Programmen.
 
Zurück
Oben