Theor. Frage, Upgrade **nur CPU** Skylake auf Kabylake auf H170-MB wg. HDMI 2.0 mögl?

Unlimited1980

Lieutenant
Registriert
Apr. 2009
Beiträge
975
Intel ist ja extrem langsam bei unter Aktualisierung der Monitorschnittstellen.

So hat Skylake nur DP1.2 und HMDI 1.4, Kabylake bekommt auch nur eine Aktualisierung und hat dann somit DP1.2 und HDMI 2.0.
Diese Ausstattung finde ich immer noch unzureichend im Hinblick auf 4K, mehrere Monitore und >60Hz.

Wenn das in dem dreist verzögerten Tempo weitergeht, dann wird wohl erst der Nachfolger vom Nachfolger von Kabylake langsam an das rankommen, was ich gerne sehen würde:
DP1.4 mit 4K UHD (3840×2160) @120 Hz with 10-bit color and HDR

Das wäre ja alles kein Problem, wenn nicht die PC bei mir neuerdings jahrelang halten würden und ich es nervig finde, dass eine neue Plattform bereits zur Veröffentlichung bei den Grafikschnittstellen hinter den Hardwaremöglichkeiten hinterherhinkt, bzw. diese gerade so befriedigen kann.
Ich fänd es auch absolut behindert, "nur" deswegen einen neue Plattform anzuschaffen, bzw eine Graka zu verbauen.


Jetzt zu meiner Frage:
"mechanisch" verfügt mein Board (ASRock Z170 Extreme4)
http://geizhals.de/asrock-z170-extreme4-90-mxgyj0-a0uayz-a1306610.html

über 1x HDMI 1.4 und 1x DisplayPort 1.2

Wäre es möglich, dass durch Update des Prozessors alleine diese Schnittstellen sich dann auch zu den künftigen Schnittstellen DP1.4 und HDMI 2.0 umwandeln?
Mein Argument, weswegen dies theor. funktionieren könnte ist ja, dass die Steckerbelegung (auch die Kabel!) offensichtlich absolut gleich bleibt und nur die Betriebstaktung der Stecker sich verändert.

Ich finde dazu leider im Netz keine echten Suchergebnisse.
 
Zuletzt bearbeitet:
AW: Theor. Frage, Upgrade **nur** CPU Skylake auf Kabylake auf H170-MB wg. HDMI 2.0 m

Nein, durch ein CPU Upgrade wird das nicht funktionieren. Es gibt ja in der Vergangenheit etliche Boards die ältere Monitorschnittstellen zur Verfügung stellten, als das, was die CPU konnte. Das ist Sache des Boardherstellers und lässt sich nicht upgraden.

Wenn Dir HDMI 2.0 so wichtig ist, warum hast Du kein Z170 Board mit HDMI 2.0 gekauft? Und der Markt für Office Rechner, die mehr als 60 Hz bei 4K brauchen, der ist eben klein. Das fordert eher der Markt der Spielerechner. Und da reicht ja dann die iGPU nicht aus.

Die günstigste GPU mit DP 1.3 und HDMI 2.0 wäre heute eine AMD RX 460.
 
Zuletzt bearbeitet:
AW: Theor. Frage, Upgrade **nur** CPU Skylake auf Kabylake auf H170-MB wg. HDMI 2.0 m

BlubbsDE schrieb:

Du bist ganz sicher, dass du da nicht grundsätzlich verschiedene Schnittstellen meinst (VGA/HDMI/DP)?
Naja, du hast keine Ahnung, wie sehr Intel mich genau deswegen ank...tzt!

:freak:
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
Bei diversen Berichten zu Kaby Lake stand doch, dass diese weiterhin kein HDMI 2.0 bieten. Hat sich das nun doch geändert?
 
Welchen Monitor willst Du eigentlich betreiben? Mehr als 60 Hz bei 4K. Da gibt es nur eine Handvoll. Und das sind sind doch eher Gamingmonitore.
 
Ich glaube da ist es sinnvoller wenn du dir eine kleine dedizierte Grafikkarte mit den neuen Schnittstellen einbaust als Board und CPU zu tauschen.
Eine Schnitzstelle kann aber durch ein CPU Upgrade nicht verbessert werden.
Wobei ich jetzt auch nicht ganz verstehe warum du das willst, bis diese Monitore zu akzeptablen Preisen verkauft werden ist dein PC vermutlich schon paar Jahre alt und kann dann eh ausgetauscht werden.
 
cvzone schrieb:
@cvzone
WTF, du hast völlig Recht!
Unfassbar.
Intel ist an dem Punkt das Allerletzte...
Ergänzung ()

immortuos schrieb:
@immortuos
Die Erfahrung lehrt mich eben andres.
Ich bin jemand, der PCs sehr lange nutzen kann (...und will :D ), da ich nicht zocke.
Aber dennoch hohe Ansprühe an die Bildausgabe wegen Bildbearbeitung und Benutzung wissenschaftlicher Software, deren Nutzung von hoher Auflösung / Hz-Zahl stark profitiert.
Ergänzung ()

BlubbsDE schrieb:
@BlubbsDE
Es geht mir derzeit um die künftige Aufrüstung.
Ich sehe da Monitore schon recht schnell (2018/19) günstiger werden, die die aktuellen Schnittstellen überfordern.

Also echt mies, dass die Hälfte der Diefläche verschwendet wird von einer rückständigen Grafikeinheit, die man dann eh wieder ausschalten muss.... GRRRRRR!
Alles nur weil Intel zu faul, dumm oder dreist ist die uralten Grafikstandards in die Chips zu aktualisieren.
DisplayPort version 1.2 ist von 2009!!


Naja, vielen Dank jedenfalls für euer Feedback.
War ja auch nur eine schwache Hoffnung meinerseits...
Intel ===>> :(:(:(:(
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
immortuos schrieb:

Ja klar, das ist der logische (eigentlich unnötige) Schritt.
Dennoch darf ich noch mal wiederholen, dass es mich maßlos ärgert!
:D :D :D


"Also echt mies, dass die Hälfte der Diefläche verschwendet wird von einer rückständigen Grafikeinheit, die man dann eh wieder ausschalten muss.... GRRRRRR!
Alles nur weil Intel zu faul, dumm oder dreist ist die uralten Grafikstandards in den Chips zu aktualisieren.
DisplayPort version 1.2 ist von 2009!!"

ZWEITAUSENDNEUN Leute!!!
Die meisten hier im Forum haben keinen PC mehr aus dieser Zeit in Betrieb, geschweige denn einen Monitor.
Aber Intel zwingt uns alle dazu noch mit den Standards von damals zu arbeiten.
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
Die Onboard Grafik ist auch für eine Office Verwendung ausgelegt, da braucht man keinen Gaming Schnickschnack ala 4k@120hz...
Vor allem wo der Monitor noch nicht mal vorhanden ist, das ist jammern nur des jammern wegens.
 
Naja, es geht auch heute noch kein 4K 60 Hz mit Kaby Lake per HDMI. Das wäre schon zeitgemäß.
 
Hallo @ all,

also ich kann die Sorgen des TE durchaus nachvollziehen. OK, 4K @ 120Hz, da gibt es eigentlich abseits von Games doch eigentlich gar keine Anwendungsmöglichkeiten, oder irre ich mich da?

Was mir aber spontan einfällt, ist ein HTPC angeschlossen an einen 4K TV mit HDR, und einem der wenigen schon vorhandenen 4K UHD BD-Player. Will man gar (die zugeben extrem wenig vorhandenen) Dolby-Atmos Medien wiedergeben, ist das mit HDMI 1.4 doch gar nicht möglich oder?

Auf der anderen Seite gibt es schon seit langem kleine passive Low-Profile Karten für HTPCs und Office-PCs, aber leider bisher auch rein gar nichts mit HDMI 2.0. Es gibt schon eine Marktlücke wie eine (gedachte) GTX 1040 oder gar GTX 1030/1020, die also praktisch nichts anderes tun als ein neues Interface bereitzustellen, wie z.B. eine GT 710 oder GT 740.
 
Mit Ryzen wird alles besser *ggg*

Mal im Ernst, gibt es da auch nichts bei AMD? Dann ist es halt einfach so. Eine kostenlose Grafikeinheit in der CPU für die einfache Bildwiedergabe.
 
HDMI 2.0 für Kaby Lake gibt es, wie diese Mainboards zeigen. Der Hersteller muss halt einen zusätzlichen Chip verlöten, der die Schnittstelle bereitstellt. Das passiert natürlich nur bei den sehr teuren Mainboards.

BlackWidowmaker schrieb:
Was mir aber spontan einfällt, ist ein HTPC angeschlossen an einen 4K TV mit HDR, und einem der wenigen schon vorhandenen 4K UHD BD-Player. Will man gar (die zugeben extrem wenig vorhandenen) Dolby-Atmos Medien wiedergeben, ist das mit HDMI 1.4 doch gar nicht möglich oder?

Einen High-End HTPC will anscheinend kein Hersteller mehr anbieten. UHD-BD kann man im Moment noch nicht mit einem PC abspielen und 4K-HDR per Stream geht auch nur mit dem Edge-Browser, der wahrscheinlich wenig HTPC-tauglich ist. Man soll sich halt für jedes Format ein eigens Abspielgerät kaufen. So verdienen die Hersteller entweder extra durch den Verkauf neuer Geräte, oder man bleibt einem Streaming-Anbieter treu, da der Wechsel neue Hardware erfordert.
 
schattenhueter schrieb:
UHD-BD kann man im Moment noch nicht mit einem PC abspielen...

OK, aber doch nur weil es noch keine entsprechende Geräte gibt, nicht weil es technisch nicht möglich wäre.

Da ich allerdings (noch) keinen 4k Monitor/TV habe weiß ich nicht wie es bei Filmwiedergabe ist. Gibt es die Filme denn überhaupt mit 60Hz, oder sind das auch nur 24 Frames wie bei Kinofilmen auf FullHD so üblich?
 
Üblich sind 24p, aber 50/60 Hz sind die Zukunft bei Filmen. In diesem Zusammenhang wären 60 Hz momentan noch nicht wichtig, aber wenn man ein 4K Display hat, muss man das auch mit 60 Hz betreiben. Bei 30 Hz ruckelt selbst der Mauszeiger wie blöd und Auflösung runterstellen ist keine Option.
 
cvzone schrieb:
Üblich sind 24p, aber 50/60 Hz sind die Zukunft bei Filmen.

Das solltest Du mal den Filmemachern sagen. Bis auf wenige Ausnahmen werden Filme immer noch nicht in HFR gedreht. Und ich denke, dass wird auch noch lange so bleiben. HFR bei Filmen hat nicht nur Vorteile.
 
Unlimited1980 schrieb:
Alles nur weil Intel zu faul, dumm oder dreist ist
Wahrscheinlich kaufst Du ausschließlich CPUs dieses Herstellers, um unlimitiert über ihn fluchen zu können.

In ein paar Monaten könntest Du ein AM4-Brett mit HDMI2.0 und DP1.4 kaufen, aber wie sagtest Du in einem anderem Thread so nett:

AMD-Systeme scheiden für mich leider aus
 
Zurück
Oben