News Sharp 8K Monitor: 33 Millionen Pixel mit 120 Hz über acht Kabel

Vitec schrieb:
Habe ich auch blöd geschrieben hätte die 100% von 60 zu 120 fps auch gleich reinnehmen sollen also 500% Steigerung.

Die Rechnung tut ja schon vom hinsehen weh.. :freak:
Kleiner Tip, die Verdoppelung der Bildrate benötigt natürlich auch doppelt so viel Leistung.

An sonsten noch zur Kabel Diskussion.
Beim Prototypen will man erstmal die zu demonstrierende Sache zum laufen bringen und nicht zig weitere mögliche Fehlerquellen einbauen die die Entwicklungszeit udn damit auch die Kosten in die Höhe treiben. Prototypen sind ja an sich schon ein teurer Spass.
Dieser Mehraufwand ist schließlich nicht erst beim Monitor schluss sondern geht bei der Gegenstelle weiter oder wieviele Grafikkarten kennt ihr die einen passenden Anschluss besitzen?
Bevor jetzt die Fraktion los schlägt die mit dem DisplayPort 1.4 Anschluss der Grafikkarte daher kommt...wieviele Monitore kennt ihr die mindestens DisplayPort 1.3 besitzen?
 
Ap2000 schrieb:
Quatsch.
Ich hatte schon vor 10 jahren ein 1680x1050 Display und auch 1080p war keine Seltenheit bei PC Monitoren.

Das ist leider falsch, im Jahre 2006 gab es überhaupt noch keinen Monitor mit 1080p, also der 16:9er Auflösung 1920x1080. Die kamen tatsächlich erst im Jahre 2008.
Was es aber 2006 schon gab waren 16:10 Monitore mit 1920x1200 oder mehr.
 
Zur Pascal-Vorstellung hieß es über DP 1.4 noch:
"120 Hz sind bei 3.840 × 2.160-Displays mit HDR noch möglich."

Da sollte CB mal checken, was nun stimmt.
 
Machbarkeitsstudien sind und bleiben sie selbst. Nischenprodukte haben es schwer, sich am Markt zu etablieren, und es bleibt abzuwarten inwieweit AR und VR in die tägliche Arbeit einfließen.

Innerhalb der nächsten 10 Jahre wird es unzählige Anzeigemöglichkeiten geben, die versuchen wollen, jedem nur erdenklichem Geschmack gerecht zu werden. Das treibt die Preise der einzelnen Produkte weiter in die Höhe.

Es herrscht doch derzeit noch immer eine eklatante Kluft zwischen technischer Machbarkeit und Benutzerfreundlichkeit. Will man sich derzeit dort austoben, so herrscht, wie ich finde, ein Rückwärtstrend zu Plug and Play Lösungen. Für mich zielt der Markt seit den letzten Jahren auf immer differenziertere Lösungen ab, die mehr als einfaches Userverständnis erfordern und uns bitten, selbst zu kaufen, zu testen, oder auszuloten.

Welche der derzeit angestrebten Lösungen sich durchsetzen wird, ist doch wohl grade genau das, was Analysten immer wieder versuchen einzuschätzen. Kleinserienorientiertheit hat noch kein neues Zeitalter erschaffen. Vielmehr bleibt zu erwarten, aus welchen Technologien der meiste Nutzen im Privat-, als auch in Unternehmensbereich hervorkommen wird.

Hochauflösende Displays, neue Einhabemöglichkeiten, und angepasste Medien, wie auch Programme/Spiele; in meinen Augen ein sehr ungleiches Bild.

Aber um die Umschweife mit simplen Schätzungen aufzufüllen:

2025, 2-3tsd Eur für besagte Technik. (System+Visualisierung+Bedienung) Meine Schätzung.
 
Zuletzt bearbeitet:
Erstmal danke an alle, die mit spekuliert haben. :cheerlead:

Die 14 Jahre, die ich für die GraKa Leistung "gewettet" habe, waren einfach so aus dem Bauch heraus geschätzt. Deswegen jetzt nochmal etwas "wissenschaftlicher" ;)

Also ich bin jetzt mal vom 3D-Center UHD Performance Index ausgegangen. Aktuelles Problem ist dabei, dass man wohl kaum über 3 Titan Produkte die über einen Zeitraum von knapp 3,5 Jahren veröffentlicht wurden, sinnvoll auf einen Zeitraum von vielleicht 10-15 Jahren extrapolieren kann. Zumal hier nur ein FullNode dazwischen liegt und ich nicht weiß, ob NVidia nochmal sowas wie Maxwell hinbekommen wird. Weiterhin betrachten wir hier ja die Titan Serie, die gewissermaßen für sich selbst steht.

Ich habe einfach wiegesagt über den Titan UHD Performance Index über der Zeit, normiert auf Titan XP = Jahr 0 bei 100% Index. Zwischen den Karten liegt jeweils ein Zuwachs von ca. 70%.
Von 4K auf 8K brauche ich die 4-fache Rechenleistung. Für 120fps nochmal das Doppelte (=800%). Von der Extrapolation abgeleitet komme ich demnach auf ca. 7,2 Jahre. Im Midrange Bereich ist die gleiche Leistung wohl so zwischen 1,5 bis 2,5 Jahre später zu haben. Ich nehm jetzt einfach mal 2 Jahre, ergo gesamt so 9 bis 10 Jahre. Ob man hier den Performance-Index mit wirklich resultierender Leistung gleichsetzen kann, mag ich bezweifeln. Daher gebe ich jetzt einfach mal pi*Daumen noch eine Generation, sprich 2 Jahre drauf und nochmal eine Generation für gestiegende Anfordungen von den Spielen, ergo ca. 13 bis 14 Jahre.

Also vom Prinzip her etwas optimistischer, als meine Bauchgefühl Schätzung. Es besteht natürlich die Frage, inwieweit in diesem Zeitraum noch zusätzliche Leistung benötigt werden wird, für schönere Grafik, und inwieweit sich das mit technologischen Verbesserungen, wie z.B. besserer Shaderauslastung durch Softwareseitige Entwicklungen in Waage hält. Vulkan/DX12 machen da schon was, aber nicht über das gesamte Leistungssegment gleichmäßig und auch nicht für alle Karten.

Weiterhin bleiben gewisse Hoffnungen bestehen, dass die Technik bis dahin neue Möglichkeiten eröffnet. Von der Architektur her würde ich da nicht viel erwarten, dass man durch ein neues Fertigungsverfahren plötzlich im gleichen Zeitraum mehr als ein FullNode-Äquivalent an Leistungszuwachs bekommt, bezweifle ich auch, da sich sowas ja langsam schon rumsprechen müsste. Ggf. bekommt man den HSA-Ansatz sinnvoll umgesetzt, sprich sehr gut skalierbare Rechenleistung über Parallelität von kleinen, günstigen Chips. Aber dass das in den nächsten 10 Jahren im Midrange ankommt, ist wohl auch unwahrscheinlich. Da müsste es ja schon in Bälde entsprechende Prototypen geben.

Shoryuken94 schrieb:
Ich glaube eher, dass sich die Grafikkarten vielleicht die nächsten 3,4 oder 5 Jahre noch stark steigern werden, aber spätestens wenn nicht mehr so fix kleinere Strukturbreiten verfügbar werden, wird das nicht mehr der Fall sein, da die letzten GPU Generationen Ihre mehrleistung fast ausschließlich aus dem Takt und der höheren Shaderzahl gezogen haben. Die Shaderzahl lässt sich ohne Strukturverkleinerung nur schwer steigern, vielleicht sehen wir ja aber auch irgendwann 800 oder gar 1000mm^2 große Chips und den takt kann man auch nicht unendlich steigern. Erst wenn man von Siliziumchips zu anderen materialien umschwenkt, wird man wieder starke steigerungen sehen, aber die Siliziumfertigung werden wir wohl in den nächsten 10 Jahren ans limit getrieben haben und so schnell wirds da auch keine nachfolge geben.

Wenn ich das richtig in Erinnerung habe, dann werden die zeitlichen Abstände zwischen FullNodes tendenziell eher größer. Man darf hier auch nicht nur betrachten, was technisch machbar ist, sondern muss die Frage stellen, ob es wirtschaftlich noch vertretbar ist. Nachdem, was man so von Insidern liest, sind die Kosten mittlerweile ja schon spürbar gestiegen, im Vergleich zu vergangenen Generationen. Intel hat ja auch Tick-Tock über den Haufen geworfen.
Weiterhin scheint die gesteigerte Shaderzahl auch nicht die reine Lösung zu sein, da sich damit ja wieder andere Probleme ergeben, siehe bspw. die Fury.

Bei den großen NVidia Karten gab es den letzten großen Sprung der Shaderanzahl von Kepler auf Fermi. Auf Maxwell waren es bspw. nur ca. +7%, auf Pascal nur +25%.
Die Fury hat ja ihre 4k Shader nicht ausgelastet bekommen, es sind dort also Flaschenhälse vorhanden. Selbst Hawaii mit 2,8k Shadern lastet ihre Shader unter DX11 auch nicht optimal aus. Schaut man auf P10, dann hat dieser ja ziemlich genau die gleiche Leistung, bei allerdings 2,3k Shadern.

Vitec schrieb:
vielleicht können aber auch Volta und Vega mit HBM 2 und dann hoffentlich auch bei NV AC und optimaler DX12 / Vulkan Unterstützung 2017/2018 mehr zulegen als diese 40% ?

Die Fury hat zumindest in ihrer Anfangszeit dank HBM oben rum ordentlich zugelegt in 4k.

Halte ich für ziemlich unwahrscheinlich. NVidia schafft es ja, ihre Architektur mit einer hohen Auslastung zu fahren, d.h., unterm Strich gibt es da keine allzugroßen ungenutzten Reserven. Durch AC verringert man ja letztendlich hauptsächlich die Abhängigkeit von der CPU, wenn ich das richtig sehe.

Und ob die Fury nun "so schnell" war, weil sie HBM hat, ist glaube auch eine etwas gewagte Aussage. Man muss es eher so sehen, dass die Fury nur mit HBM überhaupt halbwegs sinnvoll lauffähig ist.
 
derbe schrieb:
Nice direkt 120 Hz ;)

...mit 8 Kabeln, fragt sich nur wie viele Grafikkarten ich dafür brauche,
da viele ja nur 3 Monitore unterstützen. Eins von 8 Kabeln wird dann
Schrott sein, viel Spaß beim suchen :D
 
belli131 schrieb:
8 kabel, sehr benutzerfreundlich :D das ist lachhaft. eine case-study. nicht mehr als das. könnte man ja auch nichtmal befeuern, selbst 4 1080gtx sollten das nicht schaffen.
Ergänzung ()

GAAAANZ böser fehler. ich zocke seit vielen, vielen jahren in wqhd, seit einem jahr in 4k. der markt ist da. und schneller als du schauen kannst ist er 2-3 stufen weiter.
Das klappt aber nur mit entsprechender Rechenpower und die wird alles andere als durchschnittlich sein. Deswegen gehörst du sicherlich nicht zur Mehrheit. Und der Markt ist da, wenn die Mehrheit es nutzt bzw. nutzen kann von den Kosten her. Und hier liegt es immer noch bei FHD. Der Markt für 4K mag vielleicht irgendwo auch da sein, aber den kannst du noch mit der Lupe suchen, weil Highend kaufen wohl die wenigsten und kaum einer ist bereit 800 Euro nur für eine Grafikkarte auszugeben.
 
Zuletzt bearbeitet:
Zurück
Oben