News Dells „5K“-Monitor kommt im Dezember

Arno Nimus schrieb:
Bei Framraten von durchschnittlich 11-25fps kann man wohl kaum von vernünftigem Spielen sprechen:

https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/8/

Und das gilt nur für 4K, von 5K noch garnicht gesprochen...

Ich persönlich bezeichne sowas heutzutage (obwohl ich früher aus der Not heraus reichlich Erfahrungen beim Spielen mit solchen Frameraten gemacht habe.) als unspielbar.

Ja, was wir jetzt mit 4K erleben ist vergleichbar mit der Situation vor etwa 15 Jahren als man 640x480 oder bestenfalls 800x600 mit 16 Bit gewohnt war und langsam 1024x768 oder 12801024@32Bit aufkamen. Mein damaliger 21" Bildschirm packte sogar die 1600x1200@100Hz, allerdings waren die Grafikkarten zu lahm. Ich erinnere mich noch an die Zeiten als die Q3 Engine auf den Markt kam und plötzlich eine TNT2 nichts mehr reissen konnte wenn man Grafik satt wollte. Es hat lange gedauert bis genug Grafikkartenpower da war um in guter Qualität zu spielen, so etwa ab der GeForce 3. Einen solchen Sprung gibt es wirklich nur alle 10 Jahre mal wenn überhaupt. Bislang war Rechenkraft im Überfluss da, jetzt gibt es wieder einen guten Grund aufzurüsten. Geschickter Schachzug der Industrie.
Im Moment sehe ich 4K/5K nur für Grafik und Vidobearbeitung als Interessant an auch wenn surfen und Filme gucken damit natürlich auch geht. Und beim TV macht das ab 50" schon Sinn. Nur für Gamer ist das nichts und bei <46" reicht Full HD mehr als aus.
Irgendwann in 5 oder 6 Jahren könnte 4K den Status des heutigen Full HD eingenommen haben und flüssiges zocken möglich sein bei moderatem Verbrauch.

Cool Master schrieb:
Nö, dass nicht aber auch im TV bereich ist es schon praktisch veraltet. In Japan gibt es schon 8k.

http://www.nhk.or.jp/8k/index_e.html

Warum sollte man nun also voll auf 4k setzen wenn in ~ 6-8 Jahren alles auf 8k geht?

Jaja... 8K. Und das auf der Seite angepriesene 22.2 Soundsystem. Schon klar. 7.1 gibts schon wie lange? Und wer hat es?
Braucht keine Sau Zuhause, ein paar Freaks vielleicht, aber sonst keiner. Scheitert einfach daran das die wenigsten einen eigenen Kinoraum haben. Fürs Wohnzimmer gibt es 5.1, das reicht den meisten, mich eingeschlossen.
8K und 22.2 sind vielleicht was fürs Erlebniskino, nicht für den Consumer. Auch in 5 Jahren nicht. Der Unterschied 4K>8K ist selbst auf 60" nicht wahrnehmbar. Das Auge hat einfach eine Grenze und die wird überschritten. Darum wird es auch niemals 16K, 32K usw. geben. Nicht alles was technisch machbar ist ist auch sinnvoll.
Unnötige Spielerei, sonst nichts.
Bevor das Fernsehen mit 4K überträgt gibt es das klassische TV garnicht mehr. Das Konzept Fernsehen neigt sich eh dem Ende zu. Läuft doch eh nur Müll und ab und zu Sport. Den kann man auch streamen und fürs Unterschichtenfernsehen braucht man nicht mal 720P.
 
Zuletzt bearbeitet:
wazzup schrieb:
Ja, was wir jetzt mit 4K erleben ist vergleichbar mit der Situation vor etwa 15 Jahren als man 640x480 oder bestenfalls 800x600 mit 16 Bit gewohnt war und langsam 1024x768 oder 12801024@32Bit aufkamen. Mein damaliger 21" Bildschirm packte sogar die 1600x1200@100Hz, allerdings waren die Grafikkarten zu lahm. Ich erinnere mich noch an die Zeiten als die Q3 Engine auf den Markt kam und plötzlich eine TNT2 nichts mehr reissen konnte wenn man Grafik satt wollte. Es hat lange gedauert bis genug Grafikkartenpower da war um in guter Qualität zu spielen, so etwa ab der GeForce 3. Einen solchen Sprung gibt es wirklich nur alle 10 Jahre mal wenn überhaupt. Bislang war Rechenkraft im Überfluss da, jetzt gibt es wieder einen guten Grund aufzurüsten. Geschickter Schachzug der Industrie.
Im Moment sehe ich 4K/5K nur für Grafik und Vidobearbeitung als Interessant an auch wenn surfen und Filme gucken damit natürlich auch geht. Und beim TV macht das ab 50" schon Sinn. Nur für Gamer ist das nichts und bei <46" reicht Full HD mehr als aus.
Irgendwann in 5 oder 6 Jahren könnte 4K den Status des heutigen Full HD eingenommen haben und flüssiges zocken möglich sein bei moderatem Verbrauch.

Da hast du Vollkomen recht, nur so ganz GEschickt war das nicht: keine Grafikkarte schafft 4k nur halbwegs flüssig beim Spielen. UNd dazwichen kommt auch noch 2k, in dem ich mehr Potential sehe, da es a) für 27 mehr als ausreichend ist und b) es auch Grafikkarten gibt, die sowass schaffen :)
 
Senvo schrieb:
Da hast du Vollkomen recht, nur so ganz GEschickt war das nicht: keine Grafikkarte schafft 4k nur halbwegs flüssig beim Spielen. UNd dazwichen kommt auch noch 2k, in dem ich mehr Potential sehe, da es a) für 27 mehr als ausreichend ist und b) es auch Grafikkarten gibt, die sowass schaffen :)

Dir ist schon bekannt das 1440P>2K ist oder? 2K ist nur knapp über Full HD Niveau, 2048 statt 1920 Pixel in der Breite, 1440P liefert 2560 Pixel und ist der derzeitige Standard bei 27" Geräten.
 
Was wurde eigentlich aus OLED? Vor 2-3 Jahren hab ich ein kleines Display gesehen und war begeistert, da hieß es in 2-3 Jahren wären die größeren soweit. Und nun?
 
Da hast du Vollkomen recht, nur so ganz GEschickt war das nicht: keine Grafikkarte schafft 4k nur halbwegs flüssig beim Spielen

<- Spielt mit einer 5850(! ja kein Schreibfehler) einige Spiele in 4k mit Downsampling (braucht noch mehr Leistung als 4k nativ) In einigen natürlich Settings anpassen (manchmal sind bspw. "niedrigere Schatten" schöner für mich), meistens gehts mir da um das AA, welches mit DS einherkommt. GTA IV lässt grüßen ;)
...
Nicht so verallgemeinern bitte ;)
Du solltest vielleicht in "eh schon ressourcenfressende" Spiele mit gleichzeitig höchsten (ingame)settings präzisieren. Crysis 3 in 4k schaff ich natürlich auch nicht. Aber es gibt daneben ja noch vierzig drölf bazillionen andere Spiele.

Was ich dann erst mit ner Titan/290X anstellen könnte - uiuiui :D
 
Zuletzt bearbeitet:
SaarL schrieb:
<- Spielt mit einer 5850(! ja kein Schreibfehler) einige Spiele in 4k mit Downsampling (braucht noch mehr Leistung als 4k nativ) In einigen natürlich Settings anpassen (manchmal sind bspw. "niedrigere Schatten" schöner für mich), meistens gehts mir da um das AA, welches mit DS einherkommt. GTA IV lässt grüßen ;)
...
Nicht so verallgemeinern bitte ;)
Du solltest vielleicht in "eh schon ressourcenfressende" Spiele mit gleichzeitig höchsten (ingame)settings präzisieren. Crysis 3 in 4k schaff ich natürlich auch nicht. Aber es gibt daneben ja noch vierzig drölf bazillionen andere Spiele.

Was ich dann erst mit ner Titan/290X anstellen könnte - uiuiui :D

Stimmt, dass hätte ich machen sollen, ups ^^
Ergänzung ()

wazzup schrieb:
Dir ist schon bekannt das 1440P>2K ist oder? 2K ist nur knapp über Full HD Niveau, 2048 statt 1920 Pixel in der Breite, 1440P liefert 2560 Pixel und ist der derzeitige Standard bei 27" Geräten.

Sorry was schreib ich denn für ein blödisnn- ich meine 1440p, ja :) Standart würde ich das definitiv nicht nennen, es gibt noch mehr als genug 27" mit Full HD und Benq hat ja jetzt erst wieder einen Vorgestellt
 
rofl Die linke "Bildschirmlupe" ist niemals eine Vergrößerung des Originals dahinter. Dell spricht mit solchen Fakegrafiken wirklich Profis an ja?
5K auf 27 Zoll Diagonale? Empfohlener Sitzabstand ohne Skalierung 10 cm! :evillol:
Nein danke.
 
Blink schrieb:
Sehr gut, dann müssten theoretisch andere ältere Monitore günstiger werden :)

Genau mein Gedanke hoffentlich kommen jetzt 100 5k dinger, dann kreigt man diese veralteteten schrottigen 4k dinger fuer 200 Euro hinterher geschmissen in 6 Monaten (mit ips natuerlich). :)
 
Senvo schrieb:
Da hast du Vollkomen recht, nur so ganz GEschickt war das nicht: keine Grafikkarte schafft 4k nur halbwegs flüssig beim Spielen.

Stimmt doch gar nicht. Ich spiele aktuell mit einer GTX 980 SC, und mit der kann ich in 4k fast alles ohne Probleme spielen. FC3 läuft mit 45 FPS, Cod AW mit 60 FPS, Rising Dead 3 mit hohen Einstellungen 30 FPS und flüssig, nur so was wie Crysis 3 läuft nur mit 21-25 FPS. Wenn man jetzt nicht das mit AA oder AF oder diverse Sachen wie Supersampling, TSAA, HSAO und Co übertreibt, ist das alles absolut spielbar, besonders mit G-Sync.
 
wiso?
meine Red Dragon rennt über Karter in den redhner dort sind zwei 1500 euro Grakos der 12 core 48gigram
und des resolve verarbeitet das ganze recht gut....
damit wir am ende einen 2k FILM ausgeben....
in 3 Jahren dann wh schon 45% in 4k.
aber wenn ich denke was des ganze in 3d vfx werden wir--- Lastwagenladungen ssd und raids... wieder ein schöner
Schmäh um den Markt anzukurbeln...

Und GAMES in 11,5 ftps oder sogar in flüssigen 17... ironie aus :) :) :) :)

ich bin doch nicht blöd blöd blöd ein 16 bit 4 4 4 pannel mit 120 fps und cmyk scharfem 2k wäre geiler gewesen.
aber des kann man ja nicht machen.... :)
 
ZzZero schrieb:
Der Monitor unterstützt nur Display Port und Nvidia Karten haben bis heute noch keine Full-RGB Unterstützung für HDMI und Display Port.
Das Bild sieht also mehr aus nur beschi**en aus.
Bei Prad wird von den Testern jeder Monitor ohne DVI Anschluss in Kombination mit einer Nvidia Karte abgeraten.

Oh, das wusste ich gar nicht. Habe meinen 24" Eizo über DisplayPort an meiner GTX 660 Ti.
Muss ich zu Hause mal nachsehen, ob etwas mit den Farben nicht stimmt.

Gibt es dazu irgendwo bestätige Hinweise? Habe davon noch nie gehört.

EDIT:
Das habe ich auf die Schnelle gefunden:
http://www.prad.de/new/monitore/specials/signalpegel/signalpegel.html
Aber dort steht nur, dass es bei DisplayPort eigentlich kein Problem gibt sondern bei HDMI.
 
Zuletzt bearbeitet: (Link zu PRAD eingefügt)
Ich hab mir gerade das Display im Apple Shop Berlin am iMac 5k Retina angesehen. Das ist schon wirklich eindrucksvoll. Die Farben sind auf den ersten Bild wirklich hervorragend, und die Schärfe ist wirklich ein Traum. Nur muß man hier doch schon nahe rangehen, um davon etwas zu haben.
 
PHuV schrieb:
Stimmt doch gar nicht. Ich spiele aktuell mit einer GTX 980 SC, und mit der kann ich in 4k fast alles ohne Probleme spielen. FC3 läuft mit 45 FPS, Cod AW mit 60 FPS, Rising Dead 3 mit hohen Einstellungen 30 FPS und flüssig, nur so was wie Crysis 3 läuft nur mit 21-25 FPS. Wenn man jetzt nicht das mit AA oder AF oder diverse Sachen wie Supersampling, TSAA, HSAO und Co übertreibt, ist das alles absolut spielbar, besonders mit G-Sync.

Ich habs verstanden, ich hab Sche** geschrieben, ich nehms ja zurück :) Aber BEi Crysis 3 lagt es ein biscchen, also komplett falsch ist das nicht was ich geschrieben habe :) Wie ist der Kühler der 980 SC? :)
 
Klugscheiß no2:
Am laggen ist aber nicht die Grafikkarte schuld, sondern das Internet ;)
Du meinst (leistungsbedingtes) ruckeln/langsamer laufen/Diashow.

:evillol::evillol::evillol:
 
wazzup schrieb:
Ja, was wir jetzt mit 4K erleben ist vergleichbar mit der Situation vor etwa 15 Jahren als man 640x480 oder bestenfalls 800x600 mit 16 Bit gewohnt war und langsam 1024x768 oder 12801024@32Bit aufkamen. Mein damaliger 21" Bildschirm packte sogar die 1600x1200@100Hz, allerdings waren die Grafikkarten zu lahm. Ich erinnere mich noch an die Zeiten als die Q3 Engine auf den Markt kam und plötzlich eine TNT2 nichts mehr reissen konnte wenn man Grafik satt wollte. Es hat lange gedauert bis genug Grafikkartenpower da war um in guter Qualität zu spielen, so etwa ab der GeForce 3. Einen solchen Sprung gibt es wirklich nur alle 10 Jahre mal wenn überhaupt. Bislang war Rechenkraft im Überfluss da, jetzt gibt es wieder einen guten Grund aufzurüsten. Geschickter Schachzug der Industrie.
Im Moment sehe ich 4K/5K nur für Grafik und Vidobearbeitung als Interessant an auch wenn surfen und Filme gucken damit natürlich auch geht. Und beim TV macht das ab 50" schon Sinn. Nur für Gamer ist das nichts und bei <46" reicht Full HD mehr als aus.
Irgendwann in 5 oder 6 Jahren könnte 4K den Status des heutigen Full HD eingenommen haben und flüssiges zocken möglich sein bei moderatem Verbrauch.

Volle Zustimmung: Ich selbst hatte ab Ende 1997/Anfang 1998 auch bereits einen 21"-CRT als Desktopmonitor und habe exakt dieselben Erfahrungen gesammelt wie du sie schilderst. (es hat damals einige Zeit gedauert, bis man die 1600x1200 bei Spielen voll ausschöpfen konnte, zunächst war ich z.B. bereits froh, wenn ich einige Spiele mit einer MiroHighscore3D, die im Gegensatz zu den Standardmodellen mit VoodooGraphics Chips bereits 6, statt 4MB vRam bot, durch den zusätzlichen Speicher (wenn auch ohne Z-Buffer) immerhin in einer Auflösung von 800x600, statt 640x480 spielen konnte.

Und deine Einschätzung, dass es wohl noch ca. 5 Jahre brauchen wird, bis sich 4/5K bei Grossbildgeräten (Desktopmonitoren/TVs) als Standard etabliert/durchgesetzt haben, erscheint auch realistisch.

Schade halt nur, dass einem die bislang unzureichende Skalierungsfähigkeit von Windows und vor allem den Apps unter Windows die Nutzung dieser 4/5K-Monitore auch als reine Arbeits-Geräte momentan noch verleidet/sinnlos macht! (auch wenn die Hersteller dieser Monitore natürlich nichts dafür können, dass die Software-Firmen nicht hinterherkommen.) Apple ist da im Vergleich mit seinem "Retina-Konzept" schon lange deutlich weiter...
 
Zuletzt bearbeitet:
gaym0r schrieb:
Windows 8.1 skaliert inzwischen ordentlich - stells einfach mal ein...

Ach, tut es das?

Hier steht ein 27" 2560x1440 neben einem 22" 1680x1050. Der DPI-Unterschied (109 DPI vs. 90 DPI) liegt bei ca. 21%, was durchaus störend ist. Und nun erkläre mir bitte mal, wie ich die Skalierung des zweiten Monitors unabhängig von der Skalierung des ersten unter Windows 8.1 einstellen kann.

Es geht einfach nicht!
 
Zuletzt bearbeitet:
Senvo schrieb:
Aber BEi Crysis 3 lagt es ein biscchen, also komplett falsch ist das nicht was ich geschrieben habe :)
CryEngine war schon immer eine Diva. ;)
Senvo schrieb:
Wie ist der Kühler der 980 SC? :)
Sehr gut, höre ihn kaum, die Gehäuselüfter sind lauter.

@ Arno Nimus & wazzup

Sieh an, noch mehr so alte Säcke hier. ;)

Wir hatten aber damals immerhin kein Problem mit der Grafikschnittstellen, VGA oder Componenteneingang ging immer. Auch mit DVI war bis vor kurzem an sich alles ok. Nun haben wir die Situation, daß diese aktuell überhaupt nicht dem technisch Möglichen gewachsen sind. Wir haben seit ca. 2,5 Jahren, seit es 4k gibt (siehe erster Monitor von Eizo FDH3601, daß große Problem, daß die Schnittstelle hier nicht mehr mitkommen, und es aktuell nur Krückenlösungen gibt. Apple schafft es ja auch nur mit nem Trick, die 5k zu befeuern.
 
Zuletzt bearbeitet:
"Dells Anfang September angekündigter 27-Zoll-Monitor mit einer Auflösung von 5.120 × 2.880 Bildpunkten soll ab dem 18. Dezember ausgeliefert werden, wie das Unternehmen nun mitteilt. Die Produktseite enthüllt die Spezifikationen des UP2715K." Hisn gefällt das.

Ich fände es ja mal nicht so verkehrt, wenn solche Monitore 5000:1 Kontrast bekommen und und sie auch in 30" kommen.

Vernünftiges Retina muss aber bei Windows trotzdem kommen. Ich finde das ja schon bei 2560*1440 auf 27" viel zu klein, wenn ich drauf lesen muss. Das kann ich ja mit DSR simulieren.
 
Arno Nimus schrieb:
Schade halt nur, dass einem die bislang unzureichende Skalierungsfähigkeit von Windows und vor allem den Apps unter Windows die Nutzung dieser 4/5K-Monitore auch als reine Arbeits-Geräte momentan noch verleidet/sinnlos macht! (auch wenn die Hersteller dieser Monitor natürlich nichts dafür können, dass die Software-Firmen nicht hinterherkommen.) Apple ist da im Vergleich mit seinem "Retina-Konzept" schon lange deutlich weiter...

hmm frag mich ein wenig bei welcher Displaygroesse und welchem Monitorabstand 4k aufloesung beim Monitor sinnvoll ist. Aber ja an sich sollte die schrift schaerfer werden und noch kleinere schrift wegen genaueren Konturen noch leserlich bleiben. Von daher sollte auch ein 24 Zoller bei 0.5-1m abstand was bringen, oder seh ich das falsch?

Tablets mit 4k werden mal sicher bald kommen oder gibts die schon und da ist der abstanda uch nicht zwingend so viel kleiner wie zum monitor. schon ein bisschen, aber das sind dann auch nur 10". (naja noch nicht da, aber 12" kommt noch dieses jahr, 10" wirds dann 2015 regnen)

http://www.ultra-hdtv.net/samsung-12-zoll-4k-tablet-kommt-noch-2014/
 
blackiwid schrieb:
Von daher sollte auch ein 24 Zoller bei 0.5-1m abstand was bringen, oder seh ich das falsch?

Guck mal nach der Winkelauflösung des menschlichen Auges...

Also bei den üblichen Sehabständen für die Glotze (abhängig von der Bildschirmdiagonale) bringt dir 4k dann nämlich nichts. Klar, man könnte bestimmt einen Unterschied sehen zwischen Full- und Ultra-HD, nur wer sitzt schon deswegen einen halben Meter vor einem 60-Zöller??
 
Zurück
Oben