News DisplayPort 2.1: Erste Monitore inklusive 8K UltraWide ab Anfang 2023

Nein, vergesse ich nicht, denn zum Arbeiten ist der "Korridor" 50-80cm relevant! Weicht man davon ab, dann hat man entweder einen zu dicken Bauch, der es nicht zulässt näher an den Schreibtisch zu kommen, oder man hat ohnehin (wie bei vielen hier wohl der einzige Lebensinhalt) ein Gamepad oder ähnliches Gedöns in der Hand und kann überhaupt nicht nachvollziehen, über was sich hier Erwachsene unterhalten!
 
Zoldan schrieb:
Hier geht es aber nicht um den reinen Platzgewinn auf dem Bildschirm, hier geht es in erster Linie um Darstellungsqualität! Wann geht das endlich mal in eure Köpfe rein! Mehr als 200 PPI ist hier das Ausschlaggebene. Wenn man das einmal verstanden hat, dann braucht man auch nicht mit Pixel-Zahlen um sich werfen, weil man ansonsten immer noch dazu wissen muss, auf was für eine Diagonale sich ein Wert von z.B. 7.680 x 4.320 bezieht. Wenn diese Pixel auf eine Flache von 100" verteilt sind, dann wäre das eine schlechte Qualität für ein Arbeitsbildschirm, aber auf 42" wäre das sofort gekauft!

SO! Und dann erst ist es interessant wie groß dein Display-Desktop ist! Gerne dann auch mit 120Hz+, aber bitte nicht mehr solch einen Einheitsbrei von nur 4K.
Hmm? Hab doch selbst geschrieben, dass ich 8k am PC gut finden würde :) Da sitzt man nah genug am Bildschirm, so dass man von hohen dpi profitiert. Beim TV haben wir 8k und finde es unnötig bei 75".
 
  • Gefällt mir
Reaktionen: Zoldan
8K UltraWide...ein Hoch aufs Marketing. Warum nicht gleich 1000K UltraDerp oder so?
 
Zuletzt bearbeitet:
Laphonso schrieb:
Also Du hast eine und stehst vor Deinem DP 2 Monitor und merkst "Oh nein, Geht nicht!"

Oder wollen wir über reale usecases diskutieren? ;)
Ich kenne mehr Enthusiasten als wohl viele hier, was an meiner Altersgruppe liegt und daran, dass da alle in fair bezahlten Vollzeitjobs sind.
Für niemanden dort spielt DP 2.0 eine Rolle. Nullkommanull.
Wir sind froh, dass man die aktuellen Auflösungen endlich mal "ausfahren" kann mit fps+settings.

Für alle anderen, diese unfassbaren MASSEN, die nun ausgrechenet deshalb die 4090 liegenlassen müssen ;-) gibts dann ja AMD.

Wie mehrere Leute hier schon geschrieben haben, muss es erst einmal grafikseitig Anschlüsse geben. Wenn ich so viel Kohle für eine dämliche Grafikkarte ausgebe (gilt für alle Hersteller), will ich keine Anschlüsse von 2016 (!) da dran sehen. Ich behalte meine Hardware aber im Regelfall sehr lange und tausche nicht jedes Jahr aus. Ich hab das Spiel schon einmal mitgemacht mit den ersten 144Hz 4k Bildschirmen, wo dann entweder nur 120Hz gingen oder man mit 2 Kabeln arbeiten musste und kein Freesync mehr hatte bei 144Hz = Fazit: Nein danke!

Und noch einmal für dein Verständnis: Displayport 2.1 ermöglicht erst neue (interessante) Monitore, die sich nächstes Jahr zeigen werden. Es gibt Leute, die nicht nur spielen mit ihrem Rechner und entsprechend auch andere Ansprüche daran haben... Und ich bin absolut auch in der Zielgruppe für einen solchen Monitor. Was mich daran bisher gestört hat, habe ich dir schon geschrieben, dass waren alles Limitierungen von dem Displayport-Anschluss geschuldet. Das Gleiche gilt übrigens auch für 6k / 8K Monitore, die es bisher entweder gar nicht oder nur mit 60Hz gibt. Sowas nennt sich dann technischer Fortschritt.

LG

Micha
 
  • Gefällt mir
Reaktionen: Syrato
Eidgenosse schrieb:
Was ich partout nicht verstehe ist, dass es keine 38" Monitore 21:9 mit 3840x2160 Auflösung und 120 Hz+ gibt. 38" ist doch perfekt da nicht zu gross und doch das ganze Sichtfeld abdeckt. Warum haben die verfügbaren Geräte alle nur 1600p? Hat das technische Gründe? Warum wird 38" 4K so stiefmütterlich behandelt?

Kann man in Zukunft auf so ein Gerät überhaupt hoffen?

Das ist eine 16:9 Auflösung. Wie soll es das in 21:9 geben? Unmöglich.


Verstehe nicht warum Nvidia bei einer 2000+ teuren Karte noch 1.4 setzt.


Glaube einige user hier wären mit ihren Wunschvorstellungen ganz gut mit einem 42C2 bedient. Den einfach fürs gaming in einer custom resolution laufen lassen (3840x1600/1620) und man hat zum Arbeiten und Zocken einen super Monitor. Zusätzlich noch die dimming Funktionen deaktivieren.

Habe jetzt insgesamt schon 2500 Stunden Laufzeit und lasse ihn meistens auf 35% Helligkeit laufen. Völlig ausreichend selbst in einem hellen Raum. Und das glossy display möchte ich auch nicht mehr missen. Alternativ halt die neuen OLED Monitore von Asus, LG, Philips - bauen alle auf dem C2 auf. Leider matte Displays und teils andere Kinderkrankheiten + doppelt so teuer. Mal sehen was nächstes Jahr mit dem C3 kommt.
 
G.Rottig schrieb:
Einzig in der Höhe könnte man etwas draufpacken. Statt 32:9 vielleicht auf 32:10 und dann als OLED.
Genau meine Meinung. Mein Monitor siehe Signatur. OLED wäre noch das i-Tüpfelchen. Etwas mehr Höhe würde ich mir wünschen und mittlerweile würde ich auch die zusätzliche Biegung des Nachfolgers G9 bevorzugen.
Den Monitor als 4k oder 8k kann eh keine Grafikkarte befeuern bzw. mit dem MOnitor muss man beim Grafikkartenkauf ja sowieso auf die çK-Performance schauen (ca. 7 Mio Pixel, 8k=ca. 8 Mio Pixel). Selbst die 120 Mhz/1440p mit Raytracing schafft kaum eine Grafikkarte weswegen ich noch bei der 1660s bleibe und evtl mal auf die 7900xtx gehe oder nochmal ne Generation warte. Die 240Mhz des G9 mit 1440p schafft nichtmal die 4090 bei AAA Titeln mit Raytracing. Vieleicht in 2-3 Grafikkartengenerationen. Aber dann gibts evtl auch bessere Monitore.
Aber dafür verbrenn ich jetzt nicht nochmal hunderte Euros und bin zufrieden mit dem was ich habe.
Vielleicht gibt es ja mal irgendwann einen 32:10 OLED mit 1000R Biegung. Dann denk ich nochmal über Tausch nach.

Postman schrieb:
Bei dem aktuellen NVIDIA-Meisterstück nur schade, dass der neue DP-Standard dort noch nicht unterstützt wird. Man wollte wohl den Preis nicht noch weiter nach oben treiben, da vmtl. zusätzliche Kosten dabei entstehen.
nvidia hat das nicht nicht integriert um den Endpreis nicht zu hoch ausfallen zu lassen, sondern (wie immer bei nvidia) zur Gewinnmaximierung.

Das waren jetzt viele "nicht" :-)

Das ist wie bei der 3080 10Gb. Man muss dem Kunden in der nächsten Generation auch auch noch Neuerungen bieten können, um Verkaufsargumente zu haben.

Auch wenn AMD nicht schneller rechnet als nvidia, statten die Ihre Karten wenigstens vernünftig mit RAM und neuen Anschlussstandards aus. So kann man eine AMD Karte auch länger behalten, sofern einem die Rechenleistung ausreicht. nvidia gehts dann schon deutlich früher nicht mehr mit nem neuen Monitor oder steht mit dem RAM schon an. Und die tolle Effizienz die nvidia mal hatte (siehe meine Karte) ist mittlerweile der Brechstange gewichen, obwohl die 4090 mit UV wieder besser geworden ist.
 
DisplayPort, HDMI, USB, Thunderbolt ... mehrere Standards, die sich alle bereits eignen, um mehr als nur Bild- und Tonsignale zu übertragen. Ich finde das nicht nur extrem verwirrend, es werden schon wieder eigene Süppchen gekocht, die dem Endanwender alles andere als Klarheit verschaffen.

"Früher war alles besser!" ist natürlich Stuss, aber mittlerweile kann ich alleine per USB Daten über's Netzwerk jagen, wofür ich im Datacenter-Bereich zig tausende Euros für eine geeignete SAN-Infrastruktur ausgeben muss; das ist etwas sehr Gutes! Aber wenn dieselbe Technik verwendet wird, um im MediaSaturnMarkt Abspielgeräte an Kunden zu bringen, dann ist das Wirrwarr doch schon fast perfekt. Wer weiß denn heute noch verbindlich, welches HDMI-Kabel zu meinem 4K-Abspielgerät passt?

USB mit seinem Namens-Wirrwarr macht das Chaos noch perfekt; kaum einer weiß, dass es Protokolle sind und das "Typ C" zunächst nur den Stecker meint. Was dahinter steckt, welche Iterationen und Logos es gibt, die dabei zig unterschiedliche Übertragungsstandards- und geschwindigkeiten demarkieren, und dabei lehne ich mich glaube ich gar nicht mal weit aus dem Fenster, ist auch den meisten Fachkundigen wohl nicht geläufig.
 
michelthemaster schrieb:
Und noch einmal für dein Verständnis: Displayport 2.1 ermöglicht erst neue (interessante) Monitore, die sich nächstes Jahr zeigen werden.
Für welchen usecase genau?
Für 4K und 240 Hz bei Ballerspielen auf "interessesanten" Monitoren brauche ich keine 4090.
Sonden die FPS Killer Games und Grafikeinstelllungen, also ironischerweise Szenarien, die das gegenteilige Problem lösen, in denen DP 2 gar nicht relevant ist.

Die 4090 kaufe ich (und alle anderen, von denen ich das weise oder gelesen habe, auch hier im Forum), damit ich die Ultramax Raytracing Games endlich mal deutlich über 60, 80 oer 80 fps sehe, an der bisher die 3090 und die 6900XT sowieso gescheitert sind.

Ich habe nicht einen einzigen Nvidia reddit Post der 4090er buyer showcases gesehen in der nur ein einziges Mal der Kommentar des OP kam "Oh Mist, mir fehlt Display Port 2."

Ist für mich eine absurde Debatte, um irgendetwas zu finden. Das AMD Marketing hatte bei einigen hier Erfolg ;-)
 
Hallo Kollege,

ehrlich gesagt finde ich die Diskussion hier sehr müßig... Es kann ohne DP 2.1 schlichtweg manche Monitore nicht geben. 5120x2160 mit 144Hz+ zum Beispiel (was in Kombination mit einem OLED-Panel mein absoluter Wunsch wäre). Wenn dein Horizont nur dahin geht, dass 4k 144Hz die Fahnenstange für dich ist, ok. Aber es sei erlaubt, dass andere Leute andere Ansprüche haben und nicht nur spielen mit ihrem Computer... Und ich würde auch 240Hz bei 4k (oder noch besser 6k oder 8k) bevorzugen, weil mehr Hertz und Auflösung immer besser ist. Und die meisten alten Gurken die ich spiele, laufen wahrscheinlich dann auch mit 240fps... Und zum arbeiten kann die Pixeldichte gar nicht hoch genug sein. Selbst meine olle (bezogen auf die Auflösung) Sony a9 reizt einen 6k-Monitor schon komplett aus, von der a7rII brauchen wir gar nicht erst zu reden.

LG

Micha
 
  • Gefällt mir
Reaktionen: KitKat::new(), lord.orth und schneeland
@Laphonso Wenn du da irgendwelchen Listen führst mit Leuten die die 4090 nicht kaufen wegen DP 1.4, dann schreib mich drauf.

Den Preis hätte ich mir ja noch irgendwie schön reden können, da die Effizienz und Leistung gut ist.
Aber als ich gesehen hatte das dort noch DP 1.4 verbaut ist, war die Entscheidung dagegen sehr leicht.

Aktuell warte ich sehnsüchtig auf bessere Monitore und dem wird einfach der Rest der Hardware untergeordnet. Damit dürfte ich zu einer sehr kleinen aber vorhandenen Gruppe gehören.

Ich tausche auch nicht jede Generation die Karte und kann auch einfach auf die nächste Generation warten. So dringend ist es jetzt auch nicht.
Die Spiele wo ich Raytracing nutzen wollte halten sich in Grenzen und sind sowieso Singleplayer, die bleiben dann halt einfach etwas länger auf der Wartebank, bis einer der Anbieter mir genug Leistung liefern kann.
Und für die restlichen Spiele reicht es bisher noch, zumindest mit Einschränkung.

Die Umsetzung von AMD ist auch nicht ideal, nur UHBR 13,5 und nicht UHBR 20, aber besser als nichts. Wenigstens etwas Fortschritt.
Aktuell würde ich das eher kaufen aber vermutlich warte ich auf die nächste Generation mit dann hoffentlich voller Unterstützung von allen Herstellern.
 
Zuletzt bearbeitet:
@VirusA87 Da Du Dir nicht deshalb die 7900XTX kaufst, gehört Du NICHT zu dem usecase.
Du kaufst jetzt also sowieso keine next gen Karte?


VirusA87 schrieb:
Aktuell warte ich sehnsüchtig auf bessere Monitore
Das ist ein ganz anderer Fokus ;) Ich habe direkt 20 games für meine 4090 unter UWQHD, da warte ich auf keine anderen Monitore.

Ich spreche von der early adopter Gruppe und Enthusiasten. Um diese Grundgesamtheit gibt es mir, vor allem die "sehr leichte" Entscheidung zeigt ja, dass Du - im Gegensatz zu den Freaks hier - gar nicht "eingelockt" warst.
Ich sprach nicht von "Naja mal sehen", sondern denjenigen, die sowieso jetzt next gen kaufen, egal welcher Flotte.

btw

1668514160056.png



Wäre die 4090 eine 120 min fps GPU übergreifend, verstünde ich die Diksussion.
Sie liegt im 4K Mittel (bei Igor) bei 87.2 min fps.

Da fehlen nochmal 30-40% Performance, bevor hier 120 ein limitierender Faktor sind.
Oder zynisch gesagt: Die 4090 ist dafür selbst auch noch zu langsam.

Wait for "next next Gen" :D

Die 5090 hat dann ja sicher DP 2.0 @VirusA87 Einfach 2 Jahre warten, Deine jetzige GPU wird nicht schlechter. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PHuV
Che-Tah schrieb:
Braucht man wirklich noch mehr Pixeldichte?
Im Moment würde ich beim PC mehr Hz den Vorzug geben…
…Und OLED.
Weiß nicht. Bist Du denn imme rnoch mit deinen Smartphone und deiner 320x640er Auflösung zufrieden?
 
Laphonso schrieb:
Du kaufst jetzt also sowieso keine next gen Karte?
Eigentlich halte ich schon Ausschau nach einer stärkeren Graka und die 4090 wäre durchaus ein Kandidat gewesen. UHD ist einfach ein Leistungsfresser.
"Sehr leicht" ist vielleicht auch etwas übertrieben. Ich hab die Wochen nach der Vorstellung immer wieder darüber nach gedacht bin aber früher oder später immer wieder an diesem Punkt hängen geblieben.
Ich habe keine Lust, wenn ein passender Monitor vorgestellt wird, auf ein Downgrade um diesen dann betreiben zu können.

Die 7900XTX ist jetzt nicht die erste Wahl aufgrund der Raytracing Leistung, aber sollte ein passender Monitor kommen, auch wenn ich es eher für unwahrscheinlich halte, wird die sofort gekauft.
Immerhin schneller als die 2080 TI.
 
  • Gefällt mir
Reaktionen: Laphonso
michelthemaster schrieb:
Aber es sei erlaubt, dass andere Leute andere Ansprüche haben und nicht nur spielen mit ihrem Computer...
Dann kann man sich ja auch 2 Karten dafür verbauen, eine 4090 und eine günstige 7500/7400…
 
Capthowdy schrieb:
DisplayPort 2.1? Gut dass nVidia bei der 4090 darauf verzichtet hat. 🤦‍♂️

Vollkommen irrelevant für die aktuelle Grafikkartengeneration im Gamingbereich. In 2 oder 3 Jahren vielleicht, ja. Ausserdem, wo sind die Displays dafür?
 
domian schrieb:
Vollkommen irrelevant für die aktuelle Grafikkartengeneration im Gamingbereich.
Oh, da kann jemand schon die nächsten zwei Jahre direkt überblicken und weiß was da alles kommt, tolle Glaskugel hast du da.

domian schrieb:
Ausserdem, wo sind die Displays dafür?
Hast du ernsthaft noch nicht mal die Überschrift gelesen? 🤦‍♂️
 
Che-Tah schrieb:
Mein Smartphone lese ich nicht aus 1 Meter Entfernung.
…oder ist andersrum deine Nase 15cm nahe am Monitor dran?
Das erklärt natürlich auch einiges, wenn Du dein Handy nur aus 15cm Entfernung nutzt. Dann musst Du ja quasi blind sein. Und was machst Du dann hier in diesem Thread? Oh, moment ... mal in größer, damit Du es auch lesen kannst:

Und was machst Du dann hier in diesem Thread?
Ergänzung ()

domian schrieb:
Vollkommen irrelevant für die aktuelle Grafikkartengeneration im Gamingbereich. In 2 oder 3 Jahren vielleicht, ja. Ausserdem, wo sind die Displays dafür?
Ja, aber wir sind eben nicht ausschließlich im Gamingbereich. Das ist vielleicht alles wichtig für Dich, aber andere User nutzen tatsächlich solche Hardware auch zum arbeiten, gar zum kreativen arbeiten! Gaming ist nicht das Zentrum von allem, aber manche verstehen das anscheinend nicht!
 
Zurück
Oben