Kommentar Kommentar: Meinen Wunsch-Monitor gibt es nicht

@HisN: Du sprachst von 4k mit High Details (Und somit Spielbar) gegenüber "normalen" Auflösungen mit Ultra Details. Ich bevorzuge letzteres, da der einzige Vorteil von 4k die gestiegene Bildschärfe ist. Wo Du durch 4k mehr "Details" im Spiel haben willst, würde mich mal interessieren... Die Texturen werden dadurch nicht automatisch detaillierter und die Objekt- und Polygondichte steigt schon gar nicht.
 
HisN schrieb:
Da fehlt der "ich kann auch ohne Ultra-Modus vom User"
Anstatt sich an Ultra zu klammern, dessen Unterschiede zu high sowieso nur mit der Lupe zu sehen sind, könnte man anfangen die Detailfülle auf einem 4k Moni zu geniessen und aufhören diesen Performance-Quark zu verbreiten.
Nix von Schärfe zu lesen.

Ist ganz einfach.
Was Du im Hintergrund noch als Fläche von 10x10 Pixeln siehst, ist für mich eine Fläche von 40x40 Pixeln, auf der eventuell eine Schrift/Grafik zu erkennen ist, während sie auf 10x10 nur ein Pixelhaufen ist.

Die Kantenlänge kannst Du mit beliebigen Werten füllen. Du wirst auf der größeren Fläche immer mehr Details sehen, WENN sie denn vom Programmierer/Designer sinnvoll mit Inhalten gefüllt ist.
Und jetzt der Knaller. Das gibt es sehr sehr oft. Das repetive wiederholen von Texturen oder Objekten aus früheren Zeiten ist nicht mehr. Das wurde abgelöst durch Multi-Millionen-Dollar-Projekten die sehr viel Mühe und Aufwand in Details stecken.
Das die Polygon-Anzahl steigt behauptet auch niemand, aktuell wird doch eine Detail-Struktur durch Texturen gefaked. Nimm Dir z.b. die aktuelle News zum Patch von GTA auf den Konsolen zu Herzen. Da steht genau was passiert :-)

https://www.computerbase.de/news/gaming/gta-v-verwirrung-um-reduzierte-grafikqualitaet.48929/

Was denkst Du warum ich ein verfechter von viel VRAM bin. Weil ich meine Texturen-Auflösung gerne auf Ultra stelle :-) Und den Grund dafür kennst Du jetzt auch.
 
Zuletzt bearbeitet:
HisN schrieb:
Dann haste ja immer noch gewaltig Zeit. Und es wird bestimmt bis dahin noch gewaltig optimiert.
CR hat gesagt, das Spiel wird wenn es fertig ist, auf der Hardware laufen, die mann dann kaufen kann. Warum eiert ihr heute damit rum und zieht die (unoptimierte) Alpha als Referenz zu irgendwas ran?
OMG. Aber nicht auf einem 4k Display mit 120 fps und nicht auf guten Qualitätseinstellungen. Auch das hat CR nämlich gesagt, dass das Spiel auch noch in zig Jahren das aller beste System voll auslasten wird. Selbst mit der Oculus Rift wird das Spiel schon schwer zu kämpfen haben, denke ich mal.

Ich ziehe im Übrigen auch nicht nur das Spiel als Referenz heran. BF4 kann ich auch nicht so spielen wie ich es möchte. Selbst heute nicht auf meinem einfachen Full HD Monitor. Selbst da muss ich mich mit instabilen 90 fps und 150% Supersampling auf Low Settings zufriedengeben, obwohl ich die 120 fps bei 200% noch gerne hätte.

Das zusätzliche 50% Supersampling entspricht übrigens ungefähr dem Leistungsverlust von einem 4xMSAA + FXAA, dass ich stattdessen weg lasse.
Und wenn man mit Referenz, Ultra, 120 FPS, 4TXAA und 4K an irgendwas rangeht, dann stimmt natürlich auch ... das schafft zur Zeit keine Hardware in 4K. Das ist allerdings auch nur ne ganz kleine Teilmenge der Gamer, die so denkt.
Glaube ich nicht. In Battlefield hängt die Updaterate des Clients zum Beispiel von der Framerate ab. Wenn ich also mit 120 fps spiele, dann schicke ich auch meine Daten 120 mal zum Game-Server. Sowas sollte eigentlich recht viele Gamer interessieren, wenn man bedenkt wie viele sich immer über den schlechten Netcode aufregen.
 
*Sigh*
Nochmal: Der einzige Grund, warum man 4k braucht ist die höhere Pixeldichte => höhere Bildschärfe.
Warum sollte ich dann also im Gegenzug auf dargestellte Details/Effekte des Spiels verzichten, wenn - zumindest ich - den Unterschied zwischen 90-100ppi bei herkömmlichen Monitoren und den Xppi bei einem 4k Display nicht wirklich sehe!?

Oder andersrum: Warum sollte ich auf 4k umsteigen, wenn ich - für spielbare Framerates - immer noch Details runterschreiben muss!?
 
noxon schrieb:
Ich ziehe im Übrigen auch nicht nur das Spiel als Referenz heran. BF4 kann ich auch nicht so spielen wie ich es möchte. Selbst heute nicht auf meinem einfachen Full HD Monitor. Selbst da muss ich mich mit instabilen 90 fps und 150% Supersampling auf Low Settings zufriedengeben, obwohl ich die 120 fps bei 200% noch gerne hätte.


Ich spiele BF4 in 4K mit fast 100FPS avg mit meinem System, so wie ich es gerne möchte. Ultra-Settings (ohne AA). Geht das nicht?

http://www.hardwareluxx.de/communit...ayer-benchthread-1004193-14.html#post23322645

@Falcon
Niemand verbietet Dir Deine Sichtweise, niemand verbietet mir meine Sichtweise. Das wir nicht auf einen Nenner kommen ist doch jetzt nicht schlimm. Warum stöhnst Du darüber? Weil mir der Schärfeeindruck nur am Rande irgendwas bedeutet im Gegensatz zu Dir?

Du Ultra (weils Dir wichtig ist) ich 4K (weils mir wichtiger ist) und wir bekommen beide auf unsere Art spielbare FPS. Und jetzt? Es sind zwei verschiedene herangehensweisen. Ich werde nie sagen "Ultra geht nicht", genau so wenig wie mir irgendwer weißmachen kann das 4K nicht geht.
Ich sag Dir ja auch nicht: Starte mal X-Plane, dreh auf alles was geht und bewunder die 20 FPS in Deinen Ultra-Settings die Du in 1024er Auflösung noch hast. Wenn man so an die Sache rangeht, dann geht nämlich GAR NIX. Wir werden (siehe SC) immer irgendwas finden das nicht geht. Super!
Lass uns die alten Pal-Röhrenmonitore wieder rausholen :-)
Aber weder Du noch ich, werden das daran festmachen, oder?
 
Zuletzt bearbeitet:
OHJA!!
Einen 27" mit maximal 2K Auflösung... Das wäre mal was!!!!!

So habe ich zum Eizo gefkriegen. Der ist top... Aber 23" is einfach .... klein.
 
zum Eizo gegriffen? Nicht zufällig auch zum Foris 2434? Das wären dann nämlich 23,8 Zoll :P

Ja ich mag den Foris 2434 sehr aber letztendlich ist auch das bei mir ein Kompromiss. Den als 27" mit 2160p 120/144Hz und dp1.2a wäre mir lieber.
 
Wieso muss eigentlich jede Forumsdiskussion auf CB in einen Religionskrieg ausarten? Sei es Intel vs. AMD, Nvidia vs. AMD oder wie hier hohe Auflösung vs. hohe fps.

Manche bevorzugen halt 4k und sind mit 40-60fps zufrieden, während andere 120+ fps brauchen und mit FullHD zufrieden sind.
Beiden Lagern gemein (und da schließe ich mich selbst ein) ist wahrscheinlich, dass sie die Must Have Eigenschaft des anderen Lagers gar nicht kennen.
Wenn ich eins gemerkt habe bei meinem Gewechsel zwischen Monitoren...Es ist sehr viel schwerer, auf eine Eigenschaft wieder zu verzichten, wenn man sie mal eine Weile genießen konnte. Bei mir war das absolut bei 144Hz und bis zu einem gewissen Grad auch bei Gsync der Fall. Und ich bin mir sicher, dass ich nach einer Weile 4K auch nicht mehr nach FullHD zurück möchte.

Zusätzlich wird hierdann auch noch meist ein gutes IPS Panel mit einem TN-Panel der billigsten Sorte und umgekehrt verglichen. z.B. lassen sich für das Anwendungsgebiet eines 144Hz Monitors mit einem guten TN-Panel imho genauso gute bzw sogar bessere Ergebnisse zu einem akzeptablem Preis als mit einem IPS-Panel erzielen.

Ich lach mich immer scheckig, wenn ich Posts lese wie: "4K, IPS, 144Hz für 300€...dann ist er gekauft...alles andere ist inakzeptabel".
Wobei wir zurzeit ja eher das Problem haben, dass es aufgrund Gsync/Freesync (auf das imho zurecht nicht verzichtet werden sollte) keine Monitore gibt, die den Großteil der gewünschten Eigenschaften hat unabhängig vom Preis.
In meinem Fall wäre es ein Monitor wie der LG 34UC97 mit Freesync UND 120-144Hz, für den ich ohne mit der Wimper zu zucken auch 1000€ bezahlen würde.
 
Zuletzt bearbeitet:
JackTheRippchen schrieb:
  • UHD
  • 120 oder 144 Hz

Da macht aber keine Grafikkarte mit dass ist DP1.3 da hast du schon wieder andere Probleme

HisN schrieb:
Überfall lese ich: Für 4k reicht die Leistung aktueller Grakas nicht.
Why?
Das ist so dermaßen an der Realität vorbei.

/sign
Das dachte ich immer auch bis ich bei einem Freund ueberzeugt wurde (Metro 2034 in 5K absolut fluessig, Team Fortress 2 250+ fps in 5k) zwar mit einem SLI-Gespann aus 2 780Ti aber wir konnten nichts finden was nicht absolut perfekt laufen wuerde... In allen Foren und auf vielen vielen Seiten wurde immer das Gegenteil behauptet.
 
graysson schrieb:
Wieso muss eigentlich jede Forumsdiskussion auf CB in einen Religionskrieg ausarten?

In meinem Fall wäre es ein Monitor wie der LG 34UC97 mit Freesync UND 120-144Hz, für den ich ohne mit der Wimper zu zucken auch 1000€ bezahlen würde.


Weil jeder seine eigene Meinung hat ?

Den LG würde ich auch ohne Freesync so nehmen aber mit 100hz+
Wobei LG keine Religion meiner Seits ist, nur bevorzuge ich LG.

so lange es da nichts gibt tut es wie gesagt die korea rübe.
 
ganz ehrlich, ich brauch den ganzen Hokuspokus von UHD & WQHD, nich... mir reicht Full HD (1920x1080) vollkommen aus... ich hab n 24" LG E2442V, tolles Teil... hoffe, ich bekomm nochmal sowas für SZ, dann klemm ich dort mein NB ran...
 
pmkrefeld schrieb:
/sign
Das dachte ich immer auch bis ich bei einem Freund ueberzeugt wurde (Metro 2034 in 5K absolut fluessig, Team Fortress 2 250+ fps in 5k) zwar mit einem SLI-Gespann aus 2 780Ti aber wir konnten nichts finden was nicht absolut perfekt laufen wuerde... In allen Foren und auf vielen vielen Seiten wurde immer das Gegenteil behauptet.

Na ja die zei Spiele sind nun auch nicht gerade die neusten ;)
 
Was hat das Alter mit dem Grafik Anforderungen zu tun.
Das funkelnagelneue Life is Strange läuft mit schwachen Grakas und das alte Crysis3 brauch Power.
 
Ha! Heroes of the Storm läuft sogar auf Ultra mit AA in 4K mit 60FPS und einer GTX 980. Zum Glück das einzige Spiel, das ich zur Zeit spiele.
 
Ich will wirklich niemanden beleidigen oder irgendwie kränken. Aber Wolfgang sollte einen Psychiater aufsuchen :D. Ob G-Sync oder irgend ein anderer Scheiss: Das leben ist nicht der Monitor ;). Ausser man muss etwas schreiben, damit es geschrieben wird.
 
Zuletzt bearbeitet:
@ oka
zu viel geraucht?

Der Monitor ist genau das auf was man tagelang guckt und das sollte schon passen! Gsync hat schon seinen Zweck. Wenn man den PC als Hobby hat ist der Monitor durchaus ein wichtiges Teil des Hobbylebens ;)

Ich würde es nur begrüßen wenn der Flüssigkristallscheiß endlich mal abgelöst wird und was neues wie OLED oder so auch im PC-Bereich Einzug finden darf....
 
Zuletzt bearbeitet:
@Van Doom:

Das ist doch alles geplant von der Kapitalelite dieser Welt!
Billige Technik, damit die Augen müde werden und die Menschen eher schlafen gehen.
Denn wer schläft kann keinen Unsinn machen, daher der elementare Kreislauf: Arbeiten -> Schlafen -> Arbeiten -> Schlafen uws...


[/Ironie]

:evillol:
 
Wolfgang schrieb:
Ha, ist ja lustig. Meiner hat genau dasselbe. Wobei ich das letzte Mal die Probleme bereits vor ein paar Monaten hatte.
Das hatte ich vor 2 Tagen auch mal wieder ist in den letzten 12 Monaten zuvor aber nicht aufgetreten. Davor hatte ich es aber auch schon ein paar mal. Ein und Ausschalten am Schalter auf der Rückseite hilt aber.
Das Problem trat hier auch immer dann auf wenn der Rechner den Bildschirm wegen nicht Nutzung in den Standby geschickt hat. Dann kommt es zu einer "Aufwachschwäche".
 
Artikel schrieb:
Ich persönlich möchte FreeSync jedoch auch mit bis zu 30 FPS und damit 30 Hertz nutzen können. Bei G-Sync geht das ja auch
Das stimmt ja nicht. Auch Gsync nutzt keine 30Hz bei 30 FPS sondern das doppelte: 60 Hz
Beide Techniken können nicht unter 40Hz mit der Monitorfrequenz wegen der Panel Reichweite 40-144 Hz.

gsync1.png
 
Zuletzt bearbeitet:
Zurück
Oben