• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Assassin's Creed Odyssey: Für UHD reicht eine GeForce GTX 1080

DoktorToast schrieb:
Aber ich spiele grade Witcher 3 auf der One X in 30FPS und man merkt den Unterschied zwar, aber es ist keinesfalls ruckelnd.
Als ich das erste Mal Witcher 3 auf 144Hz gespielt habe mit ner potenten Graka. :o
30 FPS ist ein Konsolenstandard, aber auf PC sind wir doch schon weiter.
 
Taxxor schrieb:
Als ob ein UHD Monitor etwas wäre, was sich der Durchscnitts-Gamer leisten kann oder will...
...
Die Karte ist günstiger als ein anständiger UHD Monitor, wer sich den nicht schon geleistet hat, braucht darüber also sowieso nicht nachzudenken.

Erstmal. Deine Aussage ist schlichtweg falsch.

UHD-Monitore gibt es bereits ab 249€.

Die billigste GTX 1080 kostet aber bereits 459€.

Allerdings ist deine eigentliche Fehlannahme die "TV-Zocker" zu vernachlässigen, die im Wohnzimmer auf der Couch spielen, oder bei denen sich im Jugendzimmer der PC einen TV, und keinen Monitor, mit einer Konsole teilt. Und das ist mit Sicherheit eine weit größere Gruppe, als Besitzer einer GTX 1080 oder besser.

Zum Thema Vega64 - sie ist von der Leistung unter einer GTX 1080 zu sehen, eher mit einer GTX 1070ti vergleichbar denn mit einer GTX 1080. Aber das ist völlig egal, weil nur AMD-Fanboys sich die Karte geholt haben. Sie war aufgrund der Mining-Problematik viel zu teuer. Ist aber auch ein ganz anderes Thema und hier völlig unwichtig.

Aber um zum Game zurückzukommen: Ich fand AC Origins größtenteils einfach super, abgesehen daß ich seit Black Flags immer Schiffe vermisse. Die Schiffs-Geschichten in Origins waren eher mau. Ich freu mich als AC-Hardcore-Fanatiker schon auf den nächsten Teil. Hoffe, daß sie wieder den ganzen Anymus-Quatsch wieder auf ein absolutes Mindest-Maß reduzieren. Ich hab immer noch Alpträume vom aller ersten Teil, wo man sich in Zeitlupe durch diesen Blödsinn bewegen mußte, und wehe man ist gestorben oder wollte eine bestimmte Sequenz wiederholen. Seit dem hasse ich grundsätzlich Spiele, bei denen die Entwickler meinen irgend einen fast-tot-Zustand einbauen zu müssen, bei dem man nur im Kriechtempo voran kommt.
 
Dorne schrieb:
46 Gb Festplattenspeicher :freak: wahnsinn wieviel Speicher mittlerweile Spiele verbrauchen

Na ja was ist daran Wahnsinn wenn man UHD Auflösungen will? Das brauch halt eben Platz...
 
30 fps ist ausreichend für AC und ähnliche Titel meiner Meinung nach. Mit motion blur natürlich, genau so wie auf den Konsolen. Ohne motion blur wäre es mir zu ruckelig. Das ist wie bei Videos, 24 oder 30 fps ist ausreichend flüssig solange jeder frame mit 1/50 bzw. 1/60s Verschlusszeit aufgenommen wurde. Bei kürzeren Verschlusszeiten fehlt das motion blur und es wird ruckelig, kann jeder mit seiner Kamera ausprobieren z.B. manuell auf 1/4000s stellen.

Und ja ich erkenne den Unterschied zwischen 30 und 60 fps, sogar zwischen 60 und 120fps. Und selbstverständlich ist mindestens 60fps bei First-Person-Shooter Titeln Pflicht.
 
Nolag schrieb:
Natürlich ist es genau umgekehrt. Wäre es anders würde Kino und TV nicht funktionieren.
Ergänzung ()

Wenn ich jeden einzelnen Pixel erkenne, dann ist das Bild nicht scharf. Ich sehe das Sub-pixel Antialiasing bei Schrift, ich sehe auch die Unschärfe der Kameras und des YUV420 Farbraumes bei Filmmaterial. Mit dem Abstand steigt der Schärfeeindruck.


Nein, eben nicht. Wenn der Abstand vergrößert wird, dann nimmt auch die Schärfe ab und deshalb können keine einzelnen Pixelabstufungen mehr wahrgenommen werden. Umso geringer die Auflösung bei einer bestimmten Bildgröße wird, umso weniger Details können abgebildet werden und umso unschärfer wird das Bild, wenn man den Abstand proportional zur Pixeldichte anpasst. Nicht ohne Grund sehen alte VHS-Aufnahmen auf großen Ausgabegeräten so unscharf aus.

Deshalb darf auch die Pixeldichte nicht zu gering sein, denn dann ist das Bild in der Enfernung unscharf und in der Nähe pixelig. Nur fällt das bei Filmsequenzen eben nicht so auf.
 
Duke711 schrieb:
Da ändert sich nur die Wahrnehmung. Bei eine Vergrößerung des Abstandes werden die Konturen als unscharf/verschwommen wahrgenommen und bei einer Verringung des Abstandes wird dann die Pixelabstufung sichtbar. Übrigens müssige Diskussion. < 100 DPI als Desktopbetrieb suboptimal. Für Videosequenzen meisten ausreichend. Für Spiele je nach dem. Da auch hier meist Schriften und andere kleine Konturen auftauchen. Auch meisten suboptimal. Bei 55" 4K mit 16:9 sind es übrigens nur noch 80 DPI.

Es geht doch gerade lediglich um die Wahrnehmung?! Und genau davon hängt auch ab, was für den jeweiligen optimal ist... Da kann man keine festen Regeln anhand der DPI setzten.
 
Taxxor schrieb:
Und bei 1080p auf 24", was wohl die am meisten vorhandene Kombi sein dürfte, sind es auch nur 90dpi, müssten die Leute sich nicht massenhaft beschweren, wie verpixelt das alles ist?
Und die sitzen näher als einen Meter dran.

92 DPI, eben grenzwertig. Aber 1080p auf 27" (82 DPI) sieht richtig schlecht aus. Mal eine weile in der Auflösung surfen etc. Entweder sehr unscharfe Schriften oder bei einer Skalierung der Schriftgröße eben pixelig.
Ergänzung ()

TheOpenfield schrieb:
Es geht doch gerade lediglich um die Wahrnehmung?! Und genau davon hängt auch ab, was für den jeweiligen optimal ist... Da kann man keine festen Regeln anhand der DPI setzten.

Nein:

Deshalb darf auch die Pixeldichte nicht zu gering sein, denn dann ist das Bild in der Enfernung unscharf und in der Nähe pixelig. Ob das dann die Leute als störend empfinden oder nicht, ist dann wieder ein anderes Thema
 
@IT_Genius Ich habe Origins auf der One X gespielt und ich war, sagen wsr mal, ernüchtert. Das Framepacing ist derart schwankend gewesen das schon recht grenzwertig gewesen ist.

Japanische Studios bekommen das auf der PS Pro durchweg besser hin. Die meisten Games laufen mit 60fps.

Statt immer auf Krampf das letze bißchen zusätzliche Optik aus den Konsolen zu quetschen, sollten die Amis und Europäer lieber einen Gang zurück schalten und mehr Augenmerk auf brauchbare Frameraten legen.

Taxxor schrieb:
Dann bin ich wohl ein Fehler in der Matrix, wenn das so indiskutabel ist.
Das mag für 1-2 Stunden gut gehen, aber wenn ich mal 4, 5 oder 6 Stunden zocke, dann ist die Couch nicht wirklich bequem, da es egal in welcher Haltung auf Dauer unangenehm wird.

Induskutabel ist das Spielen am Schreibtisch sicherlich nicht. Sonst hätte ich nicht seit Ewigkeiten einen Gaming PC im Büro stehen ;)

Induskutabel ist eher deine Art zu diskutieren weil du hier jedes Thema in Richtung Schwarz/Weiß ziehst, was immer schnell eskaliert.

Es wird übrigens davon abgeraten ohne Pausen länger als 60 Minuten vor dem Bildschirm zu sitzen. Statt hier über deine Probleme bei deinen Marathon Sitzungen zu referieren, solltest einfach mal den PC runterfahren und was anderes machen ;)
 
Duke711 schrieb:
Nein:

Deshalb darf auch die Pixeldichte nicht zu gering sein, denn dann ist das Bild in der Enfernung unscharf und in der Nähe pixelig. Ob das dann die Leute als störend empfinden oder nicht, ist dann wieder ein anderes Thema

Was erzählst du da bitte? Eine ideale Pixeldichte kann nur für einen festen Sitzabstand für jeden individuell bestimmt werden.

Und eine Pixeldichte ist "ideal", wenn sie so niedrig wie möglich, aber so hoch wie nötig ist. Damit es eben nicht "pixelig" aussieht, oder eben zu viel des Guten ist (Skalierung notwendig).
 
Zuletzt bearbeitet:
Duke711 schrieb:
Nein, eben nicht. Wenn der Abstand vergrößert wird, dann nimmt auch die Schärfe ab und deshalb können keine einzelnen Pixelabstufungen mehr wahrgenommen werden.
Bei mir hat der Schärfeeindruck nichts mit Pixeln zu tun. Ich bin froh, dass ich hinten im Kino den Eindruck eines halbwegs scharfen Bildes habe und ich nicht den verschwommenen Brei, der auf die Leinwand projeziert wird sehen muss.
 
tek9 schrieb:
Induskutabel ist eher deine Art zu diskutieren weil du hier jedes Thema in Richtung Schwarz/Weiß ziehst, was
Du bist doch der mit dem schwarz weiß denken, wenn du sagst dass es nichts an der in deinen Augen Tatsache zu diskutieren gäbe, dass es bequemer ist auf der Couch zu zocken.
Ergänzung ()

Duke711 schrieb:
92 DPI, eben grenzwertig. Aber 1080p auf 27" (82 DPI) sieht richtig schlecht aus. Mal eine weile in der Auflösung surfen etc. Entweder sehr unscharfe Schriften oder bei einer Skalierung der Schriftgröße eben pixelig.
Wir nutzen auf der Arbeit 34" 21:9 1080p Monitore von LG, bisher ist mir die Auflösung nicht negativ aufgefallen.
 
Oh, nur die beste Grafikkarte auf den Markt reicht, na da habe ich ja nochmal Glück gehabt.
 
Mmmhh, bin ich hier wohl doch Falsch.

Dachte es geht hier um AC Odyssey, aber anscheinend geht es hier nur noch um TV,s, Monitore und deren Auflösung, Hz, DPI und Sitzabstand...

Übrigens ist Osyssey nicht auf 30 FPS gedeckelt/gelockt, sondern man kann auch das mit 60 FPS zocken wie Origins.
Aber kaum ist es von Ubisoft wird erst mal von vielen gehatet, obwohl das Spiel noch nicht mal veröffentlicht ist.
 
  • Gefällt mir
Reaktionen: simzone5
nebulus schrieb:
Ein UHD TV ist heute Standard und für wenig Geld zu haben. Die PS4 Pro wirbt damit in 4k zu spielen. Also ist 4k doch schon Standard...

Dazu muss man sagen, eine Ps4 Pro kostet weniger als eine 1080!!!!

und ein 4K TV kostet weniger als eine 1080 ;)
 
DarkerThanBlack schrieb:
Und wieder nur auf 30FPS gedeckelt? Die lernen es wohl nie...
Das sehe ich ja jetzt erst, die Anforderungen orientieren sich an 30 FPS?! Was soll denn der Quatsch? 30 FPS, wer kann denn damit vernünftig spielen, ich kriege ja schon bei 40 die Krise...
 
KuanYin schrieb:
türlich, Guter Eizo oder Nokia Monitor CRT natürlich 1024er Auflösung. Fiebte ab und an aber ging. Dazu noch mit ISDN auf die Server und einfach nur gerockt

Und den "Turbomodus" mit ISDN-Doppelkanal :D
 
DoktorToast schrieb:
Ich hab nie verstanden wieso man bei Spielen wie AC 60FPS braucht. Bei Shootern, ja. Aber ich spiele grade Witcher 3 auf der One X in 30FPS und man merkt den Unterschied zwar, aber es ist keinesfalls ruckelnd. Einfach nur etwas “langsamer”. Ist bei Singleplayer 3rd-Person wirklich kein Thema, wenn man dafür 4K rennen kann.
Wenn du zehn Minuten lang Witcher 3 mit 60 FPS spielst, willst du es nicht mehr mit 30 spielen! Es ist einfach alles viel sanfter und flüssiger. Und das hat auch mit dem Genre überhaupt GAR NICHTS zu tun. 30 FPS sind 30 fpst. Gerade bei Spielen wie Assassins Creed und Witcher sind 60 frames äußerst sinnvoll, jede Drehung, jedes Umschauen ist einfach viel sanfter und smoother. Nicht zuletzt reagiert natürlich auch der Controller etwas direkter.

Leute die sagen, sie brauchen keine 60 FPS sagen das nur, weil das bei ihnen nicht möglich ist. Was auch völlig okay ist, manchmal muss man sich im Leben was einreden, um zufrieden zu sein (meine ich gar nicht sarkastisch).
 
  • Gefällt mir
Reaktionen: GGG107
Mordhorst3k schrieb:
TheOpenfield schrieb:
Ich denke, die Vor- und Nachteile von Vsync sollten hier im Forum mittlerweile jedem geläufig sein.
Ergänzung ()

Skidrow schrieb:
Leute die sagen, sie brauchen keine 60 FPS sagen das nur, weil das bei ihnen nicht möglich ist. Was auch völlig okay ist, manchmal muss man sich im Leben was einreden, um zufrieden zu sein (meine ich gar nicht sarkastisch).

Das ist - zumindest auf dem PC - nicht der Fall. Hier kann jeder seinen eigenen Kompromiss aus FPS und Auflösung/Detailgrad finden. Und wenn jemand mit entsprechend niedrigeren FPS spielt, ist das idR eine bewusste Entscheidung. Natürlich würde man dennoch die höheren FPS bevorzugen, wenn das mit selben Einstellungen möglich ist.
 
Zuletzt bearbeitet:
Zurück
Oben