G80 NewsFlash

:lol: Ich möchte Hinzufügen:

sei das Spiel konstant mit 60 Bildern pro Sekunde gelaufen - bei einer Auflösung von 2048x1536!

Also des is schon bissle arg übertrieben find ich.... Aber wenn das echt so gut läuft... Holla Die Waldfee :freak:
 
Ich konnte bei FEAR-Extraction Point auch beobachten, dass es etwas schlechter läuft als das Hauptprogramm. Spiele in 1600x1200 mit 4xAA/16xAF und allem auf maximum, soft shadows auf "aus", da sie meiner Meinung nach nicht besonders gut aussehen (Bild wirkt verwaschen). Die frameraten sind in Ordnung, nur gibt es einige wenige Stellen im Spiel (u.a. auch die von Wolfenstein 2k2 zitierte Absturzstelle gleich am Anfang), an denen die fps wirklich ziemlich droppen. :rolleyes:
Im großen und ganzen ist das Spiel mit obigen settings aber sehr gut spielbar.

Der bisher größte Hardware-Killer ist bei mir RainboxSix. Da bin ich schon etwas schockiert, wie schlecht es bei maximalen settings läuft (eigentlich unspielbar :freak:).

Mfg
 
Schonmal bemerkt, wie "schön" FEAR und Addon mit Vsync laufen? 38fps scheint irgendwie eine magische Zahl zu sein. Entweder läuft´s mit 75 fps, was der Hz Zahl des TFT´s hier entspricht, oder es droppt ziemlich oft auf 38 fps runter. Obwohl es mit Vsync schöner aussieht, muss ich es abschalten, geht ja gar nicht. Auch wenn man den internen Benchmark mit VSync laufen lässt, sind die Ergebnisse mit / ohne Vsync deutlich unterschiedlich. Was ohne Vsync noch mit 80 fps lief, läuft mit auf einmal mit 38 fps oder irgendwo knapp dadrüber. Deswegen habe ich auch mit VSync ein paar % unter 40fps beim Test. :rolleyes:

Außerdem finde ich, dass die Engine irgendwie die Lichtspielchen an den Wänden etc. recht hässlich darstellt, auch der Lichtkegel von der Taschenlampe. Wie soll ich´s sagen, zu abrupte Übergänge, als wenn das 16Bit Farbitiefe wäre.
 
Hi WOlfenstein,

du hast mit angeschaltetem VSYNC deswegen 38 FPS weil die Karte die 75 FPS nicht halten kann. Dann wird der Wert halbiert wenn sie es technisch nicht packt, deswegen 75/2=37,5

Grüße,
Dan
 
Nicht wahr, oder? Wer ist denn auf die geniale Idee gekommen, das so zu machen, wo ist der Sinn dahinter? In anderen Spielen habe ich dieses "Problem" mit VSync nicht. Wenn nur z.B. 55 fps technisch gehen, dann bitte auch mit 55 fps rendern, aber nicht pauschal die Hälfte der jeweiligen Refresh-Rate des Bildschirms.
 
Hast Du beim Add-on auch das Problem der fehlerhaften Wasserdarstellung? Wirkt bei mir wie eine grüne Pampe. Es würde evtl. weniger auffallen, wenn man nicht die Wasserqualität aus dem Hauptprogramm bzw. Benchmark kennen würde. Alles sehr mysteriös. :freaky:

@N3v3rMind: die Logik dahinter verstehe ich nicht ganz. Wieso geteilt durch zwei? :confused_alt:

Mfg mmic
 
Also im Addon gibt´s nicht soviel Wasser, oder? Sag mir doch mal schnell, in welchem Level Du meinst, Pampe gesehen zu haben, ich zocke das dann mal an. Hast Du denn auch dieses "Problem" mit Vsync? Und wieso zum Teufel switcht die Graka bei Spielen auch dann noch auf 75 Hz, obwohl ich am Desktop 60 Hz eingestellt habe? Wollte gerade Testen, ob die erwähnte Theorie stimmt, denn dann müsste ich 30fps habe anstatt 37,5 / 38 fps, wenn 75 fps nicht gehalten werden können.
 
Hm, den Levelnamen kenn ich jetzt nicht. Ist auf jeden Fall kurz bevor man in die Klinik eindringt. Da muss man ein kleines Schalterrätsel lösen (Wasser aufdrehen) und dann durch das hochgestiegene Wasser zu einer Plattform mit einer langen Leiter nach oben schwimmen.

Über den Hz-Bug kann ich recht wenig sagen, da mein Monitor nur 60Hz unterstützt. Und mit vsync droppt die framerate bei mir nicht signifikant.
 
:lol: der sinn von vsync ist es doch ein bild komplett darzustellen
wenn eben ein bild noch nicht komplett fertig gerendert ist muss die ausgabe eben auf dieses warten, sprich die fps sinken auf den nächst größten ganzzahligen teiler
wenns einem nicht passt kann man es ja deaktivieren, dafür ist die option da

alternative ist triple buffering, falls es das spiel unterstützt
http://www.3dcenter.de/artikel/2004/03-12_a.php
mal ein interessanter artikel zum thema
 
Zuletzt bearbeitet:
bensen schrieb:
:lol: der sinn von vsync ist es doch ein bild komplett darzustellen

Ja, danke. Das ist mir schon klar ;) . Ich frage mich nur, warum man nach N3v3rMinds Rechnung genau die Hälfte der fps bei aktiviertem vsync haben sollte als bei nicht aktiviertem?
 
Wieso habe ich dann z.B. bei Far Cry eben nicht nur 75 oder 37,5 / 38 fps, sondern auch alles zwischen 38 und 75 fps? Je nach Situation kann ich z.B. 67 fps erreichen, die dann auch konstant gehalten werden, sofern ich nicht die Maus bewege.

mmic29 schrieb:
Über den Hz-Bug kann ich recht wenig sagen, da mein Monitor nur 60Hz unterstützt. Und mit vsync droppt die framerate bei mir nicht signifikant.

Vielleicht schmeisse ich mal den TFT-Treiber runter, um zu sehen, ob das was bringt. Oder vielleicht sitzen in der Registry irgendwo noch Einträge von der ATi, bei der ich ja 75 Hz Override aktiviert hatte. Und wegen des "Vsync-Problems" nicht mich falsch verstehen, die Rede ist von den Situationen, wo eben diese 38 fps auftauchen. Schalte ich VSync ab, so habe ich anstatt 38 fps deutlich merkbar höhere fps an der exakt selben Stelle, was, wenn die genannten Theorien hier stimmen sollten, auch dann normal wäre. Aber insgesamt schon blöd sowas, denn mit VSync sieht es deutlich smoother aus, bei FEAR fällt das Tearing doch schon sehr auf.

PS: Ich erinnere mich an das Wasser. Ist auch grünlich gewesen, wahrscheinlich Abwasser oder so. Kein klares Wasser wie z.B. im Test.
 
Zuletzt bearbeitet:
@mmic29
er sagte dass wenn die karte die 75fps nicht schafft, die framerate halbiert wird
und nicht das sie halbiert wird sobald man vsync anschaltet

@wolfenstein2k2
entweder ist vsync aus oder es wird triple buffering genutzt
 
Eben dass die Framerate halbiert werden soll, wenn die Karte nicht 75 fps schafft, will mir nicht so recht einleuchten, denn als Gegenbeispiel gibt´s da Far Cry, UT 2004, Oblivion, wo das trotz Vsync nicht der Fall ist. Aber dem Artikel nach sollte da was dran sein. Mal Triple Buffering aktivieren, denn das ist stets aus in den ganzen Profilen.

Einen Patch zum Addon gibt es nicht? Habe Version 1.0 Retail laut Menü. Im Gegensatz zum Hauptprogramm bietet mir das Addon nicht 1280x1024 an, nicht einmal mit dem Hinweis, dass das Spiel nicht auf diese Auflösung optimiert sei, sondern ich muss das in der cfg-Datei manuell eintragen.

EDIT: Also Triple Buffering geht ja mal gar nicht in F.E.A.R. E.P. ;) Er schaltet jetzt nicht mehr hauptsächlich zwischen 38 und 75 fps umher, sondern es gibt nun mehere Stufen. 3DCenter beschreibt dies sinngemäß schön mit "Triple Buffering verhindert krasse fps-Sprünge" (was ja mit 38 <=> 75 fps der Fall ist). Mehrere Stufen heißt nun, dass es auch noch 19 fps (1/2 von 38) oder 25 fps (1/3 von 75) gibt. Das ist nun wirklich nicht tragbar, da mit 25 fps oder weniger rumzulaufen. Ich werde Vsync auf jeden Fall hier aus lassen.

@ mmic29

Wolltest Du nicht in 1920x1200 spielen anstatt mit "nur" 1600x1200 ;)? Ist denn bei 1600x1200 noch unbedingt 4xAA nötig? Vielleicht reicht ja optisch gesehen auch 2xAA aus bei gleichzeitig höheren fps.

EDIT 2:
Habe das Addon durch. Spiellänge OK, Story ein wenig enttäuschend. Da wird wohl F.E.A.R. 2 oder sowas kommen müssen. Technisch gesehen auch nicht ganz optimal. Im Vergleich zum Hauptprogramm hätten die ein wenig mehr optimieren können, sooft wie die Frameraten da weit unter 60 fps gehen :rolleyes: Schatten kosten gegenüber AA immens viel Performance. Dabei sieht die F.E.A.R. Engine insgesamt gesehen gar nicht so überrragend aus. Mit einem C2D über 3 GHz und einer GTX sollten eigentlich bei 1280x1024 / 4xAA / 16xAF immer stets 60 fps drin sein. Im Schnitt sind es wohl weit über 60fps, innerhalb enger Gänge sind es weit über 100 oder gar 200 fps. Aber was nützt einem der Schnitt, wenn es eben viele Stellen gibt, wo es bis zu 25 fps runter geht - Dank der ach so tollen Schatten. Schaltet man diese ab, gleich ein Vielfaches an fps mehr. Zugegeben, ohne Schatten sieht´s mau aus, aber dass das soviel Leistung kostet, zeugt von mangelnder Optimierung - wie leider sooft in der letzten Zeit. Da stimmt das Verhältnis von Hardwareanforderung und resultierenden fps nicht "so ganz", siehe Oblivion etc.
 
Zuletzt bearbeitet:
Eine 7600GT ist doch auch noch bezahlbar. ;)

Aber wenn man wirklich zur Cebit mit den Karten rechnen kann lohnt sich das Warten alle mal.

mFg tAk
 
Wolfenstein 2k2 schrieb:
Eben dass die Framerate halbiert werden soll, wenn die Karte nicht 75 fps schafft, will mir nicht so recht einleuchten.....

Genau das leuchtet mir auch nicht ein. :rolleyes:
Einen Patch zum Addon gibt es nicht?

Nicht das ich wüsste. Hab mal bei gamershell.com geschaut, war nix.

@ mmic29

Wolltest Du nicht in 1920x1200 spielen anstatt mit "nur" 1600x1200 ;)? Ist denn bei 1600x1200 noch unbedingt 4xAA nötig? Vielleicht reicht ja optisch gesehen auch 2xAA aus bei gleichzeitig höheren fps.

Hm, mein Monitor gibt nur 1600x1200 her (21") ;) . Ich denke schon, dass 2xAA ausreichen sollte. Zumal ich in shootern nun wirklich nicht stundenlang an einer Stelle verharre und mir die Texturen anschaue. :lol:

Mfg mmic
 
@ Kisser:

Könntest du das mal näher erklären, mich interessiert das nämlich. D.h. wenn man jetzt mit 60Hz zockt und Vsync aktiviert hat, die Graka aber nicht 60 FPS darstellen kann, das Spiel nur mit 30 FPS läuft?

mFg tAk
 
Zurück
Oben