• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News The Witcher 3: Systemanforderungen nur für 30 FPS

die specs sind doch ok. wenn man daran denkt das es ein umfangreiches open world rpg ist, mit den ansprüchen an next gen grafik.

wer es nicht mit 1080p alles max und 60fps spielen kann auf seinem 2 jahre alten pc, muss es eben eben in low /mid auf 720p spielen.
man kann ja kaum erwarten, neue spiele mit moderner grafik, ki und physik, auf nem alten system in highfidelity spielen zu können xD

w3 sieht wirklich sehr gut aus, das animationssystem und vieles andere ist wunderbar, genau deshalb habe ich mir diesen pc zusammen-
geschraubt um nicht die low def grafik der konsolen und aldi pc`s ertragen zu müssen. wer es sich nicht leisten kann, sich solche pc`s
hinzustellen kauft sich eben eine konsole, so war es doch schon immer. ich konnte es mir früher auch nicht leisten, also gab es eben
gothic in ruckel ruckel low def und den rest auf der playstation. es jammert ja auch keiner jaguar an das die autos zu teuer sind :/

so fahr ich eben golf und nicht jaguar wenn ich kein millionär bin. genauso ist das mit neuen next gen spielen und deren grafik.

heute ist das anders. ich bin froh das cd es so angeht und die latte nach oben hebt. aufgewärmtes alla cod grafik haben wir genug.
 
Zuletzt bearbeitet:
Dobii schrieb:
2500K als Minimalanforderung. Wo doch dieser, wenn ich es recht in Erinnerung habe, "nur" 10 - 15% langsamer als ein 4790K ist.
30FPS? Dann wird es eben erst in irgendeiner sale Aktion gekauft...

Es ist nicht auf 30FPS gedeckelt, sondern die Anforderungen sind darauf ausgelegt, da sonst offensichtlich niemand das empfohlene erfüllen würde (außer vllt iwelche CF/SLI Gespanne). Also erstmal lesen und cool bleiben.

Edit: Jetzt meckern hier schon wieder welche rum, dass es so hohe Anforderungen hat? Meine Güte, schaut Euch halt mal das Gameplay an. Wer bei der Grafik OpenWorld bietet, wird um solche Highendkarten für viele Details nicht drumherum kommen. Sonst meckern doch immer alle, dass die Grafik so scheiße ist und die Entwickler endlich mal was bringen sollen...
 
Zuletzt bearbeitet:
seit wann ist eine 290 2 jahre alt?
ich finde den Verlgleich von Nvidia und AMD auch mal wieder recht daneben. Da wurde sicherlich wieder einseitig optimiert.... ich finde es schade, gerade da die Entwickler von Witcher betont haben es wird auf beiden Grafikkarten gut laufen. Soviel zu unabhänig etc..
Auch dass die PS4 mit einer schwachen 7870 GPU für 1080p reicht , klar werden ein paar Effekte weniger dabei sein, aber dass der PC dann nur 30 FPS schafft?
 
Abwarten und schauen, wie sich das ganze entwickelt.
Eig. sollte meine 7950 das Ding auf 1440p befeuern, Details dürfen da auch gern erstmal ordentlich reduziert werden.
30fps finde ich erstmal auch nicht so schlimm, wenn sie denn stabil gehalten werden. Two Worlds II lässt sich mit 30fps lock auch ganz gut spielen, also --> abwarten.
 
Meine Radeon 6850 hat gerade die Slothalterung aufgebrochen, ist durch das Gehäuse durchgebrochen und versteckt sich seitdem unterm Bett :D
(... sie hat wohl auch die Mindestanforderungen gesehen)
 
Die News ist schon drei Wochen alt, dazu sei noch zu erwähnen, dass sich die empfohlenen Systemanforderungen auf die Einstellung "hoch" nicht ultra beziehen

Es gibt also noch sehr hohen Optimierungsbedarf
 
Kann mir mal jemand plausibel erklären, was das soll? Ist ja schön, dass die Entwickler ein besonders tolles Grafikerlebnis schaffen wollen und das mit ihren aktuellen Tools auch können.
Aber was bringt denn dem Spieler das, wenn die aktuell verfügbare Hardware selbst im High End Segment gerade mal so ausreicht um auf höchsten Details spielbare Frameraten zu erreichen?

Nur die wenigsten haben doch das Geld, sich mal fix ne GTX980 oder gar ein SLI/Crossfire System inkl. einer 300€ CPU zu kaufen.

Da dürfen viele Spieler jetzt also noch 2 Jahre warten, bis dann auch in ihrem Preisbereich mal Hardware verfügbar ist, die dieses Game flüssig unter FullHD zum Laufen bekommt.

Was für eine großartige Sache... NICHT!
 
Haben die Herstellerangaben jemals der Wahrheit entsprochen? Ich kann mich daran nicht erinnern, also vllt mal lieber Benchmarks abwarten, bevor hier wieder zur Fackel gegriffen wird.

PS: Wie gut lief denn Crysis bei Euch, als es rauskam? Richtig.
 
@Morrich

so ist das eben, keiner sagt das das spiel nur auf max details spielbar ist. wenn du dir keine hardware leisten kannst, kauf dir eine
konsole oder dreh die details runter!
 
Für ein Singleplayerspiel, bei dem Kämpfe erfahrungsgemäß nicht allzu schnell ablaufen imho absolut in Ordnung.
Bin mal auf die Performance in VSR 3200x1800 mit mittleren Details gespannt. So würd ich nämlich gerne zocken können.
 
Ich kann mich nur wiederholen die sollen endlich einen standard einführen bzgl. Auflösung und Details
für die minimal , empfohlenen und optimalen Systemanforderungen .

Kann doch nicht so schwer sein ;)
 
Immer diese Anspruchshaltung, dass jedes Spiel auf höchsten Einstellungen laufen muss. Machts keinen Spass mehr, wenn auf mittleren Details gespielt werden muss? Selbst wenn das Spiel dann schon besser aussieht als so ziemlich alles andere Vergleichbare auf dem Markt? Beeinträchtigt es das Ego, wenn man nicht einen auf "1337LEETROXXOR-ICHZOCKAUFULTRAHIGH" machen kann?

Wenn CD-Project dann mittlere Details als hohe deklarieren würde wäres wohl OK oder was?
 
borizb schrieb:
... Quake 3 lief aber mit 90fps noch ...
Aber dafür brauchte man auch einen Prozessor, der zu Release von Q3 noch nicht erschienen war. Ich erinner mich wage, dass bei Half-Life (Dezember 1998) keine einzige Grafikkarte in der Lage war, im Spieltest der PC Action mehr als durchschnittlich 25 FPS zu liefern.
 
@Morrich

Man muss doch nur mal Crysis 1 anschauen, das lief damals sogar auf Sli Gespannen stellenweise nicht ganz flüssig auf maximalen Details und wen hats gejuckt ? Hat man eben die Details etwas runtergeschraubt und immernoch eine hammer Grafik gehabt.

Man kann es doch auch positiv sehen, das Spiel wird dann vermutlich in 1-2 Jahren noch immer spitze ausschauen und dann kann man es auch auf Midrange Karten mit max. Details zocken.
 
borizb schrieb:
Diese völlig überholte Grafikkarte ist ja auch schon immerhin ein Jahr alt :lol:

Schon komisch, dass ein Rechner nicht mehr als 30fps kann, obwohl er
von den Spezifikationen her der PS4 um sicherlich das doppelte überlegen
ist. Früher hätte ich mir das Argument gerne gefallen lassen, weil die Konsolen
ja keine x86er CPUs hatten, aber heute zieht das nicht mehr so mega deftig.

Z.B. The Evil Within und alle Command and Conquer Spiele haben auch ein 30fps
cap und die liefen trotzdem gut spielbar ab, Quake 3 lief aber mit 90fps noch
einen ticken besser als 60 wenn man promode gespielt hat, aber ein egoshooter
ist ja immer anders als RTS oder A-RPG. Vielleicht müsste man mal die fertige Version
spielen bevor man über das 30er Limit jammert. Es wird ja bekanntlich selten
so heiß gegessen wie gekocht. Vielleicht wirds auch einen 60fps Modus geben,
allerdings nur für die 970 oder 980 und aktuelle i7.

Wäre mal interessant zu wissen, ob der Prozzi oder die Graka hier limitiert.

Trotzdem. Eine 290 ist schneller als eine 770.
Ganz kann ich die Sys. specs nicht glauben.
Erst wirds getestet mit meiner 290 dann kann man Was sagen ^^.
 
Leute regt euch nicht auf. Das Spiel Dying light, welches gestern erschienen ist hat auch nicht die 16Gb Arbeitspeicher und eine GTX 980 benötigt um auf empohlen oder maximal zu spielen(gut es hat framedrops, weil es schlecht optimiert ist aber das tritt bei jeder Graikkarrte mit dem Spiel auf). Wie oben erwähnt erstmal die Benchmarks abwarten.
Noch eine Frage in eigener Sache. Heute existieren nur Intel, NVidia und AMD auf dem PC Spielemarkt. Die jedes JAhr neue Hardware rausbringen die mal mehr mal weniger schneller sind. Ist es wirklich so schwer im Jahre 2015 eine skalierbare Engine zu programieren die je nach Hardwarekonfiguration optimiert ist? Da ich nicht programmiere, würde ich gerne verstehen wieso heute noch immer das Argument: es gibt millionen verschiedene Hardwarekonfigurationen. Eigentlich gibt es doch nur 3 verschiedene oder nicht?
 
borizb schrieb:
Z.B. The Evil Within und alle Command and Conquer Spiele haben auch ein 30fps
cap und die liefen trotzdem gut spielbar ab, Quake 3 lief aber mit 90fps noch
einen ticken besser als 60 wenn man promode gespielt hat, aber ein egoshooter
ist ja immer anders als RTS oder A-RPG.

​du meinst pmove promode war was anderes
 
r00ter schrieb:
@Morrich

so ist das eben, keiner sagt das das spiel nur auf max details spielbar ist. wenn du dir keine hardware leisten kannst, kauf dir eine
konsole oder dreh die details runter!

1. Habe ich das nicht auf mich bezogen. Die Witcher Spiele sind nicht mein Ding, daher werde ich sie eh nicht spielen.

2. Ich habe auch nicht bezweifelt, dass man nicht die Details runter drehen kann.

Es stellt sich doch aber trotzdem die Frage, wo der Hersteller Kunden herholen möchte, wenn das Spiel selbst auf High End Hardware nur mit 30 FPS in FullHD spielbar sein soll.
Wäre es da nicht klüger gewesen, den Detailgrad generell etwas geringer ausfallen zu lassen, damit potenziell mehr Spieler die Chance auf ein flüssiges Spielerlebnis haben, ohne extra teure Hardware nachrüsten zu müssen?
 
Eigentlich gibt es doch nur 3 verschiedene oder nicht?

3 Hersteller, aber die bauen ja unterschiedliche Produkte oder hat Intel und AMD nur jeweils 1 CPU und Nvidia und AMD nur eine Grafikkarte ? :D

Das Argument der Entwickler ist schon sehr berechtigt, die Kombinationsmöglichkeiten für den PC sind quasi endlos und man kann eben nur auf sehr grobe "Klassen" an Computern optimieren, wenn dann jemand eine Graka hat die zwar als Highend klassifiziert ist aber die CPU im oberen Low-end Segment dann kann es trotzdem bescheiden laufen weil die CPU die Graka nicht mit genug Daten versorgen kann.

Das andere Problem ist, dass jede Hardware ihre eigenen Stärken und Schwächen hat und da man sehr viel Zeit und Arbeit benötigt um Software genau an eine Hardware anzupassen wäre es für die unzähligen Kombinationen die ein PC bietet schlicht unmachbar für alle optimal zu programmieren.

Das ist auch der große Vorteil von Konsolen, denn dort hat man einheitliche Hardware auf die man dann ganz speziell optimieren kann, deshalb ist es auch großer Quatsch die reinen technischen Daten einer PS4/Xbox 1 mit denen von PC Hardware zu vergleichen, da man für die Konsolen ganz anders optimieren kann.

Wäre es da nicht klüger gewesen, den Detailgrad generell etwas geringer ausfallen zu lassen, damit potenziell mehr Spieler die Chance auf ein flüssiges Spielerlebnis haben, ohne extra teure Hardware nachrüsten zu müssen?

Das sind doch nur die Anforderungen für die maximalen Details, heißt doch nicht dass es mit weniger Details nicht auch deutlich weniger anspruchsvoll wird und damit für mehr Leute flüssig spielbar. Es kaufen sich genug Leute auch Spiele und zocken diese nicht auf max. Details ;) Wer unbedingt maximale Details will, der kauft auch dementsprechende Hardware und der Rest verzichtet auch gerne mal auf ein paar Pixel/Details und hat trotzdem seinen Spass.

Wenn man aber das Maximum sehr hoch setzt spricht man auch die Enthusiasten an die ihre teure/schnelle Hardware auch gerne ausreizen möchten ohne aber gleichzeitig die Budget Spieler vor den Kopf zu stoßen, da diese ja dank regelbarer Details auch flüssig zocken können, das Eine schließt das Andere ja nicht aus :)
 
Zuletzt bearbeitet:
Ich hab gestern erst rausgefunden, dass Sniper Elite V2 bei maximalen Einstellungen unspielbar ist mit meiner 7970 :D
Sieht das Spiel so gut aus ? Spiele ich auf 4k ? Nein und nein.

Es ist doch alles eine Frage der Optimierung und der Einstellungen. Es gibt da 1-2 Regler, die die Framerate mal eben halbieren.

Was schonmal super funktioniert ist der Werbeeffekt, das Spiel mit den höchsten Anforderungen zu sein.
 
Zurück
Oben