• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News The Witcher 3: Systemanforderungen nur für 30 FPS

Ne eigentlich ging es mir darum, dass die cpu von amd nicht so schlecht sind wie immer getan wird. Und ich wünsche eine gute nscht. Ich Reise gerade durch nrw.
 
Thane schrieb:
Bei Spielen gibt es ja oft auch das GPU-Limit. Ungeeignet würde ich auch nicht sagen. Die minimalen FPS sind zumindest bei den Tests von PCGH bei den Core i meist besser. Wenn bei Witcher 3 die GPU auch limitiert, dürfte da auch recht egal sein, welche halbwegs aktuelle CPU verbaut ist.
Aber aus Sicht der Effizienz, na ja. 13% dahinter bei 70-90% mehr Energiebedarf ?
Letztendlich ist das ja total Wurst, denn die behauptung ein FX taugt nicht zum Gamen stimmt nicht. Darauf wollte ich hinaus. Von Energieeffizienz war gar nicht die Rede und hat erstmal auch nichts damit zu tun ob man mit dieser CPU spielen kann.
 
Miniami schrieb:
Und TW3 soll auf der PS4 mit 1080p flüssig und ohne reduzierte Details laufen. Entweder kennt CD Project einen Trick und holt das Maximum aus der PS4 raus, oder sie wissen nicht wie man PC Hardware ausreizt. .
Nein, die PS4 Version läuft mit niedrigeren Einstellungen bei 1080p und 30fps.

Ruff_Ryders88 schrieb:
Zum Thema:
Bei mir lief The Witcher 2 noch recht angenehm, ich erkenne keine bessere Grafik bei TW3
Öhm, ich empfehle ein Besuch beim Augenarzt lol

Miniami schrieb:
Ob "Hoch" schon das Maximum darstellt weiß ich nicht.
Hoch ist nicht das Maximum. Die höchsten Einstellungen sind noch nicht fertig optimiert weshalb sie auf dem Preview Event von dem die ganzen Artikel der letzten Tage stammen auf nicht ausgewählt werden durften. Und deshalb gibt es wahrscheinlich auch noch keine Systemanforderungen dafür
 
Zuletzt bearbeitet:
Es gab genug leaks die behaupteten, dass spiel sei nichtmal im ansatz fertig.

die haben einfach keine vernünftige optimierung geschafft und genau deshalb diese Anforderungen...

das spiel wird technisch eine Bankrott Erklärung. Da bin ich mir jetzt recht sicher...
 
legenddiaz schrieb:
Es gab genug leaks die behaupteten, dass spiel sei nichtmal im ansatz fertig.

die haben einfach keine vernünftige optimierung geschafft und genau deshalb diese Anforderungen...

das spiel wird technisch eine Bankrott Erklärung. Da bin ich mir jetzt recht sicher...

So ein Bullshit, das Spiel ist lange fertig. Es wurde nur für Bugfixing und Optimierung verschoben!
 
Und wenn ich jetzt Gerüchte in die Welt setze, dass Geralt im Laufe des Spiels homosexuell wird und Triss sich die Haare blond färbt, das ganze dann als Leak verkaufe, glaubt mir das dann auch jeder? :rolleyes:
 
Mit dem neusten Patch von Dying Light senken die Entwickler die maximalen Grafikeinstellungen damit mehr Leute den Regler voll aufdrehen können. Die Konsolen bieten wohl nur Low-Settings. Das heißt eine bessere Grafik hätte man vor dem Patch schon mit mittleren Details gehabt.
Wenn man sich die Posts hier ankuckt ist dieser Schritt für Spieleentwickler nur logisch. Die Seiten die das Spiel getestet haben sind daran unter anderem mit Schuld. Überschriften wie "zombie-mäßige Performance" tun da ihr übriges.
Warum wird auch immer nur auf Ultra Settings gebenchmarkt? Ich hoffe inständig das hier mal ein Umdenken stattfindet.
Es wäre auch kein erheblicher Mehraufwand einfach mal das Spiel auch mit mittleren Details zu benchen und zu gucken wie die Grafik dann ausschaut!

Ich hoffe CD Project muss nicht den selben Weg gehen.
 
nenji.lu schrieb:
Nein, die PS4 Version läuft mit niedrigeren Einstellungen bei 1080p und 30fps.

Mehr unqualifizierten Müll reden bitte.

The game is far from finished, and right now they're targeting the equivalent of the PC 'High' settings for the PS4 and Xbox One. Those who have high-end gaming rigs will be able to run the game on the 'Ultra' settings.

GameStar schrieb:
Im Konsolenduell hat derweil die PlayStation 4 eindeutig die Grafiknase vorn. Zwar sind die Texturen etwas unschärfer als bei »hohen« PC-Details, das fällt im normalen TV-Abstand aber kaum auf. Zudem läuft das Hexerabenteuer auf der PS4 in 1080p - allerdings nur mit 30 Frames pro Sekunde, was uns aber nicht stört.
 
Zum News-Update:

Wie ich doch schon gesagt habe...

Das Spiel ist frühestens in 2 Jahren absolut ruckelfrei mit maximalen Einstellungen spielbar. Die Leute, die nicht warten können, ruckeln sich halt jetzt mit herunter geschraubter Grafik durch. Ich kaufe das Spiel in ungefähr 2 Jahren zu 5-10 EUR und neuer Hardware.

Das mag jeder machen wie er will.
 
The game is far from finished, and right now they're targeting the equivalent of the PC 'High' settings for the PS4 and Xbox One. Those who have high-end gaming rigs will be able to run the game on the 'Ultra' settings.

Soviel Bullshit hier ist unglaublich. Natürlich sagen sie, dass sie "High Details" anstreben, aber laut PresseEvent sind es auf PS4 deutlich schlechter aus und auf XBONER nochmal ein ganzes Stück schlechter und dort fehlen teils komplette Effekte.

Das Spiel ist frühestens in 2 Jahren absolut ruckelfrei mit maximalen Einstellungen spielbar. Die Leute, die nicht warten können, ruckeln sich halt jetzt mit herunter geschraubter Grafik durch. Ich kaufe das Spiel in ungefähr 2 Jahren zu 5-10 EUR und neuer Hardware.

Absoluter Quatsch. Wie hier einfach Leute irgendwelche Lügen als Fakten verkaufen wollen. /facepalm

Mal paar Idioten hier auf Ignore packen, ist ja schlimm hier.
 
Zuletzt bearbeitet:
hurga_gonzales schrieb:
ZIch kaufe das Spiel in ungefähr 2 Jahren zu 5-10 EUR und neuer Hardware.

Das mag jeder machen wie er will.

The Witcher 3 ist eins der wenigen Spiele, die ich tatsächlich vorbestellt habe. Mein System deckt "empfohlen" ab, mittlere Details in 2560x1440 fps werden mir reichen und das sollte bis Mai auch drin sein.
Aber wegen den Hardwareanforderungen hab ich noch nie auf ein Spiel verzichtet. Gute Spiele brauchen keine Übergrafik, wenn der Inhalt passt spiel ich auch mit deutlich reduzierten Details.
 

Anhänge

  • gog.JPG
    gog.JPG
    124,7 KB · Aufrufe: 647
..., dass die empfohlenen Systemanforderungen nicht für maximale Grafikeinstellungen angegeben wurden. Stattdessen sollen diese für 30 Bilder pro Sekunde bei mittleren bis hohen Details auf 1.920 × 1.080 Pixel ausreichen. Angaben, für welche Einstellungen die Mindestanforderungen ausgelegt sind, fehlen weiterhin.

Also wäre es wohl Zeit eine zweite GTX 780Ti zu kaufen, um das ganze in 1440p flüssig spielen zu können.
 
Immer wieder lustig zu sehen, erst jammern die Leute über Jahre hinweg das Spiele ihre Hardware nicht ausnutzen und sobald es Spiele gibt die ihre Hardware ausnutzen jammern sie das sie die Spiele nicht mit vollen Details widergeben können :freak:
 
Was Bis jetzt zu sehen war, war hübsch aber noch nicht beeindruckend. Kann aber auch daran liegen, dass youtube immer stark komptimiert.

Und da ist es klar, dass gemeckert wird.
 
Whoozy schrieb:
Bei so einem Rechner, der in deiner Signatur steht, würde ich nichtmal 0,001 Sekunden an Zeit damit verschwenden, mir Gedanken darüber zu machen, ob ich mir das Spiel auf Konsole kaufen würde.
Die Grafikkarte ist der Knackpunkt. Wenn endlich mal meine Threads zum Einsatz kommen freu ich mich.
Aber "nur" eine 780er auf 1440p ist 100% zu wenig, wenn die schon sagen ne 770 für medium oder so auf 1080p.

Das "schwere" Leid des PC-Aufrüstens^^
 
Zuletzt bearbeitet:
cRoss. schrieb:
ein Spiel was zu 100% im SLI skaliert? schön wäre es..

Also Audiosurf 2 skalliert bei mir nahezu mit 100 % im Crossfire:D

ohne CF ca. 70 FPS und mit ca. 140.

Mal gespannt auf das Game, die Anforderungen finde ich aber übertrieben hoch, schaut nach einem schlechten Konsolenport aus.
 
King Vendrick schrieb:
So ein Bullshit, das Spiel ist lange fertig. Es wurde nur für Bugfixing und Optimierung verschoben!

Ja, stimmmt schon. Solch unwichtige Details, wie die Möglichkeit der Steuerung des Spiels mit Maus und Tastatur, werden in der Regel natürlich immmer nachgepatcht. Sämtliche Updates zu The Witcher 3 sind negativ. Es wird wahscheinlich soweit kommen, das man mit den Empfohlenen Settings in der Tat nur 30 FPS mit (maximalen) mittleren Einstellungen erhalten wird.

Da es aber CD Project ist, wird das alles wieder schön geschrieben (Weil gog.com und so). EA / Ubisoft und Co. würden für solche Leistungen gekreuzigt werden.

Jede neue News / Updates beweist einfach, das hier etwas in der Entwickung gewaltig schief gelaufen ist. Aber jeder soll sich das kaufen, was er möchte.
 
Zuletzt bearbeitet:
mitverachtung schrieb:
Mehr unqualifizierten Müll reden bitte.

Wer lesen kann ist klar im Vorteil :rolleyes:
ich habe geschrieben "mit niedrigeren Einstellungen" und nicht niedrigen, und genau das bestätitgst du mit deinen Zitaten :freak:
 
Es ist immer das Gleiche. In Foren zum Sport erzählen couchpotatos den Profis, was sie zu tun haben und dass sie ja so faul sind. In Foren über die Physik kommen immer wieder Esotheriker, Verschwörungstheoretiker und "Freie Energie"-Anhänger.. Wenn es Medizin geht kommen irgendwelche selbsternannten Schamanen und erklären den Radiologie-Experten, wie man einen malignen Tumor heilen kann.

Leute was ich lese ist einfach nur, dass 99% der Leute überhaupt keine Ahnung haben, was Optimierung in der Informatik überhaupt ist, wie es funktioniert und was es nicht ist. Hier scheinen mir grundlegende Kenntnisse über einen PC und über die Programmierung zu fehlen. Aber Hauptsache jeder schreit "schlecht optimiert omg lol!!11!". Und dann noch das altbekannte "läuft nur auf einem Kern omg lol!". Warum setzen die nicht einfach das "16-Kern-Flag" im Compiler und fertig?

Es gibt nunmal Probleme, die einen hohen Anteil an Parallelität besitzen und solche, die das nicht tun. Hat ein Problem einen hohen sequentiellen Anteil, so lässt es sich nur sehr schlecht parallelisieren und somit kann(!) hier gar nicht von mehr Kernen profitieren. Nun kommt es auf die Art des Spieles an, ob solche Probleme auftauchen, oder nicht. Ich bin mir recht sicher, dass jedes Spiel heute auf mehreren Threads arbeitet und so die Arbeit (wenn es denn für das Betriebssystem Sinn ergibt) auch auf mehreren Kernen läuft. Die Forderung, dass möglichst alle Kerne ausgereizt werden sollen, lässt sich im Allgemeinen einfach nicht erfüllen.

Desweiteren scheint mir der Irrglaube sich breit gemacht zu haben, dass jegliche Hardware im PC nur dafür da ist, um eine gute Grafik zu erzeugen. Die größten Rechenzentren der Welt arbeiten komplett ohne UHD-Ausgabe der Rechenergebnisse. Auch bei einem Spiel fällt eine große Rechenarbeit an, die jetzt nicht unbedingt nur für die Ultragrafik zuständig ist. Ist das Spiel sehr dynamisch, passiert viel in der Umwelt, gibt es viele NPC-Entscheidungen usw. kann viel solcher Arbeit anfallen und belastet dementsprechend die CPU. Das hat aber dann überhaupt nichts mit Grafik oder schlechter Optimierung zu tun. Manchmal wird die Hardware tatsächlich auch noch dafür benutzt, um das Spiel (und nicht nur die Grafik) zu berechnen.

So langsam wundert es mich nicht mehr, dass es einfallsreiche Spiele fast nur noch im Indie-Bereich gibt.
 
Schön, dass es endlich mal wieder einen Titel gibt, der die Systemanforderungen für maximale Einstellungen wieder etwas pusht.
Allerdings sah es in den letzten Previews von diesem Monat nicht mehr ganz so schick aus, wie noch in den Präsentationen vor einem Jahr.
Aber der Unterschied war natürlich lange nicht so gigantisch wie bei Dark Souls II.
 
Zurück
Oben