• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Cyberpunk 2077: CD Projekt verkündet niedrige System­anforderungen

Na, fein! Verkaufe gerade meine 2070super und als Übergangskarte kommt ne 1660er mit 6GB rein, reicht vollkommen....:evillol:
.....bis die neue 10 / 12 / 16 + GB neue Karte gekauft wird.:mussweg:
 
Rumguffeln schrieb:
und bei assassins creed odyssey haben fast 10% nichtmal die einleitung überstanden
So ging es mir bei Origins als ich mit dem Kamel und Autosteuerung Richtung Wüstenstadt gefahren(weil reiten kann man das nicht nennen) bin, hatte ich dann auch schon genug, hab mir noch die schwache Einleitung dort gegeben aber dann wars vorbei mit meiner Geduld. gut dass Steam eine Refund Policy hat :lol:

Odyssey soll ja besser sein, versuch ich eventuell auch irgendwann mal...
 
Trinoo schrieb:
Ich schätze mal auf maxed out... da wirds sicher einige lange Gesichter geben wenn die Leute auf mittel / hoch spielen müssen und das Game deutlich schlechter aussieht wie in den bisher gezeigten Videos.

Die Zeiten in denen Ultra die Grafik nochmal ordentlich verbessert hat, sind seit über 10 Jahren vorbei.

Die Engines sind mittlerweile durchgehend effizient genug und die Entwickler schlau genug, um die Details nur da rauszunehmen, wo es am wenigsten Auffällt. Soll ja auch auf den Konsolen möglichst hübsch aussehen und die sind mittlerweile deutlich schwächer, als ein 5 Jahre alter mittelklasse Gaming Rechner...

Aber manchmal versteh ich die Community auch nicht. Hat ein Game bei Ultra Settings hohe Anforderungen, wird gemeckert, es sei nicht sauber optimiert und man könne ja seinen 4K144 Hz Monitor nicht ausreizen.
Stellt das Spiel geringere Anforderungen, ist plötzlich die Grafik kacke und man beschwert sich, dass die Hardware nicht ausgereizt wird.

Ich weiß, unterschiedliche Leute, unterschiedliche Präferenzen. Aber man kanns halt nie allen recht machen.



etoo schrieb:
3GB VRAM

nuff said!

Dito. PCGH hat z.B. schon vor Jahren nen Artikel geschrieben und propagiert, dass 4GB in naher Zukunft zu nichts mehr zu gebrauchen sind.
Diese Zukunft ist auch schon wieder zwei Jahre her.

Wir schreiben 2020 und der heißerwartetste und vielleicht sogar aufwändigste TripleA Titel empfiehlt ne 4GB Karte. 🤣🤣🤣

Gut, Maxed Out wird das Spiel sicherlich deutlich mehr brauchen. Aber da wirds bei den 4GB Karten dann eh schon rein an der GPU leistung komplett scheitern, Raytracing noch gar nicht eingerechnet.

Wobei ich laut lachen würde, wenn die Optimierung so gut ist, dass die 4GB schon für maximale Details (ohne RT) reichen.
Das wäre der Mittelfinger an die gesamte Industrie. Ich bin mal gespannt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: fox40phil, Informer, DerKonfigurator und 2 andere
Naja da weder Auflösung, noch FPS, noch genaue Settings dabei stehen, ist das ganze relativ nichts aussagend. Das Spiel erscheint ja auch noch für Xbox One und PS4.
 
B3nutzer schrieb:
Aber da wirds bei den 4GB Karten dann eh schon rein an der GPU leistung komplett scheitern, Raytracing noch gar nicht eingerechnet.
wie viele 4gb karten mit raytraycing kennst du denn ? :D

B3nutzer schrieb:
Wir schreiben 2020 und der heißerwartetste und vielleicht sogar aufwändigste TripleA Titel empfiehlt ne 4GB Karte. 🤣🤣🤣
und ?
vram hat auch sehr viel mit optimierung zu tun selbst witcher 3 benutzt auf max kaum über 4gb auf wqhd
und auf nem low mittel mix reichen sogar weniger als 2 aus :D
 
Schon wieder kein Spiel um die 3080 zu rechtfertigen :)
Mal schauen wie das in 4k bei mir dann läuft, dürfte gehen.
 
Pazox schrieb:
Überrascht mich überhaupt nicht. Schließlich muss das Spiel auch auf der Playstation 4 und der Xbox One laufen.
Stimmt. Das erklärt auch die geringen Hardwareanforderungen von Red dead redemption 2.
Merkst es selber, oder?
 
  • Gefällt mir
Reaktionen: Otsy
für mich klingen die anforderungen relativ plausibel. cd projekt red hat sich entschieden, dass spiel auf biegen und brechen auf den alten konsolen lauffähig zu machen. soweit so gut.
interessant für mich ist wann cd projekt red gedenkt den next gen patch nachzureichen....
ich habe das spiel bei gog vorbestellt (vor ca. 1,5 jahren) und habe keine probleme damit noch länger mit dem zocken zu warten.

ich werde mich genau zu release informieren und entscheide dann was ich mache. sollte der patch "zeitnah" erscheinen wird cyberpunk verschoben. gibt ja zu der zeit noch anderes zu zocken (ac valhalla z.b).

grüße
 
LAZZARUS schrieb:
interessant vielleicht, aber wer braucht 144fps bei einem Rollenspiel?
jeder.

bitte hört doch auf zu behaupten dass man sowas nur in shootern braucht. :)

144fps sind egal in welchem genre genauso gut wie in shootern.

hast du einen 144hz monitor?
 
  • Gefällt mir
Reaktionen: dunklefee und Vexz
Empfohlene Systemanforderung

Für 17" Monitore oder was?
Die Entwickler müssen sich langsam mal angewöhnen die Auflösung mit zu nennen!
 
Ich wollte mir ja eig ne 3080 oder eine von den Big Navis holen,aber bei solchen Anforderungen brauche ich das ja eig gar nicht.

Nur Raytracing kann ich natürlich nicht nutzen.
 
Rumguffeln schrieb:
wie viele 4gb karten mit raytraycing kennst du denn ? :D
RX480? Minecraft mit Pathtracing geht wahrscheinlich mit … wobei mit 4GB wahrscheinlich nicht sehr gut ^_^
Mit 8GB? Nicht viel besser. ;-)
Ergänzung ()

Creeper777 schrieb:
Empfohlene Systemanforderung

Für 17" Monitore oder was?
Die Entwickler müssen sich langsam mal angewöhnen die Auflösung mit zu nennen!
1080 ist immer noch der Standard. Und ich glaube das gabs erst ab 19" auf CRT Monitoren. So vor 21 Jahren. Aber generell hat die Bilddiagonale nix mit der Auflösung zu tun. 1080 gibt es ja auch auf 27" und 55" ebenso. ;-)
 
Rumguffeln schrieb:
warum ?
cdpr haben schon gesagt das es kleiner sei als witcher 3 und witcher3 hatte immerhin knappe 40 gb
Witcher 3 habe ich bisher nicht gespielt aber CyberPunk sieht schon sehr Umfangreich aus.
Allgemein werden Spiele immer größer und zudem ist hier wahrscheinlich ein höherer Detailgrad, da 1st Person.
Aber 30GB mehr sollten schon den Unterschied machen :D Wobei es die 70GB nicht komplett nutzen wird
 
@Diskussion 60FPS/hz vs 144FPS/hz

Klar hat CD Project mit den "empfohlen" build die 60er angesprochen und ja 60hz Monitore bzw. 60fps sind für ein flüssiges Spielerlebnis völlig ausreichend, DENNOCH macht es mit 60+/ 144hz, dazu am besten noch free-*/ GSync weitaus mehr Spaß, das ganze ist einfach flüssiger/ smoother.

Ich habe selbst Jahrelang auf 60hz Kisten gezockt (bis Anfang dieses Jahres) hat mir immer gereicht und ich habe nix vermisst, nach der Umstellung auf 144hz möchte ich jedoch nicht mehr zurück, bzw. empfinde ich am Anfang beim Wechsel von 144hz zurück auf 60hz die 60hz als extrem ruckelig, dies pendelt sich aber auch wieder nach ner Zeit ein.

Will sagen, auch wenn einem 60 vollkommen ausreichen, heißt das noch lange nicht, das mehr als 60hz keinen Mehrwert haben oder für andere Spieler einfach besser sind.

PS: aktuell genügt mir FullHD vollkommen, ich mag es lieber mit hohen/ ultra Details auf FullHD in 60+hz zu spielen als z.B. auf WQHD/ UHD in mittleren oder niedrigen Details, aber deswegen behaupte ich noch lange nicht, das FullHD das einzige ist was man braucht. Andere empfinden FullHD als "Augenkrebs" oder nicht ganz so hart ausgedrückt als nicht mehr zeitgemäß und ich kann diese Leute durchaus verstehen, wenn es für die nicht mehr ausreichend ist.
 
  • Gefällt mir
Reaktionen: Cassiopea, Trinoo und Benni82
Apocalypse schrieb:
RX480? Minecraft mit Pathtracing geht wahrscheinlich mit … wobei mit 4GB wahrscheinlich nicht sehr gut ^_^
Mit 8GB? Nicht viel besser. ;-)
Ergänzung ()


1080 ist immer noch der Standard. Und ich glaube das gabs erst ab 19" auf CRT Monitoren. So vor 21 Jahren. ;-)

Es gibt kein Standard bei der Auflösung!

Geh mal in einen Media Markt und frag mal nach einem 1080p Fernsehen.
Ich glaube die haben nicht mal mehr 1080p PC Monitore, da läuft vieles nur noch über 1440.

Also es gibt kein Standard, die Zeiten sind schon lange vorbei.

Es ist allerdings ein großer Unterschied, ob man das Spiel mit empfohlenen Systemanforderungen auf 1920x1080 oder 2560x1440 empfiehlt. Da liegen schonmal je nach Spiele-Anwendung gut 10-20FPS dazwischen.

Man sollte die Auflösung in der Systemanforderung standardisieren, dafür wäre ich!
 
Ich bin auch gerade nach ca 15 Jahren FullHD auf WQHD gewechselt und der Unterscheid war wirklich krass.Der WOW Effekt war ähnlich wie von 60hz zu 144hz.

Vermissen tue ich FullHD natürlich nicht,ausser die Performance.Ich bin ja eig n FPS Junkie :)
 
  • Gefällt mir
Reaktionen: Apocalypse
Die Anforderungen beziehen sich halt auf die Grafik ohne Raytracing und nicht maxed out.
Ich denke halt mal das Raytracing hier ordentlich Einfluss nimmt auf die Optik. Nightcity hat nun mal extrem viel Lichter, Reklametafeln, Fenster, Pfützen uvm. Klar wird es auch ohne das spielbar sein und gut aussehen. Die Optik wie in bisherigen Videos, bei denen deutlich leistungsstärkere Hardware genutzt wurde, wird sicher nicht die empfohlenen Settings zeigen... und nein, sicherlich liegt es nicht an den letzten Optimierungen die dann anstelle ner 2080ti auf einmal ne 1060 ermöglichen.... wer das glaubt, wird sich wundern ;)

Alles natürlich nur meine pers. Einschätzung... man wird es sehen. Ich freue mich auf jeden Fall auf viele Bilder, Videos und Vergleiche die man dann überall finden wird.
 
Fragt sich halt immer bei diesen offiziellen Empfehlungen, wofür stehen die? Für 30 FPS? 60 FPS? 144 FPS. Welche Auflösung? 1080p? 1440p? 4K?
 
Replay86 schrieb:
Fragt sich halt immer bei diesen offiziellen Empfehlungen, wofür stehen die? Für 30 FPS? 60 FPS? 144 FPS. Welche Auflösung? 1080p? 1440p? 4K?

Bei der Auflösung ist es aufjedenfall Full-HD
FPS-Zahl ist Unklar. Entweder 30 oder 60. Niemals mehr.
 
  • Gefällt mir
Reaktionen: bad_sign und Lord B.
Zurück
Oben