News Systemanforderungen: Godfall will schon für 1080p Leistung sehen

Hier gehts nicht um die AMD Karten, oder einen Seitenhieb auf NV, sondern eher die PS5 bzw XSX, die haben halt 16GB RAM, wovon scheinbar mind. 12GB als VRAM genutzt werden in 4K, ergo wird darauf optimiert.

Den Seitenhieb auf NV hat NV ganz alleine vollbracht.
Hätten sie von Anfang an 12/14/16/18/20 oder welche Konfig auch immer an VRAM verbaut, gäbe es das ganze Problem nicht, nun haben sie ein Problem weil AMD einfach mit 16GB kommt (im Jahr der neuen Konsolen) und NV insert suprised Pikachu face ist überrascht von den Anforderungen bei "nextGen" Titeln in 4K.
Die Karten sind zwar schnell genug für 4K, aber wenn man dann die Texturen runterschrauben muss, damits nichts ständig zu Nachladerucklern kommt, kannst auch gleich bei 1440p bleiben, bzw alten Karten.

Ich werd mit meiner 5600XT vermutlich ebenfalls schnell Probleme bekommen, alle aktuellen Spiele laufen super, abseits von WD Legion vllt, aber mal schauen ob ich direkt nächstes Jahr nicht schon auf ne Karte mit 12GB wechsle.

Nach ersten Tests hat doch Legion bereits nen deutlich höheren Verbrauch als "alte" Games, in 1440p schon über 8GB mit RT...
 
  • Gefällt mir
Reaktionen: bad_sign, Balikon, rx6800xt und eine weitere Person
leipziger1979 schrieb:
Und schon haben die Programmierer herausgefunden das man für simples UHD tatsächlich mind. 12GB VRAM braucht, mit weniger geht es in unserem Universum mit seinen Naturgesetzen nicht.
Was völlig okay ist wenn nVidia meint bei einer 30% schnelleren GPU gegenüber einer 2080ti weniger Vram verbauen zu müssen.
 
  • Gefällt mir
Reaktionen: Atlan2101, k0n, Balikon und 2 andere
nvidia ist ein witz das ist die 3 Generation wo die 70 Karte 8gb hat die 3 !!!!
 
  • Gefällt mir
Reaktionen: Pisaro
Als ich mir die Ausschnitte aus dem Game angesehen habe, merkte ich sofort das dies ein Konsolenport sein wird.
Optisch erinnert es mich irgendwie an Darksiders (Spielfigur mit geschulterten übergroßen Waffen, Spielprinizip), aber das würde mich eh nicht interessieren, ich bin da doch eher ein Fan von The Division oder dem Witcher.
Aber schon lustig wie sich große Konzerne wie AMD/Nvidia gegenseitig die Säcke voll machen :D
 
HAse_ONE schrieb:
Wie bei hohen Anforderungen immer sofort die Kommentare ala "schlecht optimiert, doofe Entwickler" kommen. Der Grund für die hohen Anforderungen ist doch erstmal egal.
Der Grund ist, dass das ein Konsolenport ist, und diese Spiele nutzen den verfügbaren RAM/RAM, wie
sie ihn brauchen - und Godfall benutzt die dort vorliegenden 16GB wohl mehrheitlich für Texturen.
HAse_ONE schrieb:
Wenn es mehr solcher "schlecht optimierten" spiele gibt, die viel VRAM brauchen für ultra krass super mega Texturen, dann muss man mit einer graka die nicht genug Speicher hat eben die Regler nach links schieben und kann sich dann bei Nvidia bedanken, mit dem Speicher so geizig zu sein bei Grafikkarten für über 700€.
Der wesentliche Faktor ist der Nutzen von den "High Res Texturen". Z.B. bei den Mittelerde Spielen haben
diese einfach nur doppelt so viel Platz verbraucht, die Optik aber kaum um 10% aufgewertet. An dieser Stelle
müsste eigentlich die Usage/Load Debatte geführt werden, kein plumpes "Nvidia geizig". GDDR6X ist teuer
und braucht viel Strom. Eine 3080 mit 20GB wäre schnell, aber preislich und im Verbrauch fast eine 3090.
Wem würde das helfen und wer würde das kaufen? Spätestens seit AMDs 6000er Serie wäre sowas Quatsch.
HAse_ONE schrieb:
Aber die meisten solcher Kommentare kommen dann von Leuten, die eben eine solche karte gekauft haben und versuchen es sich irgendwie schön zu reden und dann noch das arme am Hungertuch nagende Nvidia verteidigen. Weil die können sich ja Grad so über Wasser halten und müssen sparen wo sie können.
Das ist ein Vorurteil. Aber jedem seine eigene Meinung 🤷‍♂️
 
  • Gefällt mir
Reaktionen: v_ossi
Pady1990 schrieb:
Waren ja auch verbaut, wieso sollte es dann nicht angezeigt werden?
Hatte 4 Jahre Spaß mit der 970, klar war das kein feiner Zug von NV aber kann man dieses Thema nicht irgendwann auch mal gut sein lassen? Das ist 6 Jahre her!
Für gewöhnlich vergibt man etwas wenn jemand sich bemüht es vergessen zu machen indem er Reue zeigt, oder sich in Wiedergutmachung übt. Nvidia hat aber nie auch nur etwas in der Art versucht.
 
  • Gefällt mir
Reaktionen: Sebbi, bad_sign, k0n und eine weitere Person
leipziger1979 schrieb:
Man könnte es natürlich auch anders programmieren, aber.

Da es eine AMD Show war ist dem Entwickler sicherlich das ein oder andere Köfferchen mit Geld in den Schoss gefallen.

Sind also alle zukünftigen Games die mehr als Nvidias geiz 10GB Vram benötigen, schlecht programmiert oder gar geschmiert?

Das Game basiert auf der Unreal 4 Engine, also einer Nextgen Engine. Wir sehen also (erstmals?) in welche Richtung Nextgen gehen kann, bzw. wird.

Aber gut, wenn currentGen bereits die 8-10gb annähernd ausschöpfen kann, warum sollte nextgen mehr benötigen außer aus den oben genannten Gründen (schlecht programmiert/ geschmiert)?
 
  • Gefällt mir
Reaktionen: Otsy, Pisaro und fraqman
GERmaximus schrieb:
Das Game basiert auf der Unreal 4 Engine, also einer Nextgen Engine. Wir sehen also (erstmals?) in welche Richtung Nextgen gehen kann, bzw. wird.
Nextgen!? Aus sicht von ps3 -> ps4 ist das nextgen, ok :)
Und wenn dieses Spiel zeigen soll, in welche Richtung Nextgen geht, dann gute Nacht :P
 
  • Gefällt mir
Reaktionen: Goozilla und EL-SANTO
Und AMD wird nun auf alle gesponserten Games 12-16GB draufscheiben lassen. Offensichtlicher gehts ja nun echt nicht.

Naja, warum auch optimieren, wenn man genug Speichern zum aasen hat. Wobei ich da erstmal Tests sehen will. Denn hat ja nun nicht jeder so viel VRam. Mal von dem Nvidia-"Problem" abgesehen...
 
  • Gefällt mir
Reaktionen: foo_1337
EL-SANTO schrieb:
Und AMD wird nun auf alle gesponserten Games 12-16GB draufscheiben lassen. Offensichtlicher gehts ja nun echt nicht.
Diese Showcase Dinger sind purer Marketing Bullshit, insbesondere das Gelaber dazu. Schaut euch mal das an:

Hier hat es das Marketing auf ganzer Linie verkackt. Oder ist das Geruckle nicht dem Videoteam und 50/60/24hz Problemen geschuldet? ;)
 
  • Gefällt mir
Reaktionen: Goozilla
foo_1337 schrieb:
Nextgen!? Aus sicht von ps3 -> ps4 ist das nextgen, ok :)
Und wenn dieses Spiel zeigen soll, in welche Richtung Nextgen geht, dann gute Nacht :p

Was genau meinst du?
Das hervorragende Antialaising?
Die super scharfen und detailreichen Textueren?
Die Schatten oder Lichteffekte?
 
EL-SANTO schrieb:
Denn hat ja nun nicht jeder so viel VRam. Mal von dem Nvidia-"Problem" abgesehen...
Nicht jeder schielt auf UHD. Die drauf schielen bezahlen halt eine Menge Geld. Und 10GB werden nicht nur bei einem Titel zu wenig sein.
 
  • Gefällt mir
Reaktionen: GERmaximus
fraqman schrieb:
Die 5000er Serie von AMD hat auch keine 12 GB, also würden sie sich ja auch in Knie schießen.
Im Video wird explizit von der 6000er Serie gesprochen. Und die 6700er sollen mit 12GB kommen. Wie es darunter aussieht, weiß ich jetzt nicht. Da braucht es den vielen Speicher aber wahrscheinlich nicht, da die Leistung für hohe Auflösungen fehlt.
 
fraqman schrieb:
Nicht jeder schielt auf UHD.

Das ist mir klar. Ich z.B. nicht! Aber es es gibt sehr viele User die 4K Displays kaufen, weil die Werbung sagt, du brauchst 4K, 4K ist das beste etc... und sich dann wundern warum alles so scheiße läuft. Und wenn die Games dann noch scheiße programmiert / optimiert sind ist das eben scheiße. Wobei man die Entwickler ja auch etwas verstehen kann. Warum mehr Arbeit machen also nötig. :rolleyes: ;)
 
Wer kann jetzt schon sicher sagen, dass das Game schlecht optimiert ist? Für mich klingt das immer so, wenns vielleicht (weiß man ja nicht) so ist, dass UHD VRAM mäßig mehr braucht, als eine nvidia Karte hst, ist es per se schon mal schlecht optimiert.
 
GERmaximus schrieb:
Was genau meinst du?
Das hervorragende Antialaising?
Die super scharfen und detailreichen Textueren?
Die Schatten oder Lichteffekte?
Es sieht gut aus, keine Frage. Aber es distanziert sich aus meiner Sicht nicht von current-gen Spielen. Da erwarte ich mir von Next-Gen Spielen mehr. Die Engine ist ja auch noch kein Next-Gen, also auch nicht verwunderlich.
 
  • Gefällt mir
Reaktionen: GERmaximus
foo_1337 schrieb:
Die Engine ist ja auch noch kein Next-Gen, also auch nicht verwunderlich.

Habs mit ue5 verwechselt
 
  • Gefällt mir
Reaktionen: foo_1337
Cruentatus schrieb:
Warum soll es explizit ein Seitenhieb auf Nvidia sein wenn 12GB Grafikspeicher angegeben werden? Da fehlt mir im Artikel der Zusammenhang. Wenn da tatsächlich 12GB benötigt werden gibt man das halt an. Das wird man doch nicht als reinen Hieb auf Nvidia so formulieren... verstehe ich nicht.
Klingt für mich nach Klickbait... Hab aber gerade auch keine Lust mir extra das Video anzusehen.

Viele Grüße

:D Ich musste lachen. Du hast den weinerlichen NVidia Fan echt gut dargestellt
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Cruentatus schrieb:
Warum soll es explizit ein Seitenhieb auf Nvidia sein wenn 12GB Grafikspeicher angegeben werden? Da fehlt mir im Artikel der Zusammenhang. Wenn da tatsächlich 12GB benötigt werden gibt man das halt an.
Ich glaube es ging auch nicht um den Artikel sondern um das Showcase Video. Nirgendwo, bis auf dem einen Satz im Video ist von 12GB die Rede. Daher: Abwarten.
 
Zurück
Oben