• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Immortals of Aveum: Systemanforderungen für UHD und geringe Ansprüche

Ich glaube, manche Entwickler sind einfach nur noch faul...oder ihnen wird vom Publisher schlicht und ergreifend keine Zeit zur Optimierung mehr eingeräumt.

Als Gegenbeispiel für den Hardwarehunger der UE5 möchte ich hier mal Satisfactory Update 8 anführen, das ebenfalls Nanite und (zum Teil) Lumen nutzt.
Und da braucht es selbst auf maximalen Details eben keine 4090 oder einen X3D oder KS, meine 6800XT kommt damit problemlos zurande...ohne Upscaling. Und das Spiel muss sich grafisch nicht verstecken.

Geht also, wenn die Entwickler Zeit in die Optimierung stecken...was ich bei EA-Games aber rein gar nicht mehr erwarte :p
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aid0nex, Romanow363, N85 und 4 andere
snachtigall schrieb:
Als Gegenbeispiel für den Hardwarehunger der UE5 möchte ich hier mal Satisfactory Update 8 anführen, das ebenfalls Nanite und (zum Teil) Lumen nutzt.
Wobei ein Vergleich auf dieser gröbsten Erbene m. E. nicht taugt, um daraus eine qualitative Aussage über den Optimierungsgrad und -erfolg dieser beiden Spiele abzuleiten.

Ich kenne mich Engine-Programmierung/-Nutzung nicht aus, aber alleine die beiden von Dir genannten Kern-Features Nanite und Lumen werden eine hohes Maß an Skalierbarkeit bieten. Das "volle Brett" allerdings kostet - wie immer - halt richtig "Hardware-Asche".
 
C0rteX schrieb:
Kann man nur hoffen. 16 GB ist wiederum weder teuer noch Mangelware. Habe zur UE 5 auch schon andere Sachen gehört. Die engine selbst brauch angeblich mehr VRAM. Da geht es nicht nur um Texturen.

Die neueste UE5.2 Demo Electric Dreams braucht auf der 4080 ca 11 GB VRAM in 4K mit DLSS Quality.

Und die Demo dürfte mindestens die gleichen, wenn nicht sogar höhere Anforderungen haben, als das Spiel hier.

Wie gesagt, beim VRAM erwarte ich da jetzt keine bösen Überraschungen. Heißt natürlich nicht, dass sie es nicht trotzdem verbocken könnten...
 
Ich glaube es liegt auch nicht an der UE5 alleine. Denn das war ja an sich ein Versprechen der UE Entwickler. Man kann Grafik erzeugen die mit Raytraycing mithalten kann ohne massive GPU Power zu brauchen. Ich meine wenn man sich die Showcases der UE 5 ansieht dann muss jedem klar sein solche Grafik in Echtzeit - da brauchst du Hardwarepower.
Die Engine und eben die Features sind neu - da müssen die Entwickler auch erst mal Know-How aufbauen.. Von daher ist da sicherlich vieles noch nicht optimiert (einfach weil Wissen fehlt)
Und bei Nanite frag ich mich ob es da welche auch übertreiben...
 
  • Gefällt mir
Reaktionen: ComputerJunge
ComputerJunge schrieb:
Wobei ein Vergleich auf dieser gröbsten Erbene m. E. nicht taugt, um daraus eine qualitative Aussage über den Optimierungsgrad und -erfolg dieser beiden Spiele abzuleiten.

Worauf ich hinaus wollte ist...UE5 heisst nicht zwingend "komplett irre Systemanforderungen", und das hört man in letzter Zeit ziemlich oft.

Wie Du schon geschrieben hast, es kommt auf das Spiel an.
Aber es ist halt auffällig wenn ein Titel wie Satisfactory (der sicher nicht schlecht aussieht, und dank der laufenden Fabrik-'Simulation' auch durchaus CPU-Leistung benötigt) eben nicht sofort nach einer 4090 schreit :)

Das es kein perfekter Vergleich ist, ist mir bewusst. Aber genau so wenig kann man alle UE5-Spiele über einen Kamm scheren ;)
 
  • Gefällt mir
Reaktionen: aid0nex, Kitsune-Senpai und ComputerJunge
Deshalb macht man diese Aussage auch nur im Zusammenhang mit AAA Spielen. Satisfactory ist kein AAA Spiel.

Ich habe die Demo noch nicht gesehen, aber zwischen Demo und realer Spielewelt ist schon noch ein Unterschied. Besonders wenn es um Open world Games geht, muss jede Menge im VRAM vorgehalten werden.

Ich hoffe aber wirklich das es nicht noch heftiger wird. 16 GB ist ja so schon neuer Standard in neusten AAA Games. Teilweise sind 12 GB schon in WQHD sehr sehr knapp.
 
Da bin ich auf die Tests gespannt, ob das Spiel am Ende so gut ist, dass es so viel Leistung benötigt oder nur schlecht optimiert wurde. Ersteres wäre natürlich wünschenswert.
 
Interessante Diskussion.
Die Softwareentwickler und Hardwareentwickler scheinen sich gegenseitig den Ball zuzuspielen. Der interessierte Konsument hechelt dann verdutzt hinterher und schafft gegebenenfalls neue Hardware an.
Das Spiel wäre wohl auch für mich interessant jedoch würde ich deshalb keinerlei Upgrades vornehmen.
 
Cyberpunk61 schrieb:
und schafft gegebenenfalls neue Hardware an.
Aber das passiert ja - nachvollziehbarerweise - in der notwendigen Masse anscheinend nicht mehr.

Ja, eine interessante Konstellation. Auf die Verkaufszahlen bin ich wirklich gespannt. Den Shitstorm nicht. ;-)
 
C0rteX schrieb:
Unreal engine 5 mit Lumen und Nanite. So sehen die Systemanforderungen bei AAA Spielen nunmal zukünftig aus. Könnt ihr euch dran gewöhnen. Bin gespannt auf den VRAM. Ich denke 12 GB reicht noch für mittlere Texturen. Glückwunsch an alle 4070 ti Besitzer. Da haben sich 900 Euro richtig gelohnt.

Aber der Hardwaredurst der UE5 ist ja auch seit 6 Monaten quasi bekannt.
C0rteX schrieb:
Deshalb macht man diese Aussage auch nur im Zusammenhang mit AAA Spielen. Satisfactory ist kein AAA Spiel.

Ich habe die Demo noch nicht gesehen, aber zwischen Demo und realer Spielewelt ist schon noch ein Unterschied. Besonders wenn es um Open world Games geht, muss jede Menge im VRAM vorgehalten werden.

Ich hoffe aber wirklich das es nicht noch heftiger wird. 16 GB ist ja so schon neuer Standard in neusten AAA Games. Teilweise sind 12 GB schon in WQHD sehr sehr knapp.
Bisschen viel Polemik, oder? Wir wissen quasi gar nichts, und du schiebst jetzt schon Panik mit VRAM und Co. Naja wenn es dir Spaß macht.
 
lynx007 schrieb:
:confused_alt: da ist doch überhaupt kein Platz, für "nach unten und nach oben" :D:D:D

Verglichen mit den alten Anforderungen für 1080p und 1440p gibts jetzt ein Set nach oben (UHD) und darunter (1080p/40fps).

Tevur schrieb:
Man könnte ja einfach seine Spiele mit passender Engine so programmieren, dass sie vernünftig auf bezahlbarer Consumer-Hardware läuft.

Weil ein Spiel nur dann läuft, wenn es in UHD mit 120 FPS gerendert werden kann? Ich sehe den Gegenstand der Debatte nicht. Neue Engine sieht hübscher aus, das kostet Leistung. Man kann Verbesserungen schwer zum Nulltarif herzaubern.

Hier sind es zudem konkrete Anforderungen mit konkreten Settings, man hätte sonst den 8700K auch einfach unkonkret als "Minimum" nennen können und niemand hätte sich beschwert. DLSS und FSR zum Standard zu machen, halte ich für sinnvoll. Beides bringt Leistung und kostet kaum Qualität. Auf Konsolen ist Upscaling schon lange Standard, niemand beschwert sich darüber. Letztlich muss ein Spiel doch nur gut aussehen und flüssig laufen. Wenn es das schon mit mittleren Details tut, reicht das doch, wenn sich parallel teure Hardware auslasten lässt, umso besser. Allein der Unterschied zwischen High und Very High/Ultra oÄ ist in der Regel doch schon minimal auf Screenshots. Im laufenden Spiel bleibt davon erst recht kaum etwas übrig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gerithos, simosh, Ironbutt und 2 andere
Samuelz schrieb:
Welche Panik?

Dass der durchschnittliche Speicherverbrauch bei den letzten (AAA) Releases gemessen "abrupt" einen Sprung nach oben gemacht hat, ist doch, unabhängig ihrer Ursachen und Mitigationsoptionen per Regler, eine Tatsache.

Die Frage für mich ist nun, ob es erst mal so weiter geht, oder mit diesem Shift die neue Baseline bereits gesetzt ist. Von Letzterem gehe ich aus.
 
ComputerJunge schrieb:
Welche Panik?

Dass der durchschnittliche Speicherverbrauch bei den letzten (AAA) Releases gemessen "abrupt" einen Sprung nach oben gemacht hat, ist doch, unabhängig ihrer Ursachen und Mitigationsoptionen per Regler, eine Tatsache.

Die Frage für mich ist nun, ob es erst mal so weiter geht, oder mit diesem Shift die neue Baseline bereits gesetzt ist. Von Letzterem gehe ich aus.
Kann ich so gar nicht bestätigen? Quelle? Und welche Spiele sollen das sein? Auch wenn es so sein sollte, eine Textur Stufe runter, bei kaum optischen Verlust?! Und gut ist. Immer diese Panik der Verschwörer zum Schießen. Scheint eine Krankheit zu sein, immer alles schwarz zu sehen.
 
XRJPK schrieb:
Wenn das fertige Spiel dann auf ner 4090 und 13900KS läuft... worauf läuft dann die Entwicklung?
Wahrscheinlich auf LOW, und wenn es geht wird reingeknallt was die Engine hergibt damit man schöne Schlagwörter für die Schulhof Debatten und Leute mit kleinem EGO hat. Funktioniert. ( Kein Sarkasmus sondern EA @ its best)
 
Samuelz schrieb:
Kann ich so gar nicht bestätigen?
Must Du doch gar nicht. Du bist lange genug dabei, dass Du über die Entwicklung in den letzten beiden Jahren im Bilde bist.

Niemand sieht hier "schwarz", "schießt" oder "verschwört" sich. Meinen Hinweis auf die Option Reglernutzung steht übrigens sogar in dem von Dir zitierten Text.
 
Zuletzt bearbeitet: (Ref entfernt)
Ehrlich gesagt hätte ich in UHD+Ultra (+Upsampling "Quality") auch auf einer RTX 4090 nicht mit 120 fps gerechnet, vor allem wenn man bedenkt, dass das Spiel UE 5.1 vollumfänglich nutzt.

Wobei die 60 fps+High mit einer 4080 dann schon etwas wenig erscheinen, da die 4090 eigentlich nur ~30% mehr Leistung haben sollte, daher freue ich mich schon auf die Benchmarks von computerbase!
 
  • Gefällt mir
Reaktionen: MoinWoll und chilchiubito
@Samuelz

Ich fand deine Screenshots vor ein paar Monaten super. Mit welchem Programm hast du die editiert? Was wolltest du uns damals noch gleich erzählen?

Du meintest, du hast in "The Last of us" in 4k Ultra 7,3 GB VRAM Belegung und es läuft alles super. Komisch das Computerbase und so ziemlich alle anderen Quellen auf nahezu das doppelte in Benchmarks kommen.

Man könnte glauben du bist offiziell angestellt bei Nvidia oder hast du nur ein Jensen Tattoo auf dem Rücken?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Shadak
C0rteX schrieb:
@Samuelz

Ich fand deine Screenshots vor ein paar Monaten super. Mit welchem Programm hast du die editiert? Was wolltest du uns damals noch gleich erzählen?

Du meintest, du hast in "The Last of us" in 4k 7,3 GB VRAM Belegung und es läuft alles super. Komisch das Computerbase und so ziemlich alle anderen Quellen auf nahezu das doppelte in Benchmarks kommen.

Man könnte glauben du bist offiziell angestellt bei Nvidia.
Wie gesagt, sehr viel Polemik bei dir, leider gehst du jetzt auch noch auf die persönliche Ebene. Das ist sehr schade, und zeigt, dass es die gewaltig an Reife fehlt, den Sachverhalt mit klaren Argumenten und Quellen zu belegen.

Ich gehe auf deine Punkte nicht ein, macht leider sowieso keinen Sinn. Ich möchte dir aber nochmal sagen, das Last of Us mittlerweile sehr stark gepatcht wurde, und nun selbst 8GB für Max Texturen in FHD und WQHD reichen. Dein Wissensstand ist veraltet bzw. nimmst du den Release Stand immer noch für bare Münze, oder aber das passt dir gut, Stichwort wieder die Polemik. Schade.
 
ComputerJunge schrieb:
Die Frage für mich ist nun, ob es erst mal so weiter geht, oder mit diesem Shift die neue Baseline bereits gesetzt ist. Von Letzterem gehe ich aus.
Der Shift kam ja mit dem Genwechsel bei den Konsolen, die auf einmal massiv mehr VRAM hatten. Ich gehe also davon aus, mit Know How und Etablierung der aktuellen Engines 16GB VRAM erstmal der Standard bleiben werden, wenn man in hohen Einstellungen in 4K spielen will. Hier und da werden es auch mal 20 sein aber 16GB sicher in den meisten Fällen für die nächsten 2-3 Jahre gut.
 
  • Gefällt mir
Reaktionen: ComputerJunge
Das ändert überhaupt nichts daran, dass deine Screenshots nicht echt sein konnten. 8 GB für 4k ultra ist unrealistisch. Egal mit welchem Patchstand. Und nur darum ging es.

Du gehst nie auf irgendwas ein. Selbst die Testergebnisse von CB haben dich noch nie interessiert.
 
Zurück
Oben