• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Immortals of Aveum: Systemanforderungen für UHD und geringe Ansprüche

CD Project ist auch komplett auf UE 5 umgestiegen. Das nächste Witcher Spiel erscheint mit UE 5. Stellt sich die Frage wie die Nvidia Partnerschaft dann aussehen wird, wenn eine 1000 Euro AMD Karte an eine 1600 Euro nvidia Karte heran kommt. Das sieht Jensen sicher nicht gern.

Tomb Raider kommt auch mit UE 5. Das wird sicher auch ein Brett.

Geht aber schon noch etwas Zeit ins Land bis die UE 5 richtig landet.
 
  • Gefällt mir
Reaktionen: simosh
C0rteX schrieb:
CD Project ist auch komplett auf UE 5 umgestiegen. Das nächste Witcher Spiel erscheint mit UE 5. Stellt sich die Frage wie die Nvidia Partnerschaft dann aussehen wird, wenn eine 1000 Euro AMD Karte an eine 1600 Euro nvidia Karte heran kommt. Das sieht Jensen sicher nicht gern.

Tomb Raider kommt auch mit UE 5. Das wird sicher auch ein Brett.

Geht aber schon noch etwas Zeit ins Land bis die UE 5 richtig landet.
Arbeitest du eigentlich bei der Bild? Deine Anmaßungen sieht einfach zum Schießen. Kein Mensch weiß, wie zukünftige Spiele performen, aber du hast natürlich die Weisheit mit dem Löffel gegessen. Layers of Fear ein UE5 Spiel, ist zumindest vollkommen sparsam mit dem VRAM umgegangen und hatte auch ein cleveres Streaming welches selbst mit 6GB kein Problem war.

https://www.pcgameshardware.de/Laye...-Engine-5-Release-Benchmarks-Steam-1421920/2/

Aber mal dir deine Welt halt weiterhin komplett in Schwarz ein, wenn es dich glücklich macht, und habe dann immer was zum Schmunzeln.
 
Die Benchmarks wurden alle mit Raytracing und TSR durchgeführt. Je nach Modell gibt es ohne TSR 15-30% weniger FPS. Das mag 4k- und WQHD-Spieler nicht jucken, aber die Mehrzahl der anderen Spieler schon.
Die sind nunmal laut Steam noch mit Full HD oder niedriger unterwegs und werden in der nativen Auflösung spielen.
https://www.pcgameshardware.de/Deep...isse-Umfrage-DLSS-Presets-PCGH-Leser-1427076/
Hier in der Blase meinen halt viele, dass sie die grösste Käuferschicht darstellen und massgebend sind.
Ich bin gespannt auf die Verkaufszahlen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eraser4400
Supie schrieb:
entschieden hat eben nicht mehr jeden "Toaster" zu unterstützen, kann man mögen, muss man nicht, nur akzeptieren vielleicht...........
Dann aber nicht wundern wenn die verkäufe wieder mies ausfallen,und das spiel total zerrissen wird.

Hier wird einfach ein Großteil ausgesperrt,die meisten haben doch hoch gegriffen irgendwas um ne 3070,eher noch im bereich 60er Karten.



Also wenn das der Standard wird mit UE5 dann gute nacht.
 
Blood011 schrieb:
Also wenn das der Standard wird mit UE5 dann gute nacht.
Es wäre in meinen Augen besser, solche Games würden auf erstklassiges Skallieren getrimmt, also das als Minimum ein "Toaster" ausreicht, wie lange Zeit z.B. bei WOW, und das die höchste Einstellung dann von mir aus einen NASA Rechner bedarf, zum veröffentlichungs Zeitpunkt.

So wäre allen gedient. Man rüstet ja vil. ein paar Jahre später wieder auf, wenn mans nicht sofort tun möchte - und geniesst das Ding dann höherer Qualität.
 
  • Gefällt mir
Reaktionen: Tevur
Das funktioniert so leider nicht. Das war zum Beispiel das Problem mit cyberpunk auf PS4 und Xbox one. Was ja trotz der gleichen engine wie "the Witcher" auf der old Gen bis heute nicht gut läuft und deshalb bekommen die old Gen auch kein addon. Man kann eine engine nicht auf unendliche Skalierbarkeit ausrichten. Irgendwo muss eine Baseline gesetzt werden und schließt damit Hardware aus um echte Fortschritte zu machen. Ansonsten würden die Entwickler das auch gerne tun. Kein gewinnorientiertes Unternehmen schließt absichtlich potenzielle Kunden aus.

Da die Leute immer bessere Grafik möchten, muss dafür früher oder später immer etwas geopfert werden. In Fall von Cyberpunk haben sich ja auch einige eine neue graka gekauft. So wird es auch mit UE 5 Spielen sein. Spätestens mit der nächsten Hardwaregen relativieren sich die Anforderungen von selbst.
 
C0rteX schrieb:
Da die Leute immer bessere Grafik möchten,

Ähm, nein. Zumindest hoffe ich das nicht. Es gibt aber wahrscheinlich auch keinen Beleg für die Aussage.

Wäre dem so, würden wir immernoch Spiele mit der Komplexität und Tiefe von Pong oder Space Invaders zum Spielen haben. Nur eben in UE5 mit Raytracing.
 
Sagen wir eine nicht unerhebliche Menge an Coregamern möchte bessere Grafik. Sonst gebe es nicht öfter Artikel wegen Downgrades bei Spielen im Vergleich zum Trailer. Diskussionen darum ob etwas gut aussieht oder den individuellen Standard für AAA Games erfüllt, der sich auch ständig im Wandel befindet oder überhaupt eine Wertung für Grafik.

Tatsächlich hätten wir dann immernoch PS 1 Grafik oder sogar noch weniger und absolut keinen Anreiz aufzurüsten. Dafür bräuchten wir heutzutage nur Grafikkarten so groß wie ein USB-STICK.

Wenn Grafik kein Sellingpoint für Spiele wäre, dann würden die meisten Spieleentwickler den Aufwand einsparen. Keine aufwendige Optimierungen mehr um ins VRAM Budget zu passen. Den Deal würden die meisten Studios sofort eingehen.

Das Gameplay natürlich wichtiger ist, steht außer Frage. Aber das Auge spielt nunmal mit und die Grafik ist auch ein zentraler Punkt der Immersion eines Spiels.

Raytracing ist für mich immernoch nicht richtig angekommen. Zu wenig Beispiele die wirklich überzeugend waren, dass es sich lohnt dafür eine langfristige Investition in eine bestimmte Grafikkarte zu machen. Zu großer Leistungshunger für einen meist überschaubaren Effekt. Da finde ich den Ansatz von Epic, den Realismus von RT performanter zu machen schon ganz sinnvoll. Denn im Vergleich zu RT wie es Nvidia möchte, ist der UE5 Ansatz schon eine Ecke sinnvoller im Vergleich Leistung zu Optik. Hauptsache man kann es deaktivieren.
 
Zuletzt bearbeitet von einem Moderator:
Eine RTX 2080 Super als absolutes Minimum für Low Settings. :D (FHD, 60FPS)
Haben die sich schonmal Steam Hardware Surveys angeschaut? Damit sind dann mal eben 80-90% der potentiellen Käufer raus, lol.
 
  • Gefällt mir
Reaktionen: Grundgütiger und Blood011
Wenn ich Ersatz für meine RX 7900XTX habe (gerade auf retour) erfülle ich zwar die Anforderungen für 4k UHD Ultra, aber mir schwant da böses, vor allem wenn da schon DLSS und FSR als Voraussetzung gesehen werden.

Heißt also: in nativem Rendering nicht Spielbar?

Schade Spiel sah durchaus nicht uninteressant aus.

Aber gut dieses Jahr kommt eh viel zu viel Gutes raus bzw. ist schon rausgekommen, dass man fast schon froh ist wenn man ein Spiel für das Jahr von der Liste streichen kann :D
 
aRkedos schrieb:
eh viel zu viel Gutes raus bzw. ist schon rausgekommen,
Das Prob gefühlt 90% der kommenden spiele setzen auf UE5....

Siehst ja wieviel Prob es heute noch mit der UE4 gibt.

Bin eh noch der meinung das es viel zu früh ist für nen enginesprung.

Bringt halt auch nix wenn lvl und co leichter zum zusammenschustern sind und gut aussieht wenns nur 2% der bevölkerung gut spielen kann ...

FSR und DLSS ist auch so krebs,sieht einfach schrottig aus,erst wieder bei Wayfinder matsche ohne ende da kann ich gleich auf 720P spielen.
 
  • Gefällt mir
Reaktionen: aRkedos
Naja wobei ich hier als Gegenbeispiel Ghostrunner 2 anführen würde. Das läuft soweit mir bekannt auch mit Unreal Engine 5 und die Minimum Anforderungen sind deutlich geringer und nur marignal höher als beim ersten Teil (wie gut es dann läuft wird man sehen).

(auch eins von den wahrscheinlich guten Games dieses Jahr, welche mich dann eben noch mehr interessieren als Mortals of Aveum :D)

Ich denke, dass wenn Spiele gut laufen sollen, brauchst du halt auch tech gurus bei den Entwicklern die so eine Engine auch selber schreiben könnten und da wirklich alle Details durchdringen um evtl. entsprechende Optimierungen vorzunehmen.

Allerdings wenn du so ein Skillset hast dürftest du in anderen IT Branchen wesentlich mehr verdienen, wodurch diese Tech Wizards eben rar gesät sind.
 
Zuletzt bearbeitet:
United1944 läuft auch super,nur weis man nicht wer wieviel von dieser engine nutzt und damit auch umgehen kann.

Wenn schon mit skalierung gerechnet wird kommt mist raus siehe remant 2

Mich störts halt nicht so wirds nicht gekauft fertig.
 
  • Gefällt mir
Reaktionen: Grundgütiger
@Blood011
Schau mal eine Seite vorher meine Screenshots an. Die Matsche bekommst du oft in nativer Auflösung und nicht mit DLSS. Das zu pauschalisieren ist Unsinn.
Wer beste Bildqualität will, der MUSS DLSS in Betracht ziehen, sonst bekommt er eben NICHT immer die beste Qualität. Das ist Fakt.


Ansonsten sei nochmals erwähnt, dass Lumen Raytracing ist. Raytracing mit Global Illumination, Reflexionen und Ambient Occlusion in Kombination ist eben sehr teuer. Sieht man ja z.B. bei Cyberpunk.
Die mindestanforderungen wären dort die selben, wenn RT nicht deaktivierbar wäre.

Aber RT ist ja nicht das einzige. Virtual Shadowmaps und Nanite sind auch beide sehr teuer. Das kommt also zur eh schon hohen RT Last oben drauf.

Und wir erinnern uns. Nvidia hat damals DLSS entwickelt, weil es notwendig war, um RT überhaupt erst in Echtzeit lauffähig zu bekommen. Damals war DLSS schon notwendig, um überhaupt nur ein paar Reflexionen darzustellen. Heute beschweren wir uns, wenn RT in Form von mehreren Kombinierten Effekten incl. Global Illumination und weiteren paradigmenwechseln wie nanite weiterhin DLSS fordert und eine RTX2080 dann als Mindestanforderung genannt werden muss.

Nochmal, eine RTX 2080 kann gerade so cyberpunk mit RT flüssig darstellen und braucht dafür auch DLSS. Da gibts aber kein Nanite und keine Virtual Showmaps.

Für das was hier an kostspieligen Features aufgefahren wird sind die Anforderungen vollkommen zu erwarten. Das Problem ist wie ich schon sagte der geringe Fortschritt im Grafikkartenmarkt bzw. die extremen Preise für zumindest moderaten Fortschritt.

Und letzten Endes läuft das alles trotzdem auf den Konsolen mit 60 FPS. Natürlich nicht in nativen 4K aber wozu auch. Stellt euch mal auf Spiele ein, die irgendwann nur noch mit 30 FPS auf Konsole laufen, denn das wird in einigen Jahren dann auch kommen. Also doppelte Anforderungen von dem was wir hier sehen.


Es ist schon immer witzig zu sehen. Einerseits beschwert man sich, dass in den Konsolen keine bessere Hardware verbaut ist und der Fortschritt aufgehalten wird. Sobald dann aber nach einem Generationswechsel die ersten next-gen Spiele aufschlagen, die speziell für die neuen Konsolen als Zielplattform entwickelt werden und den Support für last-gen Konsolen streichen, ist das Geheule groß, weil nach einem entsprechendem Sprung bei den Systemanforderungen die Leistung am PC plötzlich nicht mehr für 4K nativ 150 FPS Maxed out ausreicht. Diesen Performanceüberschuss hat man eben nur, solange man last-gen Spiele spielt, die noch auf PS4 und Series X laufen mussten. Viele Leute kaufen dann Hardware die die nächsten Jahre reichen soll, bemessen deren performance jedoch mit Benchmarks auf basis von last-gen Spielen. Das ist ein fataler Fehler, der einem in falscher Sicherheit wiegt. Next-gen bedeutet, dass PS5 und Series X zur Mindestanforderung werden. Und die bieten nunmal die Leistung einer RTX2070S bzw. RTX2080S. Wer ein wenig den Markt beobachtet hat und nicht erst seit gestern PC Gaming als Hobby betreibt, hätte diese Systemanforderungen schon vor 3 Jahren sehen können. Konsole = minspec. Ganz einfach. Doppelte Leistung ist das mindeste was der PC für ordentliche Performance haben sollte.
Die gleiche Situation hatten wir schon 2013 nach dem PS4 und Xbox One release. Exakt das gleiche. Nur mit dem Unterschied, dass die alten Konsolen damals schneller von den Entwicklern fallen gelassen wurden und dass am PC viel schneller mehr Leistung zu günstigeren Preisen verfügbar waren. Aber anfangs war die Reaktion genau die gleiche. Vermeintlich überzogene Anforderungen. Hardware die plötzlich nicht mehr die erwarteten FPS erreicht usw. Same Story. Jedes mal ist die gesamte PC community entsetzt, weil nach einem Konsolengenerationswechsel das offensichtliche passiert und plötzlich die Anforderungen einen Sprung machen.
 
Zuletzt bearbeitet:
@Mimir, Nanite ersetzt auch Tesselation, das spart also schonmal Leistung.

https://docs.unrealengine.com/5.2/en-US/nanite-virtualized-geometry-in-unreal-engine/#:~:text=Nanite%20is%20Unreal%20Engine%205's,be%20perceived%20and%20no%20more.

Da gibts schon Seitenweise Beschwerde im Forum und genau hier liegt der Hund begraben: Routine
Sowas wie Immortals of Aveum sieht wie mal auf die Schnelle nach UE5 importiert aus, mit UE4 wurde das Projekt gestartet.

Viele Sound Probleme und Leistungseinbrüche sind dann garantiert.

Mich selbst interessiert das Game so garnicht.
Zum einen hab ich Dank CB Tipp mit Humble Bundle: The outer worlds und high on Life.
Zum anderen kommt demnächst Starfield und Alan Wake.
 
Mimir schrieb:
FSR war immer deutlich schlechter in den Games die ich gespielt hab.
Nativ sah immer deutlich knackiger aus.

Vorallem texturen in der Ferne als ob close in UHD gerechnet wird und range in 720P... sorry das tut regelrecht in den Augen weh,das DLSS da soviel besser sein soll kann ich nicht glauben.

War ja oft der fall das von besser geredet wird aber die vergleiche trotzdem schlechter ausgesehen haben,manchmal denk ich die testseiten erzählen das weil se es müssen.

Mag sein dass,das auf briefmarkengrößen nicht so auffällt aber bei 42" sticht das ins Auge.

So wie es z.Z ist,ist das keine Alternative für mich dann eher XY Setting etwas zurück drehen.
 
Zuletzt bearbeitet:
Blood011 schrieb:
War ja oft der fall das von besser geredet wird aber die vergleiche trotzdem schlechter ausgesehen haben,manchmal denk ich die testseiten erzählen das weil se es müssen.

Mag sein dass,das auf briefmarkengrößen nicht so auffällt aber bei 42" sticht das ins Auge.

So wie es z.Z ist,ist das keine Alternative für mich dann eher XY Setting etwas zurück drehen.

Hmm, hab ich mich echt so undeutlich ausgedrückt, dass du nicht darauf eingehst?

Du sprichst davon, dass es auf einem kleinen Display nicht auffallen würde.
Was soll nicht auffallen? Das Upscaling?

Das ist doch überhaupt nicht der Punkt. Schau dir meine Screenshots an, dann siehst du doch ganz eindeutig, dass DLSS viel besser aussieht und viel mehr Details zeigt..

https://www.computerbase.de/forum/t...-und-geringe-ansprueche.2156668/post-28514628

https://www.computerbase.de/forum/t...-und-geringe-ansprueche.2156668/post-28513325


Da wird argumentiert, dass man lieber scharfe Texturen und keine Matsche haben will, dabei ist es immer wieder so, dass man mit DLSS das schärfere und detailliertere bild bekommt als nativ, weil man nativ die Matsche bekommt wie meine Bilder ganz eindeutig zeigen.

Es ergibt doch überhaupt keinen Sinn, dann DLSS pauschal abzulehnen, wenn man damit weniger Matsch hat…

Nochmal, wenn du das beste Bild willst, dann musst du in manchen Spielen DLSS nutzen. Da beißt die Maus keinen Faden ab. Überzeug dich selbst von den Screenshots. Im zweiten Link von mir ist die ganze straße mit TAA matschig. Erst mit DLSS kommen die Details.


Ich verstehs einfach nicht. Da tun die Leute immer so als hätten sie die höchsten Ansprüche an die Bildqualität und wären super pingelig, sehen dann aber nicht, dass in manchen Spielen TAA viel schlechter als DLSS aussieht. Schon sehr komisch..
 
Zuletzt bearbeitet:
Blood011 schrieb:
Vorallem texturen in der Ferne als ob close in UHD gerechnet wird und range in 720P... sorry das tut regelrecht in den Augen weh,das DLSS da soviel besser sein soll kann ich nicht glauben.
Und warum probierst du es dann nicht einfach mal bei jemand mit einer RTX Karte aus?
Dann könntest du dir selber ein Bild machen, und müsstest nichts glauben.........

Wenn du niemand kennst, schau dir Vergleichsvideos an, ich selber habe auch eine RTX Karte und sehe jetzt keinen Unterschied - ausser das es eben flüssiger läuft.
Ach ja, ich meine nicht FG, das kann meine 3080ti nicht, und damit muss ich leben. Klappt zur Zeit ganz gut=).
 
C0rteX schrieb:
CD Project ist auch komplett auf UE 5 umgestiegen. Das nächste Witcher Spiel erscheint mit UE 5. Stellt sich die Frage wie die Nvidia Partnerschaft dann aussehen wird, wenn eine 1000 Euro AMD Karte an eine 1600 Euro nvidia Karte heran kommt. Das sieht Jensen sicher nicht gern.

Tomb Raider kommt auch mit UE 5. Das wird sicher auch ein Brett.

Geht aber schon noch etwas Zeit ins Land bis die UE 5 richtig landet.
Meinst du so wie hier wenn UE5 Features mal genutzt werden: https://gamegpu.tech/rpg/role-playing/the-old-west-northwood-unreal-engine-5-1-test-gpu-cpu
 
Zurück
Oben