News Systemanforderungen: Godfall will schon für 1080p Leistung sehen

Permanente Internetverbindung ja genau für n arsch wenn man nur lte hat mit paar gigabyte, hoffentlich gibts das bald gekekst, wünsch dem Puplisher sogar das es schon vor dem release gekekst wird
 
@eax1990
Fun Fact:
Ion Fury, ein Spiel basierend auf der 14 Jahre alten Build-Engine, kam letztes Jahr auf den Markt und erfreut sich großer Beliebtheit.

Ich stelle die vollkommen irre Behauptung auf, dass so etwas auch auf einen Coop-Lootslasher zutreffen kann.
 
GerryB schrieb:
3060@6GB wird dann sicher der ganz große Kassenschlager, im Jahr 2021.

Das der A-Launch mit nextGen zusammenfällt kann ja wohl für die "Experten" von NV keine Überraschung gewesen sein, oder doch!?
Dann bräuchte man net bei jedem Konsolenport die Diskussion von Hier führen.

Traurigerweise verkaufen sich sowohl RTX 3070 als auch 3080 bereits wie geschnitten Brot, Preisaufschläge von bis zu ~500€ werden bezahlt (bei einer 699€ UVP Karte, FE, Zotac Trinity, ASUS TUF etc.) und du glaubst wirklich, dass die 3060 sich nicht auch wie verrückt verkauft?

Die XSX hat ja 10 GB schnell angebundenen Speicher, der laut Microsoft als "optimaler Videospeicher" gilt und bei der PS5 wurden bis zu 12 GB errechnet, da dieser Speicher quasi nur für Texturen genutzt wird, konnte man ja erahnen wo die Reise hingehen wird, aber sowohl nvidia als auch etlichen Kunden ist das egal - Traumsituation für nvidia.
Und plötzlich haben sogar die Enthusiasten - welche die Kundschaft für die großen Karten sind - kein Problem mehr damit Regler nach links zu schieben, sogar solche, die keine Leistung, aber dafür Bildqualität kosten......

UND DANN wird noch das Spiel angegriffen, weil es
a) EGS exklusiv ist.
b) nvidia-feindlich ist.
c) schlecht optimiert ist.
d) sowieso nicht gut ist.
 
  • Gefällt mir
Reaktionen: EJC, KaffeeWeißer, JahJah192 und eine weitere Person
Ich finde es irgendwie interessant, dass in den vielen Threads bezüglich Grafikbestückung in den letzten 1 bis 2 Jahren häufig das Argument "Der Speicher reicht immer, vorher bricht die Rohleistung ein" gebracht wurde.

Bis zu einem gewissen Punkt stimmte das auch, aber man sieht natürlich, dass zum JETZIGEn Zeitpunkt Nvidia einfach mist gebaut hat. Natürlich werden die "Ti" bzw. "super" Varianten kommen, aber es zeigt ja dass es schon Nachteil für den Kunde ist, absichtlich den Vram sehr knapp zu bemessen. Es ist auch irgendwie unlogisch wenn man annimmt, dass von 8GB Vram (welche es ja vor 5 Jahren schon gab)der Bedarf jetzt so langsam auf 10 steigen wird und dann in 2 Jahren kommt dann nvidia mal mit nochmal 2 mehr......dann hätten wir ja erst 2025 die 16GB.

Zum Topic: Man kann das Spiel jetzt noch nicht bewerten, ich will das aber keinesfalls so stehen lassen dass man die 12GB ungeachtet jeder Optimierung "braucht". Auch bei Watch-Dogs Legion sehe ich jetzt nix, was sich deutlich von anderen Spielen unterscheiden würde.
Ich finde immer wieder Witcher 3 ist doch ein Paradebeispiel. Das Game ist 5 Jahre alt, sieht in UHD aber Bombe aus und braucht nicht mehr als 4(!!!) GB Vram. Und das ist ein Open World game.
Es kann also nicht sein, dass Spiele die etwas besser aussehen auf einmal den dreifachen Speicher brauchen.
Klar nähern wir uns mehr Speicher an, aber das hat definitiv auch was mit Optimierung zu tun.
Man muss auch einfach sagen, dass ein God of War, TLOU2, HZD etc. auf einer Playstation Pro in 1440p liefen....mit teils sehr ordentlichen Texturen. Und die hat 8 GB Ram insgesamt. Keine Ahnung wieviele da für die GPU zur Verfügung standen, 3-5?
Und da gibts keine Super SSD. Das passt für mich nicht zusammen, auch eine Xbox One X hatte bsp. in vielen Spielen die vollen 4K Texturen. Okay, sie hat mehr Ram, aber immer noch keine SSD und letztlich auch nur 12GB geteilten Ram. Nimmt man mal an 6GB für die GPU und 6 GB für den Arbeitsspeicher, dann kann mir niemand sagen, ich brauch ab sofort in 2021 auf meinem PC das vierfache an Ram (16 Ram/ 16 GPU) um die gleiche Auflösung zu fahren. So sehr wird es nun auch nicht steigen. Von daher, ruhig bleiben und abwarten und am Ende bin ich mir sicher das gut optimierte Spiele (wie vllt auch ein Cyberpunk) zeigen werden, dass es nicht ab sofort mindestens 12GB braucht.
 
  • Gefällt mir
Reaktionen: downforze
DJMadMax schrieb:
Ganz einfach: weil ich Hirn hab und damit keine 4k Downsampling bei 8x AntiAliasing mit Sichtweite bis zum Andromedanebel einstelle!

Ich kaufe mir etwas, das für Anwendungsbereich X gedacht ist, erzwinge dann auf Biegen und Brechen Anwendungsbereich Y und erdreiste mich dann auch noch, den Anbieter des Produkts dafür verantwortlich zu machen, dass ich zu blöd bin, es im richtigen Bereich einzusetzen.

Sorry, das was du schreibst klingt nach Steve Jobs: "You are holding it wrong!"

Welche Settings der Nutzer wählt und mit welcher daraus resultierender Framerate derjenige zufrieden ist entscheided nicht der Hersteller der GPU.
 
Sebbi schrieb:
stimmt Nvidia hatte ja auch bei der 970 kein Problem damit, die Kunden zu belügen und dann via Treiber alles so zu beschneiden, das das game auf jeden Fall unter der magischen Grenze des Abfall Vrams geblieben ist.

4 GB verfügbarer Vram wurden dennoch angezeigt.

Ask me how i know..
 
Ist doch nichts neues mehr das NVIDIA ihre Kunden in einer Generation gleich 2x melkt.
 
  • Gefällt mir
Reaktionen: 4to cka3al, Onkel Föhn, KurzGedacht und eine weitere Person
@Beg1
Tatsächlich würde ich dir zustimmen, wenn man dafür eine gerechtfertigte Bildqualität sehen würde. Software zu erfinden die eine bestimmte Menge RAM braucht ist keine Kunst, dass bekommt jeder innerhalb eines Tages mit einem UE Editor hin. Die Kunst ist es den Anspruch auch mit sichtbaren Resultaten zu belegen und das tut das Game bei Leibe nicht. Und in dem Moment wäre es mir auch egal ob ich den Regler voll aufdrehen kann. So oder so würde ich nicht immer mit allem aufgedreht zocken, viele der höchsten Grafikeinstellungen münden doch eh nur in FPS Verlust, ohne das man was davon sieht. Da sollte man auch mit absolutem Highend abwägen.
Ich bezweifle sehr stark das so ein Spiel zwingend 12 GB Texturen im VRAM halten MUSS um die gebotene Qualität zu liefern. Das es aus verschiedenen Gründen vielleicht gewollt ist, ist ein anderes Thema.
 
  • Gefällt mir
Reaktionen: tuccler und DocWindows
Belgeron schrieb:
Ich weiß überhaupt nicht wieso sich so viele wegen den Specs aufregen? Was haben den alle erwartet mit dem neuen Konsolenrelease?
Seh ich genauso. Seit Jahren bewegen wir uns bei den Anforderungen auf dem gleichen Niveau, die ehemaligen geringen Sprünge (pre-Ryzen Ära) haben ihr übliches getan. Und genauso lange sprechen alle davon, dass das stark mit dem Konsolen zusammen hängt und sich erst wieder ändert, wenn next gen, ausser so spezielle und seltene PC Ausreißer wie SC.
Wo sollen denn die ganzen Ultra 8K Superduper Mega Grafikhammer herkommen? Und seit genau so langer Zeit reden sich NV Käufer ihre aus Herstellergeiz kastrierten GPUs schön und jetzt plötzlich - UNERHÖRT!!! - wagt es ein Spiel mehr wie 6/8 GB Vram zu wollen. Hängts eigentlich?
 
  • Gefällt mir
Reaktionen: KurzGedacht
@DJMadMax

Ich bin da komplett bei Dir. Auch wenn die 970 Diskussion hier nichts zu suchen hat.

Die 970 war auch mit 3.5GB eine hervorragende Karte. Ich habe mir damals eine Radeon FuryX geholt für knapp 800EUR. Die Karte war in DX11 schwächer und langsamer als meine vorherige 970. Vor allem in Diablo 3 und Warthunder ist die FuryX komplett abgeschmiert rein von der Performance.

Ich bin dann umgestiegen auf 2x 970 SSC+ im SLI und war begeistert. Die Performance war hervorragend, vor allem auch in Overwatch. In Wqhd kam einzig meine spätere 1080Ti an die Performance der 970SLI ran.

Ich hatte auch nie irgendein Ruckeln oder sonstwas. Ich habe damals sogar Videos gemacht, die keiner der AMD Boys wahr haben wollte.

Das Ruckeln war erst viel später ein Thema wo die 1080 bereits längst auf dem Markt war.
 
  • Gefällt mir
Reaktionen: DJMadMax
Ohne jetzt den Aluhut auspacken zu wollen, sollte doch im Artikel zumindest darauf hingewiesen werden dass es eine Zusammenarbeit zwischen AMD und dem Godfall Studio gibt.....

https://wccftech.com/godfalls-4k-ultra-textures-on-pc-to-require-12gb-vram-says-dev/

" The Infinity Cache on AMD's Radeon RX 6000 Series graphics cards runs Godfall at high frame rates with maximum settings enabled. "

" Of course, ray-tracing shadows involves incredibly complex computations, and the Radeon RX 6000 Series GPUs are able to handle them with ease. "

Na, so ein Zufall :) Die Angabe von 12GB VRAM passt da natürlich auch wunderbar rein als Seitenhieb auf Nvidia.

Wie gesagt, ob der Speicher jetzt zu wenig ist oder nicht, keine Ahnung, aber sowas sollte hier nicht als verlässliche Quelle dargestellt werden.
 
  • Gefällt mir
Reaktionen: foo_1337
czmaddin schrieb:
mmmh, wieviele nvidia gpus für gaming haben jetzt generell mehr als 12 gb vram? und wieviele der aktuellen, gerade erst vorgestellten, noch nicht mal richtig verfügbaren generation haben jetzt mehr als 12 gb vram?
komm schon, DAS fällt auch dir auf. du bist schlauer als das, was du da geschrieben hast.
Wenn man die Stream Survey anschaut und zurück überlegt was man bisher kaufen konnte bleiben 8GB das Maß der Dinge, wo nach sich spiele zu orientieren haben, es sei denn man möchte das Spiel nur an eine Hand von Kunden verkaufen.
Ergänzung ()

Buck Rogers schrieb:
Krass kommt auch für Pc mal gut das ich aufgerüstet habe.
Fake News
Die 3080 gab es doch nie zu kaufen
 
Zuletzt bearbeitet:
Beg1 schrieb:
Traurigerweise verkaufen sich sowohl RTX 3070 als auch 3080 bereits wie geschnitten Brot, Preisaufschläge von bis zu ~500€ werden bezahlt (bei einer 699€ UVP Karte, FE, Zotac Trinity, ASUS TUF etc.) und du glaubst wirklich, dass die 3060 sich nicht auch wie verrückt verkauft?
Das ist schon krass wieviel Leute NIX aus dem 2060@6GB-Debakel gelernt haben.
Mein Mitleid hält sich aber in Grenzen.
Wer für ne 3070@8GB-Custom genauso viel Geld hinlegt wie für ne 6800XT@16GB-Ref. ist selbst dran Schuld.
(die 3070FE gefällt mir von der Stromversorgung net... Spikes auf dem PCiE>100W bzw. auf den 6pin>200W)

simosh schrieb:
Seh ich genauso. Seit Jahren bewegen wir uns bei den Anforderungen auf dem gleichen Niveau, ...
Wo sollen denn die ganzen Ultra 8K Superduper Mega Grafikhammer herkommen? Und seit genau so langer Zeit reden sich NV Käufer ihre aus Herstellergeiz kastrierten GPUs schön und jetzt plötzlich - UNERHÖRT!!! - wagt es ein Spiel mehr wie 6/8 GB Vram zu wollen. Hängts eigentlich?
Das Problem/Fahnenstange liegt schon viel niedriger an.

Jensen verwendet wahrscheinlich in seinen Review-Guides nur FHD-Texturen=olle 1080p-Optik.(3070 opt. für 4k)
ABER nextGen kann in 2160p auch endlich UHD-Texturen verwenden. Das kostet halt mehr Vram.
(das Getrickse 8k = hochskaliertes FHD kann Er stecken lassen, hat auch nur die kleinen Texturen)

Jensen, kauf Dir mal nen Taschenrechner.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sebbi
Da das Spiel als Beigabe zu den aktuellen AMD-Grafikkarten kommt (5600XT mit 6 GB RAM!), sollte auch mit weniger als 12 GB RAM ein sehr schönes Spiel rauskommen, Ob es dann Mega-dupper-4K-Texturen sein müssen, muss jeder selbst für sich wissen. Aber dass kann dann eventuell keine Karte mit 8 GB mehr. Das fände ich jetzt auch nicht so schlimm, da keine von den Karten 4K-Karten sind.

Ich denke aber, dass ab 10GB die Texturen möglich sein werden, man will bestimmt die 280TI und 3080 Kunden mitnehmen.

Aber es zeigt sich schon, dass Nvidia zu sehr geknausert hat. die 3090 ist nicht wirklich eine Gaming Karte und vom Preis vollkommen out of scope (spätestens mit der RX 6900 XT). Die wahre High End Karte RTX 3080 hat unnötig zu wenig Speicher, weil man auf neue, tolle Speichersteine gegangen ist. was zugleich dafür sorgt, dass die 3070 natürlich nicht mehr Speicher haben darf, obwohl GDDR6 genutzt wird. Hausgemachtes Problem.
 
Draco Nobilis schrieb:
Der erwähnt mir zu oft zusammenarbeit mit AMD.
Als Klartext, ich kann das bei AMD genausowenig akzeptieren oder aushalten wie bei NVIDIA.
Solange die Zusammenarbeit AMD nützt, ohne Nvidia zu schaden, ist darin kein Problem zu sehen.
 
  • Gefällt mir
Reaktionen: Sebbi
In 4k einfach von Ultra auf Hoch stellen, schön läufts auch auf einer RTX 3080 :evillol:. Selbst wenn die Optimierung besser sein könnte, das ist erst der Anfang, in einigen Jahren muss der Detailregler wegen zu wenig VRam wohl noch öfters bedient werden - insbesondere wenn Nvidia auch in der Mittelklasse mit Grafikkarten nachzieht die mehr Vram haben.

An alle die jetzt lieber doch eine Konsole anschaffen wollen, 4k Ultradetails sind nicht vergleichbar mit dem selben Spiel auf der PS5. Da werden Auflösung und Details angepasst bzw. die FPS - mit entsprechenden Reglern ginge das am PC auch und die Anforderungen sinken entsprechend. Kann bei der RX 5700XT auch in 4k spielen, halt nicht alles auf Ultra.
 
Das Spiel sollte man sich sowieso lieber auf der PS5 mit Gamepad und TV gönnen als am PC. Bei gewissen Spielen wie z.B. AC geht es mir einfach so, obwohl ich eher PC Gamer bin.
 
  • Gefällt mir
Reaktionen: Ebu85
DocWindows schrieb:
Nö. Man kann auch Texturkompression nutzen. Die ist verlustfrei.
Auch mit Kompression werden Texturen größer je höher die Auflösung und Qualität ist.
 
Zurück
Oben