Finde es echt lustig wie hier manche wegen der VRAM Geschichte sich gleich angesprochen fühlen. Fakt ist, wenn in 1-2 Jahren die ersten richtigen next gen Titel kommen werden, werden 8 und 10 GB zu wenig sein und kommt mir jetzt nicht RTX IO.
-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Systemanforderungen: Godfall will schon für 1080p Leistung sehen
- Ersteller AbstaubBaer
- Erstellt am
- Zur News: Systemanforderungen: Godfall will schon für 1080p Leistung sehen
O
owned139
Gast
Die behaupten in dem Video, dass die Schatten in Dirt5 mittels Raytracing dargestellt werden.foo_1337 schrieb:Diese Showcase Dinger sind purer Marketing Bullshit, insbesondere das Gelaber dazu. Schaut euch mal das an:
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Hier hat es das Marketing auf ganzer Linie verkackt. Oder ist das Geruckle nicht dem Videoteam und 50/60/24hz Problemen geschuldet?![]()
Das ist komisch, denn PCGH behauptet, dass kein Raytracing enthalten wäre: https://www.pcgameshardware.de/Dirt...hlacht-dem-Next-Gen-Anspruch-gerecht-1361084/
downforze
Banned
- Registriert
- Sep. 2008
- Beiträge
- 1.657
Permanente Internetverbindung - an der Stelle bin ich schon raus. Ich kann gar nicht sagen, wie abstoßend ich diesen unnötigen Internetzwang finde.
Mit der Unreal Engine 4 solche abstrusen Hardwareanforderungen für 60 fps zu kreieren, ist auch einmalig.
Mit der Unreal Engine 4 solche abstrusen Hardwareanforderungen für 60 fps zu kreieren, ist auch einmalig.
F
foo_1337
Gast
Eben mal den Test gesehen: Current Gen Grafik und dann nichtmal 60fps ohne RT auf ner 3080 in 4k. Das ist schon ne Ansage...owned139 schrieb:Die behaupten in dem Video, dass die Schatten in Dirt5 mittels Raytracing dargestellt werden.
Das ist komisch, denn PCGH behauptet, dass kein Raytracing enthalten wäre: https://www.pcgameshardware.de/Dirt...hlacht-dem-Next-Gen-Anspruch-gerecht-1361084/

Pisaro
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 15.795
downforze schrieb:Ich kann gar nicht sagen, wie abstoßend ich diesen unnötigen Internetzwang finde.
Mit der Unreal Engine 4 solche abstrusen Hardwareanforderungen für 60 fps zu kreieren, ist auch einmalig.
Gerade mit der Unreal Engine kann man viel "Schund" anstellen, siehe Ark.
Ich persönlich habe im Jahr 2020 aber keine Probleme mit allways on..
Zuletzt bearbeitet:
4to cka3al
Lieutenant
- Registriert
- Apr. 2011
- Beiträge
- 576
Geil das sieht vom Gameplay aus wie Darksiders und God of War..... Nice. Ich will haben.
GerryB
Commodore
- Registriert
- Sep. 2016
- Beiträge
- 4.538
Jo,Trinoo schrieb:warum auch Zeit und Geld für Optimierungen ausgeben?... unsauber den Kunden vor die Füße schmeißen und dann ...
ein unsauberes Produkt aus dem Backofen ziehen ist nur gut für den Küchenchef und seine pralle Geldbörse.
Dabei wäre Es so einfach gewesen die 3070@256bit mit 16GB auszuliefern.(Mehrkosten 20..50€ ?)
Oder die 3090 hat ja bereits 384bit, da wäre ne 3080Ti@12/24GB möglich gewesen. Evtl. sogar GDDR6-18Gbps.(x)
Gerade wenn man mit Samsung zusammenarbeitet, da war ja (x) im Gespräch.
https://www.computerbase.de/news/grafikkarten/samsung-gddr6-18gbps.62130/
Da hätte es net mal Mehrkosten gegeben, eher weniger Probs als mit dem hotten und aufwendigen GDDR6x.
Doppelbestückung musste Das sein?
Und die 3080Ti mit etwas weniger Takt = weniger W wäre soundso zeitgemäß.
3060@6GB wird dann sicher der ganz große Kassenschlager, im Jahr 2021.
Das der A-Launch mit nextGen zusammenfällt kann ja wohl für die "Experten" von NV keine Überraschung gewesen sein, oder doch!?
Dann bräuchte man net bei jedem Konsolenport die Diskussion von Hier führen.
Die Schuld hat einzig der Knauser Jensen.
Zuletzt bearbeitet:
Das Problem des Spiels sind nicht gestiegene Hardwareanforderungen, sondern das grundlegende Spielprinzip. Godfall ist ein Loot basiertes Hack n' Slay Spiel. Das bedeutet: Grind, Grind und noch mehr Grind. Dieses Spielprinzip kann die Masse nicht langfristig unterhalten.
Das ist wie mit anderen Loot basierten Spielen. Anfangs ist die Userzahl hoch und nach kurzer Zeit sind nur noch Hardcore-Grinder vorhanden, die so ein Spiel spielen. Noch langweiliger ist dann der Umstand, dass sich das Spiel primär auf einen Single-Player fokussiert. Nach zwei Wochen hat der Spieler den Zombie-Status erreicht.
Das ist wie mit anderen Loot basierten Spielen. Anfangs ist die Userzahl hoch und nach kurzer Zeit sind nur noch Hardcore-Grinder vorhanden, die so ein Spiel spielen. Noch langweiliger ist dann der Umstand, dass sich das Spiel primär auf einen Single-Player fokussiert. Nach zwei Wochen hat der Spieler den Zombie-Status erreicht.
A
Adzz
Gast
Wieder ein Spiel was mit Grafik von dem langweiligen repetitiven Gameplay ablenken will. Überall leuchtet was, alles bewegt sich schnell. Aber trotzdem langweilig.
Aber Hauptsache always on und Epic exklusive. Als empfohlene Karte eine 1080ti um auf Full HD und 60 FPS spielen zu können. Wird sich bestimmt super verkaufen.
Aber Hauptsache always on und Epic exklusive. Als empfohlene Karte eine 1080ti um auf Full HD und 60 FPS spielen zu können. Wird sich bestimmt super verkaufen.
Zuletzt bearbeitet von einem Moderator:
DJMadMax schrieb:Wieso habe ich nie Probleme damit gehabt?
Ganz einfach: weil ich Hirn hab und damit keine 4k Downsampling bei 8x AntiAliasing mit Sichtweite bis zum Andromedanebel einstelle!
und weil der Treiber alles versucht, das um den VRAM unter 3,5 GB zu halten. Sry aber das hat Nvidia auch so kommuniziert, nach dem das rausgekommen mit diesen Krüppel, das die nächsten Treiber eben genau das versuchen wird, das die letzten 512 MB nicht von Games belegt werden. Wie das genau passiert haben Sie nicht ausgeführt damals, aber es werden wohl meiner Meinung nach dann Spieleinstellungen ignoriert und Details noch weiter reduziert als wie der Gamer es im Spiel eingestellt hat.
@Sebbi
Erneut: ich (und zichtausend andere) hatte niemals auch nur im Geringsten Probleme. Auch stelle ich meine Hardware und Spiele nicht so zusammen, dass ich "gerade so" die 60Hz erreiche.
Ich habe stets ein flüssiges Spielerlebnis. Auch habe ich kein Problem damit, mal nen mehr oder weniger unwichtigen Schieberegler im Grafikmenü nach links zu drehen. Wenn man keiner von der Sorte ist, der im Standbild mit der Lupe nach Pixel-Unterschieden sucht, dann tut es in vielen Spielen mit Bewegung sogar oftmals die mittlere Detailstufe vollkommen zufriedenstellend.
Seht euch doch die unzähligen Tests an, die immer wieder auf CB gemacht werden. Da stehen dann 5 Screenshots der unzähligen Grafik-Presets gegenüber und in beinahe allen Spielen sehen die drei höchsten Settings praktisch identisch aus. Kein Mensch würde das im Blindtest sehen, schon gar nicht im normalen Spielfluss.
Aber ja: die GTX 970 war der Teufel, selbst auf 320x240 hat Pacman geruckelt und sie hatte überhaupt keine Daseinsberechtigung - ausser bei mir, lebt damit!
Erneut: ich (und zichtausend andere) hatte niemals auch nur im Geringsten Probleme. Auch stelle ich meine Hardware und Spiele nicht so zusammen, dass ich "gerade so" die 60Hz erreiche.
Ich habe stets ein flüssiges Spielerlebnis. Auch habe ich kein Problem damit, mal nen mehr oder weniger unwichtigen Schieberegler im Grafikmenü nach links zu drehen. Wenn man keiner von der Sorte ist, der im Standbild mit der Lupe nach Pixel-Unterschieden sucht, dann tut es in vielen Spielen mit Bewegung sogar oftmals die mittlere Detailstufe vollkommen zufriedenstellend.
Seht euch doch die unzähligen Tests an, die immer wieder auf CB gemacht werden. Da stehen dann 5 Screenshots der unzähligen Grafik-Presets gegenüber und in beinahe allen Spielen sehen die drei höchsten Settings praktisch identisch aus. Kein Mensch würde das im Blindtest sehen, schon gar nicht im normalen Spielfluss.
Aber ja: die GTX 970 war der Teufel, selbst auf 320x240 hat Pacman geruckelt und sie hatte überhaupt keine Daseinsberechtigung - ausser bei mir, lebt damit!
mannefix
Commander
- Registriert
- März 2008
- Beiträge
- 2.971
Äh, das Spiel ist noch nicht mal draußen und du unterstellst schon unsaubere Programmierung? Finde ich unfair.Trinoo schrieb:warum auch Zeit und Geld für Optimierungen ausgeben?... unsauber den Kunden vor die Füße schmeißen und dann mit Patches versuchen den Karren ausm Dreck zu ziehen.
ok @DJMadMax
bin raus aus der Diskussion, weil du es offenbar nicht verstehen willst, das auch wenn dein Setup gut ist, deine Einstellungen ingame durch den Treiber dann ignoriert werden wenn der VRAM mit >3GB belegt werden soll und der Treiber das Game so eingestellt, das es definitiv nicht mehr wie 3,5 GB VRAM benötigt.
Oder weniger Details berechnet werden als eingestellt bzw. es werden Sachen ausgelassen, die sonst normalerweise auch mit berechnet werden. Das sich das auch positiv auf die fps auswirkt, ist dann ein entsprechende Nebeneffekt.
genau darauf spekulierte da ja dann Nvidia! Dennoch ist das Betrug am Kunden, weil mehr Leistung vorgegaukelt wird als zur Verfügung steht
Das das Nvidia kann, haben die ja schon bei der Benchmarkschummelei mit 3DMark2003 gezeigt, als Offscreendetails, die eigentlich mit in den Benchmark einfliesen sollten, nicht oder auf schnelle Art und weise falsch berechnet wurden, so das am Ende mehr fps möglich waren.
bin raus aus der Diskussion, weil du es offenbar nicht verstehen willst, das auch wenn dein Setup gut ist, deine Einstellungen ingame durch den Treiber dann ignoriert werden wenn der VRAM mit >3GB belegt werden soll und der Treiber das Game so eingestellt, das es definitiv nicht mehr wie 3,5 GB VRAM benötigt.
Oder weniger Details berechnet werden als eingestellt bzw. es werden Sachen ausgelassen, die sonst normalerweise auch mit berechnet werden. Das sich das auch positiv auf die fps auswirkt, ist dann ein entsprechende Nebeneffekt.
Kein Mensch würde das im Blindtest sehen, schon gar nicht im normalen Spielfluss.
genau darauf spekulierte da ja dann Nvidia! Dennoch ist das Betrug am Kunden, weil mehr Leistung vorgegaukelt wird als zur Verfügung steht
Das das Nvidia kann, haben die ja schon bei der Benchmarkschummelei mit 3DMark2003 gezeigt, als Offscreendetails, die eigentlich mit in den Benchmark einfliesen sollten, nicht oder auf schnelle Art und weise falsch berechnet wurden, so das am Ende mehr fps möglich waren.
mannefix
Commander
- Registriert
- März 2008
- Beiträge
- 2.971
Liegt vielleicht an deinem Monitor.DJMadMax schrieb:@Sebbi
Unnötig langes Zitat durch Moderator entfernt
Ergänzung ()
Ja klar, sie machen ein Vorzeigespiel und programmieren es absichtlich schlecht. Darum sieht es auch so schlecht aus.leipziger1979 schrieb:Tja, diese beiden Sätze erklären auch warum.
Man könnte es natürlich auch anders programmieren, aber.
Da es eine AMD Show war ist dem Entwickler sicherlich das ein oder andere Köfferchen mit Geld in den Schoss gefallen.
Und schon haben die Programmierer herausgefunden das man für simples UHD tatsächlich mind. 12GB VRAM braucht, mit weniger geht es in unserem Universum mit seinen Naturgesetzen nicht.
Zuletzt bearbeitet von einem Moderator:
(Unnötig langes Zitat durch Moderator entfernt)
Gamefaq
Admiral
- Registriert
- Jan. 2005
- Beiträge
- 7.181
Fred_VIE schrieb:...und selbst mit Verlust für das menschliche Auge kaum bemerkbar. Sich auf Kleinigkeiten zu versteifen hilft nicht wirklich.
Tu ich das? Im ersten Satz steht das macht JEDER Entwickler, auch der dieses Spiels. Aber je mehr die Details werden desto mehr Platz benötigt das ganze. Da zu Argumentieren dann sollen sie das verkleinern denn andere bekommen das ja auch hin ist Schwachsinn weil es ein Rückschritt ist. Hast du dir das Video angeschaut wie Detailreich es ist? Du bezahlst 100te Euro mittlerweile sogar über 1000€ für eine Grafikkarte also willst auch was sehen dafür. Die Optik kann sich nicht verbessern wenn man nicht bessere Texturen einsetzt/nutzt nur um die VRAM Speicherauslastung gering zu halten.
nvidia muss sich hier sagen lassen sie haben zu wenig Speicher verbaut. Denn der Maßstab sind die kommenden Konsolen. Diese habe beide 16GB Ram den sie Dynamisch (wie bei Laptops) für das eigene Betriebssystem und/oder die Grafikkarte einsetzen können. Eine hochoptimierte Konsole benötigt anders als ein PC mit Windows 10 nicht mindestens 4GB Ram damit ohne Ruckler das Betriebssystem läuft. So optimiert müssten ihr schon 1GB reichen denn sie muss ja nicht unbegrenzt andere Programme im Hintergrund laufen lassen. "Godfall" kommt für die neuen Konsolen/PC und nutzt nun 12GB weil die Konsolen es bieten. Warum sollte der Entwickler nun die Konsolenumsetzung BESCHNEIDEN?! Sonnst meckern ALLE über die miesen Konsolenports die für das mehr das der PC kann nicht optimiert werden. Nun wollt ihr genau das Gegenteil? Bedenkt das ist das ERSTE Spiel das das tut, weitere werden unweigerlich folgen denn sie sind ja noch nicht mal am Markt...
Zuletzt bearbeitet:
@Sebbi
Ich heiße keine Schummeleien gut, ich sage nur, dass die GTX 970 bei mir und vielen anderen hervorragende Arbeit geleistet hat. nVidia darf sich am Treiber meinetwegen zu Tode programmieren, solange ich dabei ein ordentliches Spielerlebnis habe.
Da ich, wie bereits gesagt, nicht mit der Lupe einzelne Pixel vergleiche, ist mein Spielerlebnis in aller Regel fantastisch.
@mannefix
Ich spiele nicht mit Monitor.
Ich heiße keine Schummeleien gut, ich sage nur, dass die GTX 970 bei mir und vielen anderen hervorragende Arbeit geleistet hat. nVidia darf sich am Treiber meinetwegen zu Tode programmieren, solange ich dabei ein ordentliches Spielerlebnis habe.
Da ich, wie bereits gesagt, nicht mit der Lupe einzelne Pixel vergleiche, ist mein Spielerlebnis in aller Regel fantastisch.
@mannefix
Ich spiele nicht mit Monitor.
Naja gut, am Ende tröstet die Grafik auch nicht darüber hinweg, dass man von Godfall nichts Interessantes zu sehen bekommt.
Alles was man so vom Gameplay sieht ist, dass es scheinbar Noob gesichert wurde.
Bei jedem Angriff scheint es unmöglich zu sein das Ziel zu verfehlen, das macht dann sicher 1-2 Stunden Spaß wegen dem Eyecandy der so maßlos übertrieben wurde, dass man Highlights im Spiel nicht mal mehr erkennen kann.
Zumal Online Co-Op nicht mehr der aktuelle Stand für ein Lootgame ist, da geht nämlich so der Präsentationsfaktor flöten, von dem was man mit dem Char so erreicht hat.
Wenns auch kein Game as a Service wird sehe ich da ziemlich schwarz für die Langzeitmotivation, vor 15-20 Jahren wär das sicher attraktiv gewesen, nur aus der Zeitzone gekommen sehe ich in Godfall auch nichts was wenigstens gleichwertig zu damaligen Spielen wäre, nur die Grafik ist da, das wars.
Alles was man so vom Gameplay sieht ist, dass es scheinbar Noob gesichert wurde.
Bei jedem Angriff scheint es unmöglich zu sein das Ziel zu verfehlen, das macht dann sicher 1-2 Stunden Spaß wegen dem Eyecandy der so maßlos übertrieben wurde, dass man Highlights im Spiel nicht mal mehr erkennen kann.
Zumal Online Co-Op nicht mehr der aktuelle Stand für ein Lootgame ist, da geht nämlich so der Präsentationsfaktor flöten, von dem was man mit dem Char so erreicht hat.
Wenns auch kein Game as a Service wird sehe ich da ziemlich schwarz für die Langzeitmotivation, vor 15-20 Jahren wär das sicher attraktiv gewesen, nur aus der Zeitzone gekommen sehe ich in Godfall auch nichts was wenigstens gleichwertig zu damaligen Spielen wäre, nur die Grafik ist da, das wars.
Ähnliche Themen
- Antworten
- 17
- Aufrufe
- 1.945