• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Systemanforderungen: Watch Dogs Legion braucht viel Leistung für 4K und RT

S.Kara schrieb:
Der VRAM wird sich auf die angegebenen Grafikkarten beziehen. Die 960 hat z.B. eine 2 GB und eine 4 GB Variante.

Mit DLSS und RT wird das Spiel selbst in 4k kaum mehr als 7 GB VRAM benötigen, Control liegt da z.B. bei 6 GB. Das werden Tests natürlich bestätigen müssen.
Schlauch und OpenWorld kannst du kaum vergleichen. Aber wenn es bei Control schon 6GB sind dann brauch Watch Dogs 3 min. 10 GB.
 
  • Gefällt mir
Reaktionen: JohnnyTexas
snickii schrieb:
das war echt megafett - ein überraschungshit in meinen augen.

ich bin auf jeden fall auf DLSS gespannt und werde die Auflösung auf 1280×720 stellen und dann soll DLSS mal auf 2560x1440 hochskalieren bei "besserer quali" :D
 
  • Gefällt mir
Reaktionen: snickii und qappVI
Habe die 6 Lets play Folgen bei gronkh gesehen.

Nein Danke, genau dieses Spiel will ich nicht.
 
thommy86 schrieb:
45 GB sind aber ganz schön wenig in der heutigen Zeit.

Huch tatsächlich, ist wirklich sehr wenig. Hatte ich im ersten Moment gar nicht auf dem Schirm.
 
thommy86 schrieb:
45 GB sind aber ganz schön wenig in der heutigen Zeit. Entweder ist die Grafik nicht so gut oder die Spielwelt sehr klein
...oder sie können tatsächlich programmieren.
Nicht jedes Spiel muss automatisch 200GB fressen (hallo CoD!) wenn man es richtig angeht.
 
Den zweiten Teil habe ich vor lauter Fremdschämen ob der Story und der Charakter direkt nach 30 Minuten gelöscht. Die Dialoge und die Handlung war für mich psychisch nicht tragbar, da einfach nur oberpeinlich.

Dazu kamen noch heftige Technikaussetzer und die bekannte katastrophale Ubisoft Optimierung, bei der keine stabile 60FPS schaffbar sind.

Man kann nur hoffen, dass in beiden Kritikpunkten heftig verbessert wurde, die Hoffnungen sind aber im Falle Ubisoft nicht sonderlich groß.
 
  • Gefällt mir
Reaktionen: Porty47, MouseClick68, Kettensäge CH und 2 andere
seit wann steigt mit höherer Auflösung die CPU Anforderung oder hab ich was verpasst? gehört der 9700k jetzt auch bald zum alten Eisen wenn der schon zur empfohlenen mind. HW gehört. Oder knüppelt da wieder Ubis behinderter Kopierschutz einfach alles tot.
bin aber mal gespannt wie das läuft mit der 3080, ist da ja glücklicherweise gratis beigabe, gekauft hätt ich den Schmarrn nicht. Bin ich mit 28 zu alt für den bunten Neon Hipster Sche**!
 
  • Gefällt mir
Reaktionen: Porty47 und Michaa46
Der nächste Titel, der spätestens bei Raytracing mehr Speicher verlangt, als eine 3080 oder gar eine 3070 liefern können.
Also seit gewarnt!
Frühkäufer von grüner Ware kaufen später doppelt, also früher was Neues.
Ich bin mir zeimlich sicher, dass die 2080 Ti mit mehr Speicher bei vielen Spielen imemr noch vor einer 3070 und 3080 liegen wird, alleine durch die glatteren Frametimes.
Und das ist wichtiger, als der längste Benchmarkbalken.
Deshalb war Crossfire/SLI niemals zu bevorzugen, da das Spielgefühl in Wahrheit imemr schlechter war als mit nur einer leistungsstarken Grafikkarte.
Da fühlten sich 90 Frames auch schnell an wie 45 Frames.
Bleibt also nur Big Navi, oder aber die Super oder Ti Ausführung, die als Antwort nötig sein wird.
Ihr wollt wissen, warum nVidia so kniepig ist? Tja, weil Lederjacke es behauptet hat, dass selbst 6GB noch absolut alltagstauglich und ausreichend groß sind - was aber schon seit einem JAhr nich tmehr stimmt, denn es wurde bereits mit Wolfenstein und Co. widerlegt.
In Wahrheit geht es nur darum, dass die vermutlich auch Probleme bei der BEschaffung so großer Stückzahlen haben, und letzendlich um die Gewinnmaximierung bei möglichst wenig Aufwand und Materialeinsatz.
Deshalb ist der Treiber ja ach schon gefühlt seit Windows Xp aus dem Jahre 2002 im Einsatz.
Bei allen anderen Firmen udn Einsatzgebieten würde man rummosern ohne Ende, aber gerade hier, wo es absolut wünschenswert wäre, jammert kein einziger grüner Anhänger herum, warum nicht?
 
Zuletzt bearbeitet:
Hm die 290X bei 1080p Low ist eigentlich nicht wirklich langsamer als eine RX480 oder GTX1060 bei 1080p High. Und eine Radeon VII ist jetzt auch nicht erheblich schneller als eine RX5700.

Am Ende eh eher Richtwerte. Mit meiner Vega 64 wird es on UWQHD sicher brauchbar laufen, aufm UHD-TV vermutlich eher weniger, müsste ich mal ausprobieren. Aber ich kaufe mir das Spiel wahrscheinlich eh erst etwas später und bis dahin habe ich vielleicht auch wieder neue Hardware.

Mit ner RTX3000 müsste man ja die Anforderungen für UHD erfüllen wenn eine 3070 wirklich so schnell ist wie ne 2080ti.
 
Bei der Nachricht kann ich mich wieder schlafen legen. Den mein alter PC schafft es nach den Angaben noch locker in FullHD.
 
Seit wann braucht man für RTX On eine deutlich stärkere CPU? IN 1080p ohne RTX wird ein R5 1600 empfohlen , mit RTX on R5 3600?
 
Zuletzt bearbeitet:
Weil Speicher billig ist, wird offensichtlich viel verschwendet. 45 bzw. 65 GB in der Installation sind völlig überzogen. Hochauflösende Texturen können auch komprimiert werden.
 
JahJah192 schrieb:
seit wann steigt mit höherer Auflösung die CPU Anforderung oder hab ich was verpasst? gehört der 9700k jetzt auch bald zum alten Eisen wenn der schon zur empfohlenen mind. HW gehört. Oder knüppelt da wieder Ubis behinderter Kopierschutz einfach alles tot.
bin aber mal gespannt wie das läuft mit der 3080, ist da ja glücklicherweise gratis beigabe, gekauft hätt ich den Schmarrn nicht. Bin ich mit 28 zu alt für den bunten Neon Hipster Sche**!

Ja, das sind Herstellerangaben.
In Test kommt dann oft heraus, dass zum wirklich flüssigen Spielvergnügen sogar noch höherer Grundwerte vorhanden sein sollten.
Da steht ja nicht, ob du nun 30, 60 oder gar 90 Frames erhälst.
Bei der CPU ist es aber eigentlich so, dass man nur für mehr Frames auch mehr CPU Leistung benötigt, denn die Rechenlast sollte bei 720p bzw. 4K nur Auswirkungen auf die GPU haben.
Unterschiede gibt es also nur, wenn man in den Grafikoptionen die Details ändert.
Das erklärt also die CPU-Unterschiede z.B. von High zu Ultra (weil sich die Details erhöhen), und von Minimum zu Empfohlen (vermutlich wegen den höher veranschlagten Frames für ein noch flüssigeres Gameplay).
 
  • Gefällt mir
Reaktionen: JahJah192
downforze schrieb:
Weil Speicher billig ist, wird offensichtlich viel verschwendet. 45 bzw. 65 GB in der Installation sind völlig überzogen. Hochauflösende Texturen können auch komprimiert werden.
Dekompression kostet Zeit und Ressourcen, die man sich sparen kann, wenn man es einfach nicht macht. Seid doch einfach froh, dass man jetzt mal die Hardware für solche Sachen hat.
Ich find die Diskussion zum Total War schon so unsinnig, wo kritisiert wurde, dass ein Grafik-Feature ja ungefähr 16 Kerne nutzt. Noch vor wenigen Jahren wäre sowas völlig undenkbar, weil es schlicht die Hardware dazu nicht gab. Jetzt gibt es sie, Entwickler nutzen sie und trotzdem wird gemeckert.
Abgesehen davon sind 40GB ein Witz, ganz ehrlich.
 
burglar225 schrieb:
Dekompression kostet Zeit und Ressourcen, die man sich sparen kann, wenn man es einfach nicht macht. Seid doch einfach froh, dass man jetzt mal die Hardware für solche Sachen hat. Ich find die Diskussion zum Total War schon so unsinnig, wo kritisiert wurde, dass ein Grafik-Feature ja ungefähr 16 Kerne nutzt. Noch vor wenigen Jahren wäre sowas völlig undenkbar, weil es schlicht die Hardware dazu nicht gab. Jetzt gibt es sie, Entwickler nutzen sie und trotzdem wird gemeckert. Abgesehen davon sind 40GB ein Witz, ganz ehrlich.
Für 65 GB hängt man selbst mit DSL 50k ewig am Download. Ich kann da absolut nichts positives daran erkennen, so verschwenderisch mit Speicher umzugehen. So billig sind SSDs auch nicht, dass ich da pro Spiel 60 GB draufpacken könnte. Ich dachte GTA V hat 2015 den Vogel abgeschossen mit seinen 55 GB Download für die Grundinstallation. Anscheinend wird es zur Regel.
 
@downforze Keine Ahnung, was an 40 oder 65GB verschwenderisch sein soll. Festplatten sind dafür da, dass man sie befüllt. Abgesehen davon bekommt man mittlerweile 1TB für deutlich unter 100€. Wenn du kleinere Spiele willst, musst du alte Spiele spielen, da sind die Texturen kleiner. Sieht dafür halt nicht so gut aus. Wer mehr Grafik will, muss auch mehr Hardware haben. So ist das, war es immer und wird es immer bleiben.
Und wenn du kein schnelleres Internet hast, ist das blöd und nervig, das kann ich nachvollziehen. Hat aber doch damit jetzt auch gar nichts zu tun?
 
  • Gefällt mir
Reaktionen: MouseClick68
Mir gefällt das Hackerszenario einfach nicht.
Irgendwie springt bei mir bei dem Spiel nicht so richtig der Funke rüber.
 
  • Gefällt mir
Reaktionen: icetom und Alpha.Male
cruse schrieb:
Fand Teil 1 ganz nice, Teil 2 hat mir nicht wirklich zugesagt und Teil 3 wird bei der 3080 dabei sein, also ich werde es mir mal ansehen. Schon allein wegen RTX und DLSS.
Same here...mit dem ersten Teil hatte ich schon etliche Stunden ordentlich Fun ;) . Der 2. Teil flog nach 5h von meiner Platte. (Hackerkiddiegedöns):rolleyes:
 
  • Gefällt mir
Reaktionen: cruse und fox40phil
Schokolade schrieb:
Hm im Artikel wird es weg gelassen, auch in eurer Tabelle steht es nicht, aber in dem offiziellen Chart von Ubisoft steht bei 4K+Ultra "11GB VRAM"

Die 3070 mit ihren 8GB bzw. die 3080 mit ihren 10GB scheinen ja nicht gut gealtert zu sein 🤪

Quelle
Ganz im Gegenteil :D
Die 8/10GB reichen gut aus, um Shooter in WQHD/4k mit sehr hohen Fps anzeigen zu lassen. Für Rollenspiele wird es ja allen Gerüchten zu Folge im nächsten Jahr die S/Ti Varianten mit 16 bzw. 20 GB VRAM geben - so kann man je nach gespieltem Genre entscheiden was benötigt wird :love:
 
Moin zusammen,
gestern habe ich bei einer Google Text Vorschau zu einem Artikel von Notebookcheck (Gerüchte zur Leistung der 30xx Karten) gelesenen, dass das neue WatchDogs bei den neuen GPUs dabei ist!
Im Artikel selbst konnte ich es nicht mehr finden.

(vllt ist die Info auch schon bekannt..?)
 
Zurück
Oben