-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Test CoD: Infinite Warfare: Benchmarks mit vielen FPS und hohem Speicherbedarf
- Ersteller Wolfgang
- Erstellt am
- Zum Test: CoD: Infinite Warfare: Benchmarks mit vielen FPS und hohem Speicherbedarf
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.271
Tja und schon geht hier mal wieder die Post ab ist ja wie bei COD. ;-) Nee echt jetzt mal zurück zum Thema also ich Glaube ja dass COD keine Textur-Kompression Besitz da die Engine so alt ist. Dass würde aber dann auch den Leistungszuwachs bei AMD erklären da die einfach mehr Rohleistung haben als NV karten, diese dann zuzuge kommt.
Zumindest wäre es eine Erklärung für den VRAM verbrauch.
Zumindest wäre es eine Erklärung für den VRAM verbrauch.
T
Tandeki
Gast
Naja, nicht nur deshalb. Die ersten Berichte lasen sich aber so, als ob man mit weniger als 6GB VRAM bereits in naher Zukunft kaum mehr Spiele vernünftig spielen kann. Und da ich lieber Geld ausgebe, als mich mit schlechter Grafik oder Ruckeln herum zu ärgern, kam mir der Gedanke, jetzt aufzurüsten. Zum Glück hat die Vernunft gesiegt. Denn wie gesagt fehlte mir beim Spielen der Singleplayer-Kampagne absolut nichts.
T
Tandeki
Gast
Du kannst Dir ja mal selbst ein Bild machen: https://www.youtube.com/watch?v=QhYNr0SQ2co
Wenn Du wirklich nennenswerte Unterschiede erspähen kannst, dann denke daran: im Spiel hat man meist nicht die Gelegenheit, die Reflexionen der Umgebung zwischen den verschiedenen Stufen zu vergleichen. Ich fand die Grafik insgesamt etwas durchwachsen. Manchmal sah eine Szene irgendwie comicartig aus, andere Szenen gingen schon wieder in Richtung Battlefield-Charakter. Aber die Grafik war in ihrem Anspruch nicht durchweg konsistent. Unabhängig von den Grafikeinstellungen.
Wenn Du wirklich nennenswerte Unterschiede erspähen kannst, dann denke daran: im Spiel hat man meist nicht die Gelegenheit, die Reflexionen der Umgebung zwischen den verschiedenen Stufen zu vergleichen. Ich fand die Grafik insgesamt etwas durchwachsen. Manchmal sah eine Szene irgendwie comicartig aus, andere Szenen gingen schon wieder in Richtung Battlefield-Charakter. Aber die Grafik war in ihrem Anspruch nicht durchweg konsistent. Unabhängig von den Grafikeinstellungen.
Das "Optimal Video" passt die Settings automatisch dem verfügbaren VRAM an.
Quelle: Entwickler vom Spiel im NeoGAF:
In dem Thread sind auch noch andereinteressante Postings von dem User.
Vllt. wäre es sinnvoll den Test um diese Info zu erweitern.
Besser als der Rat Texturen bei 4GB VRAM auf Low zu stellen ist das alle mal.
Ich habe per auto configure keinerlei Probleme mehr mit low-res Texturen oder Rucklern auf einer Fury Nitro @ 3440x1440.
Ich sehe auch keinen Unterschied wenn ich alles auf das maximum stelle
Quelle: Entwickler vom Spiel im NeoGAF:
http://www.neogaf.com/forum/showpost.php?p=223168307&postcount=155BriareosGAF schrieb:The auto-configuration will give you:
512x512 shadow map resolution at 4G, shadow caching off
1024x1024 shadow map resolution at 6G, spot and sun shadow caching on
1536x1536 shadow map resolution at 8G, spot and sun shadow caching on
You can of course tweak these post facto.
Shadow caching trades draw call throughput for video memory--with it enabled you have fewer draw calls due to reusing cached shadow maps (rather than reissuing draws to re-render them), which reduces throughput on the driver thread, which is actually the long pole on the CPU almost 100% of the time, and often the long pole in total unless running at very high resolutions/GPU workloads.
Someone else asked about reducing video memory usage to increase texture resolution. One possibility is dropping from SMAA 2X--the temporal history buffers can be non-trivial (luminance, depth, velocity) if you have an aggressive final scene resolution.
In dem Thread sind auch noch andereinteressante Postings von dem User.
Vllt. wäre es sinnvoll den Test um diese Info zu erweitern.
Besser als der Rat Texturen bei 4GB VRAM auf Low zu stellen ist das alle mal.
Ich habe per auto configure keinerlei Probleme mehr mit low-res Texturen oder Rucklern auf einer Fury Nitro @ 3440x1440.
Ich sehe auch keinen Unterschied wenn ich alles auf das maximum stelle
Zuletzt bearbeitet:
T
tek9
Gast
Leeroy schrieb:Es ist leider so, dass AMD zur Zeit eine schlechtere Technik zu bieten hat. Man versucht das mit mehr RAM und der Hoffnung auf DX12 zu kompensieren. Der Stromverbrauch bei AMD ist massiv höher bei unterlegener Performance. DX12 scheint mittlerweile eine Technik zu sein, die vor allem von AMD forciert wird, da sie technisch nicht mehr mithalten können. DX12 ist soweit eine Enttäuschung in vielen Spielen. AMD hat den 1070er und 1080er nichts entgegenzusetzen. NVIDIA ist dabei AMD wegzufegen, wie es damals Intel bei den Prozessoren tat.
Die RX480 schluckt so viel Saft wie ein GTX970, also in etwa 150-160 Watt. Noch vor wenigen Monaten haben die nVidia Freunde behauptet das 150 Watt absolut super sind. Nun ist das zu viel. Sehr fragwürdig was hier erzählt wird.
AMD hat bewusst das High-End Segment links liegen gelassen weil dort zwar gute Margen aber geringe Stückzahlen generiert werden. Zu Zeiten der 4xxx Karten hat AMD mit der gleichen Strategie 50 Prozent Marktanteil erreicht.
Das die Performance von AMD bei Karten aus dem gleichen Preissegment unterlegen ist, müsstest du mit Benchmarks belegen. Der Benchmark zu COD besagt genau das Gegenteil.
AMD hat immer mehr VRAM im Angebot und die Karten von AMD sind nicht so schnell obsolet wie ihre grünen Counterparts. Siehe GTX 770 und 780 oder GTX970.
Der beste Witz von dir ist diese Behauptung das die Nutzung von Low Level API irgendetwas mit einer anglichen Leistungsschwäche von AMD zu tun hat.
Echt schräges Zeug das du hier zusammen getippt hast

Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 9.086
Tandeki schrieb:Die ersten Berichte lasen sich aber so, als ob man mit weniger als 6GB VRAM bereits in naher Zukunft kaum mehr Spiele vernünftig spielen kann. Und da ich lieber Geld ausgebe, als mich mit schlechter Grafik oder Ruckeln herum zu ärgern, kam mir der Gedanke, jetzt aufzurüsten. Zum Glück hat die Vernunft gesiegt. Denn wie gesagt fehlte mir beim Spielen der Singleplayer-Kampagne absolut nichts.
Spielen kann ich das mit meiner 2 GB Karte vermutlich sogar noch einigermaßen vernünftig, immer eine Frage der Ansprüche und eine neue Grafikkarte würde ich mir dann anschaffen, wenn diese aus dem letzten Loch pfeift (man also wirklich in den meisten aktuellen/neu angeschafften Titeln Einbußen beim Spielspaß hat) und man nicht nur in wenigen Spielen (CoD Black Ops III, Infinite Warfare, Doom, Mirror's Edge Catalyst, Rise of the Tomb Raider und Deus Ex - Mankind Divided) die maximalen Texturdetails bzw. höchste Auflösungsparameter unter Full HD nicht mehr packt.
Denn, wie viele Spiele hast Du davon oder gedenkst Du Dir anzuschaffen und in welcher Relation steht das zur Anschaffung einer neuen Karte? Wer Regler betätigen kann/will und die Ansprüche auch herunter schrauben kann ist da finanziell im Vorteil und man muss nicht gleich auf jede neue Kuh aufspringen, die durch das Dorf getrieben wird, auch wenn es (hier und anderweitig in den Medien) als so verlockend dargestellt wird

Wenn man nur eSports- oder MOBA-Spiele vorrangig spielt, ist eine aktuelle Mittelklassekarte (GTX 1060 oder RX 480) eigentlich auch überkandidelt. Der ideale Kompromiss unter Full-HD ist für Neukäufer nach wie vor eine RX 470 (in der 8GB (übertakteten Sapphire) Ausführung für Leute die auf Langlebigkeit Wert legen).
Zuletzt bearbeitet:
B
Blueline56
Gast
BookerDeWitt schrieb:Nicht das Spiel(auf Seiten der Mechanik), sondern die Optik und damit die Atmosphäre.
Demnach dürfte keine Atmosphäre in früheren Spielen entstanden sein, für die Atmosphäre spielt die Grafik eine Rolle, aber noch viel mehr die Story und wie sie in Szene gesetzt wird, also Spielmechanik und Abwechslung.
Ergänzung ()
tek9 schrieb:AMD hat bewusst das High-End Segment links liegen gelassen weil dort zwar gute Margen aber geringe Stückzahlen generiert werden.
Sitzt du im AMD Vorstand oder woher nimmst du dein Wissen, ich habe diesbezüglich von AMD noch nichts lesen können.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.329
VRAM Verbrauch ist auch relativ. Mir fällt auf, dass gerade in letzter Zeit und selbst mit 4K Monitor die Unterschiede von High auf Ultra Presets oder auch gerade bei Texturen nur marginal sind. BF zeigt auch gut dass es oft mehr auf die Qualität der Textur selbst ankommt, nicht nur deren Größe und Auflösung.
Ich denke mit meinen zugegeben vielleicht bald zu kleinen 6 GB wird man noch lange recht gut fahren können wenn man die Texturen manchmal etwas zurück nimmt, selbiges werden auch die Fury Besitzer tun müssen. Solange es kaum auf die Optik geht is mir das gleich.
Damals bei der 320MB GTS 8800 war das noch was anderes, da war Spielen schnell unmöglich und auch der sichtbare Unterschied bei den Texturen deutlich größer. Ob nun 6 oder 12GB VRAM sinnvoll genutzt werden wird man wohl wenn überhaupt am 4K Display ausmachen können.
Die 4/6GB High End Karten sind ja auch bald wieder abzulösen wenn Fury Nachfolger oder eine weitere GP102 Karte uns Haus steht.
@High End außen vorgelassen.
AMD hat keine Option und wohl keinen Chip auf Basis GDDR der aktuell im High End mitspielen kann. Das liegt eher an Wirtschaftlichkeit und HBM 2, weniger daran dass man bewusst Nvidia den >500€ Markt überlassen hat.
Ich denke mit meinen zugegeben vielleicht bald zu kleinen 6 GB wird man noch lange recht gut fahren können wenn man die Texturen manchmal etwas zurück nimmt, selbiges werden auch die Fury Besitzer tun müssen. Solange es kaum auf die Optik geht is mir das gleich.
Damals bei der 320MB GTS 8800 war das noch was anderes, da war Spielen schnell unmöglich und auch der sichtbare Unterschied bei den Texturen deutlich größer. Ob nun 6 oder 12GB VRAM sinnvoll genutzt werden wird man wohl wenn überhaupt am 4K Display ausmachen können.
Die 4/6GB High End Karten sind ja auch bald wieder abzulösen wenn Fury Nachfolger oder eine weitere GP102 Karte uns Haus steht.

@High End außen vorgelassen.
AMD hat keine Option und wohl keinen Chip auf Basis GDDR der aktuell im High End mitspielen kann. Das liegt eher an Wirtschaftlichkeit und HBM 2, weniger daran dass man bewusst Nvidia den >500€ Markt überlassen hat.
Zuletzt bearbeitet:
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Genau so sehe ich das auch. Eine 1080TI 12GB nächstes Jahr hat 50% Vram Soll und ist somit exakt das selbe wie eine 980TI zum Start und wird ca. 2 Jahre durchhalten. Tendenz eher weniger, wie man an der der 980TI ja heute sieht.maximal 2 Jahre auf höchsten Einstellungen reichen dürfte, wenn der aktuelle Trend bei Spielen zu mehr VRAM so weiter geht.
Bei der Rohleistung und 2017 will ich 24GB Vram sehen. 75% Vram Soll wären mir zu wenig. https://www.computerbase.de/forum/attachments/12052015492-jpg.495986/MD Vega 10 Karten (im Vollausbau) die 16 GB HBM2
https://www.computerbase.de/forum/threads/sammelthread-grafikkarten-mit-mehr-als-1gb-vram.562654/
Das gleiche bei der Titan X 2016, mit 12GB würde ich mir sie nicht kaufen. Da will ich 16GB sehen, wenn das technisch nicht möglich ist eben 24GB. Bei min. 1300€ eher 1500€ mit guten Kühler ist das das mindeste für mich.
Einer 1060 würden 12GB Vram auch gut stehen, wäre dann schön langlebig das Produkt, aber 3 mal dürft ihr raten wer das nicht möchte.
tek9 schrieb:Die RX480 schluckt so viel Saft wie ein GTX970, also in etwa 150-160 Watt. Noch vor wenigen Monaten haben die nVidia Freunde behauptet das 150 Watt absolut super sind. Nun ist das zu viel. Sehr fragwürdig was hier erzählt wird.
AMD hat bewusst das High-End Segment links liegen gelassen weil dort zwar gute Margen aber geringe Stückzahlen generiert werden. Zu Zeiten der 4xxx Karten hat AMD mit der gleichen Strategie 50 Prozent Marktanteil erreicht.
Das die Performance von AMD bei Karten aus dem gleichen Preissegment unterlegen ist, müsstest du mit Benchmarks belegen. Der Benchmark zu COD besagt genau das Gegenteil.
AMD hat immer mehr VRAM im Angebot und die Karten von AMD sind nicht so schnell obsolet wie ihre grünen Counterparts. Siehe GTX 770 und 780 oder GTX970.
Der beste Witz von dir ist diese Behauptung das die Nutzung von Low Level API irgendetwas mit einer anglichen Leistungsschwäche von AMD zu tun hat.
Echt schräges Zeug das du hier zusammen getippt hast![]()
Ja, die aktuellen 480er schlucken massiv mehr an Strom im Vergleich zu den 1060er. Da hat NVIDIA einfach besser gearbeitet. Das ist nicht fragwürdig sondern eindeutig. Die 1060er schneiden bei der Performance generell 10% besser ab. Das kannst du auf Tomshardware und Anandtech nachlesen. Und ich finde es sehr amüsant, dass du ernsthaft behauptest, dass AMD der Konkurrenz das Feld überlässt, um Marktanteile zu bekommen. Das Gegenteil ist der Fall. AMD verliert hier massiv an Anteilen. Sie können der 1070 und 1080 nichts entgegenstellen, weil ihre Technik nicht so weit ist. Das sieht man auch am Murks, den AMD anfangs mit dem 6Pin Stromanschluss hatte. Weil AMD nun mal nicht mit der Hardware mithalten kann, versuchen sie jetzt mit der Software und dem RAM zu kompensieren. Hey, ich hoffe AMD schafft es aufzuholen, aber zur Zeit baut NVIDIA die besseren Karten und können auch mehr Geld dafür verlangen.
Zuletzt bearbeitet:
Darkseth88
Fleet Admiral
- Registriert
- Nov. 2010
- Beiträge
- 16.943
TOXIE schrieb:sieht man denn zwischen ultra und hoch n unterschied??
Sehr gute Frage.
Bei Deus Ex: MD war es ja auch so. Bei der 1060 vs. rx 480 konnte man "erzwingen", dass die 1060 ein paar einzelne Framedrops mehr hat über nen Zeitraum von ner viertel stunde, auf der Ultra Textur stufe.
In der Praxis gab es auf 1080p KEINEN sichtbaren unterschied zwischen Ultra und Sehr Hoch (zweithöchste). Für die Praxis also völlig irrelevant.
Höhere settings krampfhaft nutzen zu müssen, obwohl sie optisch gar nix bringen, aber hardwarehungriger sind.. Sinn?
Ich mein, ich kann auch DSR nutzen. Jeden AAA titel auf 2160p Downsampeln, und dann bemängeln dass ich keine glatten 60 fps halten kann.
Aber hier, sieht man die unterschiede hier zur zweithöchsten stufe?
Was ist mit der Auflösung. Wenn unter 1080p 8gb gerade so reichen, dann dürfte das unter 1440p oder 2160p nicht mehr reichen.
Weder die RX 480 noch die GTX 1060 ist ne Karte für "Anschlag-settings". Nur weil sie das in einigen games schaffen, heißt das noch lange nix. Das ist Mittelklasse. Wer krampfhaft jedes Setting auf anschlag haben muss, soll sich ne titan X kaufen^^"
Was CoD angeht: War das nicht bei BO3 schon so, dass das Game einfach Video sequenzen in den Vram vollgestopft hat und deswegen unter 1080p schon 7gb+ "verbraucht" hat?
Das ist nämlich meiner Meinung nach schon weit über "Rotzig schlecht optimiert" vorbei.
Weil 4k Texturen nutzt CoD definitiv nicht, sonst würden die texturen im Game nicht so wie erbrochenes aussehen ^^
Ich würde solche technischen fehlprogrammierungen aber nicht als vorzeige-referenz nehmen "dass unter 8gb alles unspielbar sei". das dürfte eher die Ausnahme sein, als die Regel.
Laut CB sind ja angeblich 6gb auch nicht genug für Rise of the Tomb Raider auf höchster Textur stufe. Dennoch nutz ich das mit meiner 1060 problemlos mit glatten 60 fps.
Und nur mal so, sowohl in Rottr, als auch i Witcher 3 schaff ich keine "Anschlag-settings". Und die 6gb Speicher sind definitiv NICHT der Grund dafür. Auch nicht in Rottr.
Edit: Ich hoffe, dass jeder, der hier davon Predigt, dass unter 8gb nichts mehr benutzbar ist oder "null zukunftssicher", nur weil es 1-2 schlecht programmierte ausnahmen gibt, mindestens nen i7 6700k verbaut hat oder gleich nen Intel 6-8 Kerner.
Was Zukunftssicherheit angeht, ist ein i7 statt i5 definitiv ein größerer unterschied, als 6gb vs. 8gb Grafikspeicher

Zuletzt bearbeitet:
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Natürlich, von Quad auf Quad zu stagnieren kommt überhaupt nicht in Frage, erst recht nicht bei der WLP die Intel da drunter spachtelt.gleich nen Intel 6-8 Kerner.
2GB mehr Vram hält wirklich nicht so lange durch. Da müsst ihr schon mit 12 oder 16GB anfangen um Jahre lang ruhe zu haben bei dem Thema.als 6gb vs. 8gb Grafikspeicher
HT oder nicht, spielt keine große Rolle, am Ende zählen nur mehr Kerne. Seit Ivy-E(PCIe 3.0 + USB 3) sollte man zu 6 Kernen greifen, damit die System Basis länger durchhält, anstatt zu den Gewinnoptimierungs Quads die Intel da so verkaufen will.
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.271
Einen überteuerten 6Kern CPU braucht fast keiner zumindest nicht zum Zocken. Selbst bei Video und Foto-Bearbeitung reicht ein potenter 4kern aus da bringt eine ordentliche GPU wesentlich mehr.
Vor allem im hinblick auf P/L sind die 6Kern von Intel einfach viel zu teuer nicht nur die CPU selbst der Rest dazu.
Vor allem im hinblick auf P/L sind die 6Kern von Intel einfach viel zu teuer nicht nur die CPU selbst der Rest dazu.
T
tek9
Gast
Blueline56 schrieb:Sitzt du im AMD Vorstand oder woher nimmst du dein Wissen, ich habe diesbezüglich von AMD noch nichts lesen können.
Ich sitze vor meinem PC und lese die News auf CB. Wenn du das auch getan hättest, wäre dir bekannt das AMD genau das was ich geschrieben habe vor geraumer Zeit verkündet haben. Sie nennen es Waterdrops Strategie. Ask Google.
Leeroy schrieb:Und ich finde es sehr amüsant, dass du ernsthaft behauptest, dass AMD der Konkurrenz das Feld überlässt, um Marktanteile zu bekommen. Das Gegenteil ist der Fall. AMD verliert hier massiv an Anteilen. Sie können der 1070 und 1080 nichts entgegenstellen, weil ihre Technik nicht so weit ist.
Lieber Leeroy, wenn du das was ich geschrieben hätte auch verstehen würdest...
Wenn du ein bißchen Ahnung hättest, würdest du wissen das sich nur Karten bis knapp 300 Euro in großen Stückzahlen verkaufen. Der Bereich darüber ist zwar prestigeträchtig und Margenstark aber die Stückzahlen sind gering.
Die Marktanteile von AMD steigen seit geraumer Zeit wieder.
founti
Rear Admiral
- Registriert
- Sep. 2006
- Beiträge
- 5.561
Forum aufgemacht - > "1060 mit 6GB .. was ein VRAM Krüppel" gelesen -> lache jetzt noch...
@Topic
Wundert das jetzt jemanden? Wer den Test von BO3 noch im Kopf hat wird wohl wissen das dort bereits nicht zimperlich mit RAM und VRAM umgegangen wurde.
Also wieder viel bla bla und wenig Verstand am Werk hier...
@Topic
Wundert das jetzt jemanden? Wer den Test von BO3 noch im Kopf hat wird wohl wissen das dort bereits nicht zimperlich mit RAM und VRAM umgegangen wurde.
Also wieder viel bla bla und wenig Verstand am Werk hier...
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.329
wie gesagt, selbst auf 4K Monitoren ist Unterschied in der Grafikqualität zwischen Texturen @ Max und Texturen auf Hoch heute oft verschwindend gering. Schwer vorstellbar wie winzig dieser zwischen 24 GB Texturen und 12 GB Texturen wäre.
Bei 3x 4 K Monitoren oder 8K auf 1 Meter Diagonale vielleicht...
Klar, wenn man wie Kasmopaya nicht auf das höchste Texture Preset verzichten will braucht man 24GB. Als Spieleschmiede nutzt man ja auch gern einfach das was da ist an VRam, CoD zeigt das gut. Ob Sinnvoll oder nicht... über die Rohleistung der GPU lässt sich da grafisch weit mehr rausholen.
Aktuell wie bei Deus EX lieber das Texture Setting runter (da man den Unterschied eh nicht sieht) und dafür Effekte an die Rohleitung der Karte anpassen. Klar wäre eine GTX 1060 mit 12 GB gut, aber eben auch teurer. 6 GB GDDR5 kosten.
Bei sinnvoller Nutzung von VRam sieht man den Unterschied zwischen 2 und 4 GB VRam sicher deutlich mehr als von 6 auf 12GB. Der VRam ist aktuell eher dann ein Problem, wenn es kein Setting mehr gäbe welches zb mit 6 GB zurecht kommen würde. Erst dann bräuchte man wirklich zwingend mehr.
Davon sind wir aber weit weg. Über die reine Texturgröße scheint mir nicht mehr viel an Optik drin zu sein und Publisher sind bemüht auch ihre Titel auf 2 GB Karten laufbar zu halten.
Hätte auch gern mehr VRam, aber der "Einschnitt" mit 6GB ist marginal. Das wäre der Aufpreis zur Titan damals längst nicht wert gewesen zumal die Rohleistung viel entscheidender für die Grafik ist. Wer aber eh neu kauft und sich zwischen 4 und 8 GB entscheiden muss sollte zur größeren Karte greifen.
Bei 3x 4 K Monitoren oder 8K auf 1 Meter Diagonale vielleicht...
Klar, wenn man wie Kasmopaya nicht auf das höchste Texture Preset verzichten will braucht man 24GB. Als Spieleschmiede nutzt man ja auch gern einfach das was da ist an VRam, CoD zeigt das gut. Ob Sinnvoll oder nicht... über die Rohleistung der GPU lässt sich da grafisch weit mehr rausholen.
Aktuell wie bei Deus EX lieber das Texture Setting runter (da man den Unterschied eh nicht sieht) und dafür Effekte an die Rohleitung der Karte anpassen. Klar wäre eine GTX 1060 mit 12 GB gut, aber eben auch teurer. 6 GB GDDR5 kosten.
Bei sinnvoller Nutzung von VRam sieht man den Unterschied zwischen 2 und 4 GB VRam sicher deutlich mehr als von 6 auf 12GB. Der VRam ist aktuell eher dann ein Problem, wenn es kein Setting mehr gäbe welches zb mit 6 GB zurecht kommen würde. Erst dann bräuchte man wirklich zwingend mehr.
Davon sind wir aber weit weg. Über die reine Texturgröße scheint mir nicht mehr viel an Optik drin zu sein und Publisher sind bemüht auch ihre Titel auf 2 GB Karten laufbar zu halten.
Hätte auch gern mehr VRam, aber der "Einschnitt" mit 6GB ist marginal. Das wäre der Aufpreis zur Titan damals längst nicht wert gewesen zumal die Rohleistung viel entscheidender für die Grafik ist. Wer aber eh neu kauft und sich zwischen 4 und 8 GB entscheiden muss sollte zur größeren Karte greifen.
Zuletzt bearbeitet:
Clany
Lieutenant
- Registriert
- Mai 2012
- Beiträge
- 643
Dieses gegenseitige Gebashe ist ja mal extrem nervig.
Fakt ist das Spiel ist, so wie es scheint, ein schlecht optimierter Konsolenport, der weder auf Nvidia, noch auf AMD-karten wirklich gut aussieht dank der stark modifizierten Uraltengine.
Es wird jedes Jahr ein neues COD aufgelegt, das weder vom Gameplay, noch vom Aussehen her irgendwen hinterm Ofen vorlockt, aber die Systemvorraussetzungen explodieren förmlich.
Kurioserweise werden jedesmal trotzdem viele Einheiten verkauft und das Spiel wird in den Himmel gelobt.
Krank in was für eine Richtung das Ganze geht.
Die Erklärung zwecks Konsolentechnik halte ich übrigens für ein richtig schlechte Ausrede, da auf Konsole die Auflösung der Texturen und der VRAM-verbrauch nicht mal ansatzweise so hoch sein müssten bei diesem optischen Rumgematsche.
Fakt ist das Spiel ist, so wie es scheint, ein schlecht optimierter Konsolenport, der weder auf Nvidia, noch auf AMD-karten wirklich gut aussieht dank der stark modifizierten Uraltengine.
Es wird jedes Jahr ein neues COD aufgelegt, das weder vom Gameplay, noch vom Aussehen her irgendwen hinterm Ofen vorlockt, aber die Systemvorraussetzungen explodieren förmlich.
Kurioserweise werden jedesmal trotzdem viele Einheiten verkauft und das Spiel wird in den Himmel gelobt.
Krank in was für eine Richtung das Ganze geht.
Die Erklärung zwecks Konsolentechnik halte ich übrigens für ein richtig schlechte Ausrede, da auf Konsole die Auflösung der Texturen und der VRAM-verbrauch nicht mal ansatzweise so hoch sein müssten bei diesem optischen Rumgematsche.
Michael R.
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 700
10 Seiten Grafikkarten-Geflame und niemandem ist anscheinend aufgefallen, dass der Entwickler Infinity Ward heißt.
Zuletzt bearbeitet: