thepusher90
Lt. Commander
- Registriert
- Nov. 2011
- Beiträge
- 1.559
Chismon schrieb:Ja, das kann ich vollkommen verstehen, Anno 1800 ist m.E. auch ein Armutszeugnis fuer Blue Byte/Ubisoft aus entwicklungstechnischer Sicht.
Das ist aber leider nichts neues bei BlueByte/Ubisoft, denn die vorherigen Anno-Titel haben auch nur Minimalunterstuetzung fuer AMD/RTG GPUs geliefert (so dass das Spiel gerade noch halbwegs laeuft auf AMD/RTG-GPUs oder trotz eigentlich mehr als ausreichender GPU-Leistung relativ unterirdisch eben).
AMD/RTG-GPU-Besitzern wie Dir und anderen wuerde ich daher empfehlen dem Studio/Unternehmen - in dem Fall BlueByte/Ubisoft - einen Denkzettel zu verpassen und das Spiel nicht mehr zu kaufen, bevor es nicht fuer Minimal-/Grabbeltischpreise zu haben ist, sozusagen als "Anerkennung" fuer deren Minimalleistung bei der Umsetzung/Entwicklung fuer AMD/RTG Grafikkarten .
Sich langjaehrigem oder komplettem Verzicht auf ein Spiel auszusetzen, schreibt sich natuerlich einfach, aber ich denke, es gibt genuegend ebenbuertige Aufbaustrategiespiele (mit etwas anderem Ansatz) und anders werden BlueByte/Ubisoft daraus nicht lernen und findet kein Umdenken statt (bei dem Siedler Remake blueht AMD/RTG-GPUlern evt. das gleiche, wenn BlueByte die gleiche Engine und Herangehensweise an den Tag legt ).
Dort versteht man leider nur wegbrechende, zuvor als sicher einkalkuliert geglaubte Gewinne und fuer mich ist ein durchwachsen umgesetzter (da ganz klar nur einseitig optimierter) BlueByte/Ubisoft-Titel sicherlich nicht entscheidend fuer den Kauf einer Grafikkarte, aber es soll ja Leute geben, die sich mit dem vorwiegenden spielen eines Spiels ueber Jahre hinweg zufrieden geben (ich gehoere nicht dazu).
Mach' Dir nichts aus Deiner Fehlprognose, das kann den besten/groessten Kennern hier passieren .
Um die Jahrtausendwende gab es wenigstens noch andere Hersteller jenseits von nVidia und ATI (AMD/RTG) und damals hat man sich zwangslaeufig in Verzicht ueben muessen (etwa bei Erscheinen von Crysis), wenn man nicht eine Batzen Geld fuer ein neues System (oder zumindest neue GPU) auf den Tisch legen wollte wegen eines oder maximal zwei neuer Spiele.
So etwas gab es aber auch schon vorher in den 90ern als etwa Quake 1 heraus kam und ich mich dann auch gegen eine staendig teure Aufruesterei entschieden habe. und mit aelteren Titeln begnuegt habe.
Aus dem Grund habe ich es mit dem Verzicht vielleicht auch nicht so schwer, zumal ich auch heute noch mit Grobpixel-/Retrografik viel Spass haben kann und fuer mich Spielprinzip-, -idee und somit -spass im ?Vordergrund steht und eben nicht AAA Grafikblender von Ubisoft, EA, Activision-Blizzard, etc.
Aus dem Grund stellt sich bei mir bspw. bisher auch noch keine grossartige RTX-Feature-Affinitaet ein und kann mir das erst einmal gestohlen bleiben bzw. muss ich es nicht sofort haben (lieber spaeteres und dann ausgereifteres und halbwegs verbreitetes RT-Raytracing fuer echten Mehrwert, egal von welchem GPU-Entwickler).
Dass mittlerweile leistungstechnisch oft die Software-/Spielumsetzung der Entwickler entscheidender ist als die verbaute Hardware(-architektur), ist leider ein sehr trauriger Trend und da bekleckern sich die Entwickler sicherlich nicht mit Ruhm, zumal man auf dieser Grundlage dann auch nicht mehr fair und halbwegs objektiv Hardware vergleichen kann (weswegen m.E. Anno 1800 auch - als solch ein offensichtlicher Ausreisser - nicht in den CB-Test-Parcours gehoert, aber gut, ich moechte das jetzt nicht wieder aufwaermen und breit treten, denn darueber diskutiert wurde hier ja schon zu Genuege).
Von einer GTX 670OC kommend waere fuer mich eine Navi RX 5700 - anders als bei Dir - schon ein richtig deutlicher Sprung, aber eigentlich wollte ich schon gerne mehr (als voraussichtlich 8GB) Speicher und ich bin auch bereit fuer eine (untere) Oberklasse-Karte erstmalig mehr als 500 Euro zu zahlen (was momentan ja noch eine RTX 2070 ist), aber bald ist das eben keine untere Oberklasse mehr.
Wenn wir dann zum Herbst 2020 vorspulen, dem hoechstwahrscheinlichen Erscheinungsdatum fuer RyZen 4000 X670 Boards und Vermeer CPUs, dann gibt es vermutlich spuerbar verbilligte RyZen 3000 CPUs und vielleicht einige passende Boards dazu geben, aber das wohl mit Ausnahme der dann neuen/teuren X670 Boards einzig passiv gekuehlte X570 Aorus Xtreme duerfte da wohl nicht unbedingt zu den viel guenstiger gewordenen RyZen 3000 Boards gehoeren.
Dann duerfte eine Navi RX5700 oder Turing RTX 2070 wohl nur noch Mittelklasseleistung haben, wenn die (RTX) Turing Refresh- oder Ampere-GPU-Generation auf dem Markt erscheint und neben Navi20 Grafikkarten evt. auch schon erste Gaming-dGPUs von Intel auf den Markt gekommen sind.
Eigentlich sollte bei 3 GPU-Entwicklern ein groesserer Preisdruck hin zu sinkenden GPU-Preisen fuehren, aber Intel ist leider nicht bekannt fuer Preissenkungen, auch wenn sie Neueinsteiger waeren und sich erst einmal etablieren muessten.
So etwas koennte steigende Fertigungskosten bei der GPU-Weiterentwicklung auf immer kleiner werdenden Noden etwas kompensieren, aber das glaube ich erst, wenn ich es sehe .
Was die 8-Kerner angeht, weiss ich, was Du meinst, nur im Endeffekt geht es ja auch um die unterstuetze Leistung und bis 12-Kerner bei Spielen voll ausgereizt und auch preislich Minimalstandard werden, habe wir noch viele Jahre vor uns und auch bei 8 Kernen sehe ich erst nach und nach (auch wegen Ausstattung bei den kommenden Microsoft und Sony Konsolen) eine Optimierung und Ausreizung des Kernepotentials durch Entwickler kommen, so das das noch lange reichen wird fuer Spiele die dahingehend jetzt schon vorbildlich herangehen und 6+ CPU-Kerne nutzen.
Allerdings wird die Single- bis Dual-Core-Leistung immer noch bei weniger gut optimierten Titeln relevant vorerst bleiben und da duerftest Du mit den RyZen 3000 eben durch den IPC-Zuwachs mehr als nur ein einfaches Sidegrade vor Vorgaengergeneration geboten bekommen (das einfache Sidegrade waere dann wohl eher bei den Zen3-Vermeer-CPUs zu erwarten (kommend von den Zen2-Matisse-CPUs), weil 7nm+ nicht so schrecklich viel mehr an Leistung bringen durfte laut AMDs CTO Mark Papermaster.
Naja ich werde es mir auch erstmal nicht kaufen (Anno meine ich). Ich bin sehr rabiat und standhaft was sowas angeht. Ich habe bis heute nie GTA V gespielt, weil ich es bis heute auch noch nicht für 10€ kaufen konnte. Ich wollte die Politik von Take2 nicht unterstützen. Single Player Spielern Mods zu entziehen war das letzte...war nur logisch das rückggängig zu machen, aber deshalb werde ich auch nie mehr als 10€ für ein Rockstar Game mehr ausgeben. Also ich bin beim Boykottieren voll dabei...diese "Leaks" von Larian und einem evtl. BG3...wenn das ein Epic Exclusive wird, werde ich es mir nicht kaufen. Auch wenn das das Game ist auf das ich am meisten warte. Und wenn es nur ein Jahr exklusiv ist, werde ich es mir auch erst für nen 10er kaufen, weil ich sowas nicht unterstütze. Zumal ich mir nicht wirklich vorstellen kann wie ein Baldur's Gate von Larian aussehen soll.
Was ich klasse an meiner Vega 56 finde ist, dass ich zumindest teilweise spätere Games die mehr als 8 GB brauchen werden an VRAM, mit dem HBCC überbrücken kann. Ist zwar ein Pflaster aber ich habe schon Benches gesehen wo plötzlich Ruckler durch 3 GB Ram Allokation für HBCC Ruckler geheilt haben in 1440p. Allerdings in Games die ich selber nicht spiele (FF 15 unter anderem, sowie Black Ops 4). Ich denke das ist ein unterschätztes Feature was in 4-5 Jahren zum Tragen kommen wird. Besonders wenn man dann schon mit 32 GB Ram hantiert.
Zuletzt bearbeitet: