thepusher90 schrieb:
... bin recht erschüttert darüber wie schlecht Spiele heutzutage auf dem PC optimiert werden. Das war vor zwei Jahren schon schlimm, aber wird jetzt scheinbar noch heftiger...Ich bin zwar derzeit eh noch am Dishonored 1 spielen, aber wenn ich dran denke dass Sachen wie Anno in 1440p auf meiner Vega 56 die zwar auf Gtx 1080 Vega 64 Stock Performance oder sogar leicht drüber läuft, aber mit Sicherheit nicht immer über den 60 FPS bleiben würde, dann wird mir schlecht. Ich habe vor ein paar Monaten mit dem Youtuber "Good Old Gamer" ne lange Diskussion gehabt unter einem Video in dem er behauptet hat, dass GPUs des Kalibers Vega 56 und 1070 (Ti) innerhalb der nächsten 1-2 Jahre maximal noch für 1080p Gaming gut sein werden. Da habe ich noch lautstark behauptet, dass das Schwachsinn sei und ich werde sicher in 4-5 Jahren so gut wie alles damit noch auf wenigstens hohen Details spielen können. Und dann kommen so Rohrkrepierer wie Metro Exodus und Anno 1800 raus, die eher früher als er behauptet hat das Ende meiner GPU einläuten. Aber dann denke ich mir auch wieder: Wie viel besser wird eine Navi schon sein auf etwa dem Level einer 2070.?! Das ist schon beängstigend. Ich bin froh dass ich nicht um die Jahrtausendwende PC Bauer war, wo innerhalb eines halben Jahres deine Kiste kompletter Schrott war. Aber zumindest im Moment fühlt es sich an als würden wir wieder in die Richtung gehen...aber eher weil Spieleentwickler nicht in der Lage sind das komplette Potential der Hardware auszuschöpfen. Aber eigentlich müsste ich rational an die Sache gehen. Ich hatte mir eigentlich mal vorgenommen, dass ich erst upgrade, wenn ich 40% mehr Performance für etwa das selbe Geld bekommen kann wie ich für meine jetzige Hardware bezahlt habe. Ich gehe nicht davon aus, dass mir Zen2 + Navi das bieten können wird. Allerdings befürchte ich auch, dass die CPU welche mir diese Performance zu Zen 2+/Zen3 bescheren könnte dann in einer Preiskategorie darüber rangieren wird.
Und das Argument mit dem 3700x oder 3800x habe ich mir auch schon überlegt. Sind ja feine Chips aber von 8 Kerne auf 8 Kerne upgraden fühlt sich nicht sehr prickelnd an XD
Ja, das kann ich vollkommen verstehen, Anno 1800 ist m.E. auch ein Armutszeugnis fuer Blue Byte/Ubisoft aus entwicklungstechnischer Sicht.
Das ist aber leider nichts neues bei BlueByte/Ubisoft, denn die vorherigen Anno-Titel haben auch nur Minimalunterstuetzung fuer AMD/RTG GPUs geliefert (so dass das Spiel gerade noch halbwegs laeuft auf AMD/RTG-GPUs oder trotz eigentlich mehr als ausreichender GPU-Leistung relativ unterirdisch eben).
AMD/RTG-GPU-Besitzern wie Dir und anderen wuerde ich daher empfehlen dem Studio/Unternehmen - in dem Fall BlueByte/Ubisoft - einen Denkzettel zu verpassen und das Spiel nicht mehr zu kaufen, bevor es nicht fuer Minimal-/Grabbeltischpreise zu haben ist, sozusagen als "Anerkennung" fuer deren Minimalleistung bei der Umsetzung/Entwicklung fuer AMD/RTG Grafikkarten
.
Sich langjaehrigem oder komplettem Verzicht auf ein Spiel auszusetzen, schreibt sich natuerlich einfach, aber ich denke, es gibt genuegend ebenbuertige Aufbaustrategiespiele (mit etwas anderem Ansatz) und anders werden BlueByte/Ubisoft daraus nicht lernen und findet kein Umdenken statt (bei dem Siedler Remake blueht AMD/RTG-GPUlern evt. das gleiche, wenn BlueByte die gleiche Engine und Herangehensweise an den Tag legt
).
Dort versteht man leider nur wegbrechende, zuvor als sicher einkalkuliert geglaubte Gewinne und fuer mich ist ein durchwachsen umgesetzter (da ganz klar nur einseitig optimierter) BlueByte/Ubisoft-Titel sicherlich nicht entscheidend fuer den Kauf einer Grafikkarte, aber es soll ja Leute geben, die sich mit dem vorwiegenden spielen eines Spiels ueber Jahre hinweg zufrieden geben (ich gehoere nicht dazu).
Mach' Dir nichts aus Deiner Fehlprognose, das kann den besten/groessten Kennern hier passieren
.
Um die Jahrtausendwende gab es wenigstens noch andere Hersteller jenseits von nVidia und ATI (AMD/RTG) und damals hat man sich zwangslaeufig in Verzicht ueben muessen (etwa bei Erscheinen von Crysis), wenn man nicht eine Batzen Geld fuer ein neues System (oder zumindest neue GPU) auf den Tisch legen wollte wegen eines oder maximal zwei neuer Spiele.
So etwas gab es aber auch schon vorher in den 90ern als etwa Quake 1 heraus kam und ich mich dann auch gegen eine staendig teure Aufruesterei entschieden habe und mit aelteren Titeln begnuegt habe.
Aus dem Grund habe ich es mit dem Verzicht vielleicht auch nicht so schwer, zumal ich auch heute noch mit Grobpixel-/Retrografik viel Spass haben kann und fuer mich Spielprinzip-, -idee und somit -spass im Vordergrund steht und eben nicht AAA Grafikblender von Ubisoft, EA, Activision-Blizzard, etc.
Aus dem Grund stellt sich bei mir bspw. bisher auch noch keine grossartige RTX-Feature-Affinitaet ein und kann mir das erst einmal gestohlen bleiben bzw. muss ich es nicht sofort haben (lieber spaeteres und dann ausgereifteres und halbwegs verbreitetes RT-Raytracing fuer echten Mehrwert, egal von welchem GPU-Entwickler).
Dass mittlerweile leistungstechnisch oft die Software-/Spielumsetzung der Entwickler entscheidender ist als die verbaute Hardware(-architektur), ist leider ein sehr trauriger Trend und da bekleckern sich die Entwickler sicherlich nicht mit Ruhm, zumal man auf dieser Grundlage dann auch nicht mehr fair und halbwegs objektiv Hardware vergleichen kann (weswegen m.E. Anno 1800 auch - als solch ein offensichtlicher Ausreisser - nicht in den CB-Test-Parcours gehoert, aber gut, ich moechte das jetzt nicht wieder aufwaermen und breit treten, denn darueber diskutiert wurde hier ja schon zu Genuege).
Von einer GTX 670OC kommend waere fuer mich eine Navi RX 5700 - anders als bei Dir - schon ein richtig deutlicher Sprung, aber eigentlich wollte ich schon gerne mehr (als voraussichtlich 8GB) Speicher und ich bin auch bereit fuer eine (untere) Oberklasse-Karte erstmalig mehr als 500 Euro zu zahlen (was momentan ja noch eine RTX 2070 ist), aber bald ist das eben keine Oberklasse mehr.
Wenn wir dann zum Herbst 2020 vorspulen, dem hoechstwahrscheinlichen Erscheinungsdatum fuer RyZen 4000 X670 Boards und Vermeer CPUs, dann gibt es vermutlich spuerbar verbilligte RyZen 3000 CPUs und vielleicht einige passende Boards dazu geben, aber das wohl mit Ausnahme der dann neuen/teuren X670 Boards einzig passiv gekuehlte X570 Aorus Xtreme duerfte da wohl nicht unbedingt zu den viel guenstiger gewordenen RyZen 3000 Boards gehoeren.
Dann duerfte eine Navi RX5700 oder Turing RTX 2070 wohl nur noch Mittelklasseleistung haben, wenn die (RTX) Turing Refresh- oder Ampere-GPU-Generation auf dem Markt erscheint und neben Navi20 Grafikkarten evt. auch schon erste Gaming-dGPUs von Intel auf den Markt gekommen sind.
Eigentlich sollte bei 3 GPU-Entwicklern ein groesserer Preisdruck hin zu sinkenden GPU-Preisen fuehren, aber Intel ist leider nicht bekannt fuer Preissenkungen, auch wenn sie Neueinsteiger waeren und sich erst einmal etablieren muessten.
So etwas koennte steigende Fertigungskosten bei der GPU-Weiterentwicklung auf immer kleiner werdenden Noden etwas kompensieren, aber das glaube ich erst, wenn ich es sehe
.
Was die 8-Kerner angeht, weiss ich, was Du meinst, nur im Endeffekt geht es ja auch um die unterstuetze Leistung und bis 12-Kerner bei Spielen voll ausgereizt und auch preislich Minimalstandard werden, haben wir noch viele Jahre vor uns und auch bei 8 Kernen sehe ich erst nach und nach (auch wegen Ausstattung bei den kommenden Microsoft und Sony Konsolen) eine Optimierung und Ausreizung des Kernepotentials durch Entwickler kommen, so das das noch lange reichen wird fuer Spiele die dahingehend jetzt schon vorbildlich herangehen und 6+ CPU-Kerne nutzen.
Allerdings wird die Single- bis Dual-Core-Leistung immer noch bei weniger gut optimierten Titeln vorerst relevant bleiben und da duerftest Du mit den RyZen 3000 eben durch den IPC-Zuwachs mehr als nur ein einfaches Sidegrade zur Vorgaengergeneration geboten bekommen (das einfache Sidegrade waere dann wohl eher bei den Zen3-Vermeer-CPUs zu erwarten (kommend von den Zen2-Matisse-CPUs), weil 7nm+ nicht so schrecklich viel mehr an Leistung bringen duerfte laut AMDs CTO Mark Papermaster).