Vitali.Metzger schrieb:
Bei den nachfolgenden VRAM-Knauser-Editionen war es für mich dann an der Zeit auf Team Red zu setzen und was soll ich sagen
Das mit dem VRAM ist immer so eine Sache. Zum aktuellen Zeitpunkt kann das wirklich noch problematisch sein, wenn zu "wenig" VRAM vorhanden ist.
Sollten die Entwickler anfangen DX 12 Sampler Feedback und Direct Storage zu verwenden, dann wird sich das VRAM-Problem erst mal entschärfen.
Intel hat eine entsprechende Demo, die zeigt, was möglich ist.
Klar, müsste man dann mal die SSD und das Mainboard im Blick behalten, gerade auch bei der Effizienz, da mehr Datentransfers dann statt finden.
interesTED schrieb:
Auf den Test habe ich gewartet, danke! Damit kann ich endlich meine 2070 vernünftig einordnen.
Das haben wir sehr gerne gemacht!
evilhunter schrieb:
Danke für die Arbeit, aber da merkt man wie wichtig weiterhin die Optimierung durch die Entwickler ist um überhaupt die unterschiedlichen Architekturen zu berücksichtigen.
Das ist ein komplexes Thema, dass man auch nicht so einfach wirklich bearbeiten kann.
Auch wenn DirectX 12 "näher" an der Hardware ist, von einer wirklich hardwarenahen API kann man da nicht schreiben und das ist im Endeffekt auch gut. Viele Spiele der letzten 10 - 20 Jahren laufen heute fast immer auf modernen Plattformen ohne weitere Probleme und das hat auch ein Stückweit damit zutun, dass wir heute eher hardware agnostisch programmieren.
Dazu kommt, dass Optimierungen heute in der Vielzahl an Stellschrauben weitaus komplexer geworden ist, als noch vor 10 oder 20 Jahren.
Ein weiterer Punkt ist, dass du heute weit aus mehr Details in den Spielen abbildest, was vieles deutlich komplexer macht. Es ist, sagen wir mal, "kompliziert".
floTTes schrieb:
Ich fand die Geforce-10-Serie seiner Zeit "ultra-supa-dupa-geilo"!
War sie auch!
Ozmog schrieb:
Da wären jetzt noch Effizienztests schön, um das auch noch einzubringen, da die 40er nen ordentlichen Sprung gemacht haben. Der Vergleich zu den anderen Generationswechsel wäre da interessant.
Ich hab die Daten in der Schublade. Das ist ein Punkt, denn man vielleicht für den nächsten Test dann auch mitnehmen kann.
CCIBS schrieb:
Noch Stromverbrauch bzw. Effizient und es wäre Perfekt gewesen.
Ich hab leider nicht die Möglichkeit, wirklich zuverlässig den Energiebedarf der Hardware zu messen. Es gibt aktuell durchaus zwar Werkzeuge dafür, die sind aber entweder mit knapp 1000 € sehr teuer oder mit um die 300 € nicht ganz so weit und würden den PCIe-Slot auslassen.
Ich muss an der Stelle also auf das Monitoring der GPU zurückgreifen und das ist ungenau, es kann daher immer nur Nährungswerte sein.
theGucky schrieb:
Man sieht von einer 1070 auf einer 2070 hätte sich nicht gelohnt
Kommt immer darauf an, welche Prämisse du für dich selbst wählst. In der Regel ist es aber immer sinnvoller eine Generation zu überspringen.
Drakonomikon schrieb:
Ich hatte vor einigen Wochen, anhand historischer Computerbase Artikel, die relative Abhängigkeit der einzelnen Grafikkarten berechnet und teils interpoliert. Das gilt für die Auflösung 1920x1080.
Tolle Arbeit, die du dir da gemacht hast. Im Endeffekt muss man nur die Artikel durchgehen und mit den Spielen abgleichen, die vorhanden sind und gleich sind bei bestimmten Tests. Ich will damit jetzt deine Arbeit nicht schämlern. Ich hab da aber etwas in Entwicklung.
Farcrei schrieb:
Jetzt bitte das selbe mit der 80er Reihe.
@Jan du hörst die Community? XD
NichtExpert schrieb:
Toller ausführlicher Bericht. Gerne mehr davon in der Zukunft.
Wird es auch sicher geben, jedoch immer nach den Kapazitäten, die ich frei habe.
Impy81 schrieb:
Sehr schöner Vergleich. FPS/€ sowie FPS/Watt wären auch interessant. Gerade beim Verbrauch sieht man direkt, dass ab der 3000er die Mehrleistung leider auch mit Mehrverbrauch erkauft wird.
FPS/Watt kann ich euch als Daten nachliefern. Werde ich mal am Wochenende aufbereiten.
Jan schrieb:
Beide Daumen hoch für @DevPandi !
Vielen lieben Dank!
Austronaut schrieb:
Nvidia wird diesen Grafikvergleich hassen
Warum wird Nvidia ihn hassen? Es zeigt sich bei der 4070 das, was quasi alle Tests bisher auch gezeigt haben: Die 4070 kann sich abseits von RT und ggf. DLSS FG nur durch den Takt von der RTX 3070 absetzen.
Die 4070 ist dennoch eine gute Karte und wenn man von einer 2070 kommt, ist sie auch eine tolle Option, wer von der 1070 kommt und die nun knapp 600 € zahlen möchte, kann auch zu greifen.
ShiftyBro schrieb:
Jetzt die X700er von AMD!

(man kann ja die Vega 56 als vierte dazunehmen..)
War der erste Artikel von mir hier für euch:
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-generationen-vergleich-2023.86243/
SonyFriend schrieb:
Das der %-Zuwachs der 4070 zur 3070 etwas geringer ausfällt als die Generationen davor ist in meinen Augen erklärlich: Je weiter man nach oben kommt, desto weniger groß gelingen Zuwächse.
Jaein, in dem Fall hat es einfach was damit zutun, dass Ampere und Ada quasi die gleiche Architektur sind, nur mit Anpassungen am L2-Cache, RT-Kernen und Tensor-Kernen. 5.888 Shader gegen 5.888 Shader, hier kann primör nur der Takt Leistung bringen.
Das konnte man auch zwisczhen der RX 5700 XT und RX 6700 XT sehen. Will man mehr, muss man entweder den Shader-Count erhöhen, oder größere Umbautzen vornehmen um die Auslastung zu verbessern.