ComputerBase fragt das Forum: Wie soll ein Generationenvergleich von Grafikkarten aussehen?

Auflösungstechnisch fände ich die heutigen "Standards" interessant, also 1080p 1440p und 2160p.

Bei der Auswahl der Karten wird es schon schwieriger. Insbesondere bei nur zwei Karten je Lager.
Fände da mindestens drei Stück besser z.B. 1080Ti also Spitzenklasse, 1070 im Mittelfeld mit Ambition und eine 1050 oder 1060 als Budgetorientierten Einstieg.
Entsprechend eben auch aus den älteren Generationen.

Auch was den Speicher angeht fände ich einen vergleich interessant, weil es die letzten Jahre ja immer hieß "für die Zukunft mindestens 4/6/8 GB kaufen".

Aus persönlichen Gründen und echtem Interesse fände ich natürlich auch speziell die GTX 970 interessant wegen der 3,5 GB "Problematik".

Vielleicht wäre auch die VR-Thematik Tauglichkeit interessant. Ist ja immer mehr im kommen, nachdem die Systeme erschwinglicher werden.

Spieletechnisch sollten natürlich einige AAA-Titel dabei sein, am besten auch mit verschiedenen Erscheinungsjahren entsprechend der Grafikkarten.
Wichtig sind auch Dauerbrenner wie GTA V, BF und CoD.
Leistungstechnisch genügsame Titel halte ich für recht unnötig, wenn ein Spiel wie Age of Empires ab 30fps flüssig spielbar ist und die Karten alle samt weit über 100fps schaffen.


Wenn ihr als Fazit den Leistungsverlust bzw. die Tauglichkeit für aktuelle Games der Karten und somit auch die Sweetspot einer Investition herausarbeiten könntet und das mit einer Empfehlung a la "Wegen des Wert-/Leistungsverlust nach z.B. 3 Jahren ist die Leistungsklasse x für einen Neukauf am Empfehlenswertesten" wäre das klasse.
 
Zuletzt bearbeitet:
Oh ja Perfomance per Watt würde ich auch nice finden.

Z.b. was verbraucht Karte XYZ bei gleichen Settings auf 1080p Vsync auf 60 oder so.

Verbrauch wäre da sicherlich interessant zu sehen, da ja nun viele einfach auch mit Vsync zocken
 
Ich fände es gut, wenn man sich dann an der Spielbarkeit der alten GPUs orientiert und nicht daran, dass eine GTX 1060 oder rx580 bei 60FPS liegt! Evtl am ältesten Modell orientieren!
Aber seit eurem letzten Gen-Vergleich hat sich ja leider auf dem GPU Markt kaum/nichts getan?

Spiele die unbedingt mit rein müssen: Die am meisten gespielt werden/wurden! Also einige F2P Titel, wobei bei MP Titeln das Benchmarking natürlich immer ziemlich schwierig ist. Aber es sollte auf jeden Fall GTA V/Online mit rein.
 
Hallo Wolfgang,

ich wünsch mir einen Artikel:

Welche Mathematischen Funktionen, werden auf welcher architektur (CPU, GPU, ASIC, FPGA, X86, X64, ARM, etc.) wie umgesetzt und ist wann am schnellsten?

+-×/ int float modulo matrix etc

Was ist SSE, AVX etc. aus mathematischer Sicht?

Ein anderer Punkt: Wie kommts dass wir am Smartphone problemlos FullHD Grafik zocken mit 1/100 der Leistung? Wo sind da die Architektonischen Unterschiede.
 
Ersteinmal danke für die (schon) vielen Antworten!
Zunächst wollte ich nur eine Sache richtigstellen, die ich zwei Mal (haha:D) falsch gelesen habe. Es wird insgesamt vier Artikel geben. Zwei befassen sich mit AMD-Grafikkarten (ein Artikel davon mit High-End, ein anderer mit Mainstream) und zwei mit Nvidia (ein Artikel davon mit High-End, ein anderer mit Mainstream). Es wird in diesen Artikeln nicht nur zwei Grafikkarten geben, sondern mehrere.

emeraldmine schrieb:
Single und Double Precision Leistung natürlich. Oder GFlops pro Watt z.B.

Aktuell ist der Plan, auch die Leistungsaufnahme zu messen. Da kann man dann natürlich auch Performance pro Watt drauß basteln.

Trimipramin schrieb:
Hat man zum Beispiel vielleicht gemerkt, dass die bisherige Kühllösung nicht optimal war und hat da was entscheidendes geändert? ..also das Ganze drumherum finde ich interessant. Bitte nur nicht dieses "naja.., 10% schneller 15 sparsamer"..sowas is ja eig. klar. Aber gut, da mache ich mir eh weniger Sorgen.

Das Problem dabei: Es fällt quasi unmöglich, dass sinnvoll zu vergleichen. Es gibt ja weitaus mehr als nur das Referenzdesign, sondern auch diverse Partnerkarten. Und manchmal gar kein Referenzdesign.

Xes schrieb:
Um hier relevant zu sein sollte es es um Modelle handeln die weit verbreitet sind und daher keinen erhöhten Sammlerwert aufweisen und zudem mindestens über 2GB Videospeicher (eher ab 3GB) verfügen um die Anforderungen aktueller Titel bestehen zu können.

Das impliziert automatisch eine Frage: Sollen die Spieleinstellungen so gewählt werden, dass der Speicher möglichst keine Rolle spielt. So lässt sich auf der einen Seite zwar besser die reine Performance vergleichen, doch ignoriert man so eben einen größeren Speicher. Es gibt Argumente für beide Seiten denke ich.

wahli schrieb:
Was mir da immer fehlte, ist der Vergleich von AMD- zu NVidia-Karten (über die Generationen). Ich bin also ständig zwischen beiden Tests hin- und hergesprungen. Es würde schon reichen, wenn bei den Grafiken über "+ xx Grafikkarten" auch andere Karten eingeblendet werden. Natürlich nur, wenn es Sinn macht und auch möglich ist.

Im Moment tendiere ich dazu, in allen vier Artikeln dieselben Auflösungen plus Grafikdetails zu verwenden. Dann kann man alle Benchmarks schonmal miteinander vergleichen, auch wenn man das dann selber machen muss. Da bietet sich aber vielleicht auch noch ein fünfter Artikel an, der dann direkt alles miteinander vergleicht...

Slainer schrieb:
vielleicht ein Generationenvergleich der Modelle innerhalb eines Herstellers

Bsp.: MSI GTX 480 - 1080 / XFX Dual Fan 5870 - RX 580
- hat der Hersteller aus Fehlern gelernt?
- kommen andere Materialien als damals zum Einsatz (evtl. auch der ökologische Fingerabdruck)

Da gibt es dann leider das Problem, dass man die Modelle erst einmal haben muss.

Piep00 schrieb:
Und zwar sagt der Laienvolksmund: nVidia Grafikkarten brauchen nicht so viel Speicher wie die von AMD, weil 3 GB auf einer nVidia-Karte den 4 GB eines AMD-Beschleunigers entsprechen.
Ich kann es mir beim besten Willen nicht vorstellen, dass an der Behauptung wirklich was dran ist, aber da viele User dies im Hinterkopf haben, möchte ich die Hypothese bestätigt, bzw. widerlegt wissen. Das wäre stark. :)

Das ist ein anderes interessantes Thema (wie man einige Vorschläge hier auch nutzen könnte, für andere Artikel), aber das ist wirklich so. Nicht unbedingt so krass, aber Nvidia Grafikkarten haben ein besseres Speichermanagement. Das ist schon oft aufgefallen, vor allem bei direkten Vergleichen mit wenig Speicher (2GB).
 
  • Gefällt mir
Reaktionen: wahli und Piep00
Wolfgang schrieb:
Nicht unbedingt so krass, aber Nvidia Grafikkarten haben ein besseres Speichermanagement. Das ist schon oft aufgefallen, vor allem bei direkten Vergleichen mit wenig Speicher (2GB).

Jetzt hast du mein Interesse an genauen Zahlen und Benchmarks geweckt. :D
 
Welche Spiele unbedingt drin sein sollten:
WoW
CS:GO
Overwatch
Vielleicht ein World of **** (Tanks?)

Welche Aufloesungen:
1280x720
1920x1080
2.560x1.440
4K

Welche Karten nicht fehlen sollten:
Jeweils die schnellste einer Generation:
580, 680, 980Ti, 1080Ti
Jeweils Mittelmaessige einer Generation:
750, 760, 950, 960, 1060, 1070
Eventuell auch Lower End der letzten Generation

Damit man endlich weiss, ob man lieber eine aktuelle 1060 kauft, oder eine gebrauchte, alte Highend.

DualGPU Karten. :)
 
Wolfgang schrieb:
Da gibt es dann leider das Problem, dass man die Modelle erst einmal haben muss.

CB ist eine große Plattform.
Mit Sicherheit lässt sich hierbei die ein oder andere Leihgabe dazu finden
 
Piep00 schrieb:
Und zwar sagt der Laienvolksmund: nVidia Grafikkarten brauchen nicht so viel Speicher wie die von AMD, weil 3 GB auf einer nVidia-Karte den 4 GB eines AMD-Beschleunigers entsprechen.

Ich kann es mir beim besten Willen nicht vorstellen, dass an der Behauptung wirklich was dran ist, aber da viele User dies im Hinterkopf haben, möchte ich die Hypothese bestätigt, bzw. widerlegt wissen. Das wäre stark. :)

Dieser Mythos wurde bereits hier wiederlegt.
Man sieht eindeutig, dass die AMD-Karten mit 4GB in den Frametimes besser abschneiden als die 1060 3GB.

Denn alle Testreihen zeigen, dass die Grafikkarte mit 3 GB häufig schon bei der zweithöchsten Detailstufe der Texturen Probleme bekommt. Und das in Full HD. Trotz Nachteilen im Speichermanagement kann sich die Radeon RX 480 mit 4 GB in diesem Umfeld noch häufiger retten, eine Detailstufe höher stößt aber auch deren Speicher an seine Grenzen.
 
Wolfgang schrieb:
Das impliziert automatisch eine Frage: Sollen die Spieleinstellungen so gewählt werden, dass der Speicher möglichst keine Rolle spielt. So lässt sich auf der einen Seite zwar besser die reine Performance vergleichen, doch ignoriert man so eben einen größeren Speicher. Es gibt Argumente für beide Seiten denke ich.
Ich würde ein Einstellungs-Preset wählen, welches erwartungsgemäß auch von den schwächeren Vertretern zumindest mit 30fps zu betreiben ist. Dahingehend würde ich aber keine "zu großen Opfer" hinsichtlich des Speichers machen:
Wenn z.B. eine GTX 560 mit 1GB Speicher ein Spiel nicht mehr flüssig darstellen kann, ein leistungstechnisch ähnliche Karte mit 2GB aber schon kann das mmn. auch so vermerkt werden.
Idealerweise kann man das dann Anhand der getesteten Spiele gut erkennen, (möglicherweise mit einem Hinweis) in welchen Titeln die Karten aufgrund des zu geringen Speichers einbrechen.

edit. Hier nocheinmal in eigener Sache: Ich hatte dich schon darauf verlinkt, weis aber nicht ob du es gelesen hast. Wenn ihr eh gerade Ideen für Tests sucht. Hier noch ein Vorschlag meinerseits. ;)
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Also einen Generationenvegleich mit DX11 GPUs hat ihr ja schon gemacht....da waren alle mir wichtigen Modelle vertreten....da jetzt nochmal 4 davon extra zu betrachten bringt aus meiner Sicht wenig Wissensgewinn.

Ich hätte da aber noch eine andere Idee.....

Es ist eigentlich unsinnig, GPUs im CPU limit oder CPUs im GPU limit zu testen, will man deren Leistung beurteilen.....die Architektur und die Treiber machen da aber viel aus.
Aber da hätte ich gerne einen Vergleich von früher zu heute.

Mir ist aufgefallen, dass meine CPUs(i5 3570K und Ryzen 1800X) mit meiner alten GTX680 in Starcraft 2 viel mehr Leistung liefern als mit meiner Vega64 LC....auch in Rome TW, Prison Architect..usw...also Spiele die nur wenige Threads nutzen.
Natürlich nur in anspruchsvollen Testszene, wo die CPU der limitierende Faktor ist!

Es gibt ja immer die Diskussion über DX11/DX12 bei Nvidia/AMD und wie Nvidia den Mainthread des Spiels entlastet..... Deshalb nicht so durch diesen eingebremst wird usw.

Insgesamt soll der CPU Overhead aber größer sein und dann Probleme machen, wenn wirklich alle CPU Kerne voll genutzt werden(z.B. bei 4 core CPUs ohne HT/SMT).

Zu diesem Thema gibt es außer ein paar Youtube Videos kaum wirkliche Tests.....da könnte CB doch mal aktiv werden. ;)

Was ich mir grob vorstelle:
Spiele, die ein unterschiedliches Verhalten bei einem CPU limit zeigen aussuchen.
Am besten mit einer niedrig taktenden 4 Kern CPU ohne HT...so z.B.bein Kaby lake quad core i5 auf festen 3,2GHz.

Spiele-Beispiele:
-Starcraft 2 limitiert über einen CPU Kern auch wenn das Spiel davon profitiert bis zu 4 Kerne zur Auswahl zu haben.
Da die Replay Funktion so läuft, das das komplette Spielgeschehen neu berechnet wird, kann man hier zuverlässig testen. Man muss etwas aufpassen und die erste Messung verwerfen....egal.
Es gibt ja noch ganz viele andere Spiele mit dieser Limitierung....da findet sich schon was.


-Rise of the Tomb Raider im Geothermalen Tal , Hitman in Marrakesh, The Witcher 3 in Novigrad......
Also Szenen, bei Spielen, die mehr als 4 Kerne nutzen können und 4 Kerne auch voll auslasten....
Zumindest bei Nvidia in DX11.

Dann die Frametimeveläufe, GPU und CPU Auslastungen protokollieren und auswerten.
Damit sollte es möglich sein, zu sehen, wie die Grafikkarten auf verschiedene CPU limitierungen reagieren.
Stimmen die Behauptungen?
Sehen wir bei Nvidia später eine Limitierung über den Hauptthread bei insgesamt mehr CPU Last?
Sehen wir bei AMD später eine Limitierung wenn alle CPU Kerne ausgenutzt werden?

Und dann eben den Generationenvergleich.

Wie war es zu Zeien von GTX480 580 bzw. ATI/AMD 5870, 6870?
Wie zu Zeiten der GTX780 und wie bei 1080 gegen Vega64?

Hat sich etwas gewandelt und kann man dies den Architekturveränderungen zusprechen?

Ich weiß das das erstmal nur so eine grobe Idee ist, aber mich würde das sehr interessieren.
 
Ich würde mir einen mittlerenTemperaturvergleich und Leistungsaufnahmenvergleich zwischen den Generationen wünschen. Nicht bei Max.Leistung, sondern bei einem einheitlichen FPS-Limit von z.B. 60 und 100.
 
Larve74 schrieb:
Ich würde mir einen mittlerenTemperaturvergleich und Leistungsaufnahmenvergleich zwischen den Generationen wünschen. Nicht bei Max.Leistung, sondern bei einem einheitlichen FPS-Limit von z.B. 60 und 100.
Ist das nicht automatisch unfair? Ich meine, die alten Grafikkarten würden ja zwangsweise volle Pulle laufen müssen, während sich die neuen komplett langweilen würden. Das wird ja so nen Monster Unterschied ergeben. Was soll das so aussagen?
 
Wenn ihr alte Karten vergleichen wollt, solltet ihr euch bei den Modellen danach richten, welche gut verkauft wurden.
Die MSI GTX970 Gaming 4G war ja nicht nur bei euch die empfohlene Karte.
Also die GTX970 war definitiv eine der beliebtesten Karten, selbst nach dem Thema mit den 3,5 schnellen GB und 0,5 langsamen GB.

Bei eurem Nachtest war das Fazit für mich, dass es erst ein Thema spielt, wenn selbst die 980 ruckelt, also völlig überzogen, abseits von SLI und Texturmods.

Ich fände es auch toll, wenn ihr mal Features wie 3D Vision nochmal anstoßt, wenn ihr jetzt schon Berichte über SLI/Crossfire macht.
 
Wolfgang schrieb:
Ist das nicht automatisch unfair? Ich meine, die alten Grafikkarten würden ja zwangsweise volle Pulle laufen müssen, während sich die neuen komplett langweilen würden. Das wird ja so nen Monster Unterschied ergeben. Was soll das so aussagen?

Es könnte aufzeigen, wieviel Strom und Temperatur man bei älteren Spielen sparen kann. Ich z.B. spiele nicht nur neue Titel, gern auch ältere.
Man könnte auch den Framtimeverlauf vergleichen. Einfach um zu sehen, ob sich eine Neuanschaffung auch für ältere Titel lohnt.
 
Um Mehrkosten über 300-400€ auf der Stromrechnung einzusparen muss man aber schon ziemlich lange spielen, oder?
 
Ich fände ein möglichst breites Spektrum an Spielen, die in den verschiedenen Jahren auch getestet wurden, müssen natürlich nicht alle sein, sehr schön. Evtl. kann man dann bei der Auswahl auf einen Genre-Mix achten: FPS, RTS, RPG, Aufbau, etc.

Eine interessante Sache wäre für mich zudem, wie sich die Karten (insbesondere ältere) bei reduzierten Tessellationseinstellungen behaupten können. Dann auch gerne mit aktiviertem Gameworks.

Tessellation:
Testen des aktuellen Spiele-Parcour, inwieweit Spiele auf 2x fixierten Tess-Faktor fps-technisch reagieren. (geht leider nur bei AMD)
Dann: Überprüfen der Spiele, wie weit der Faktor reduziert werden kann, ohne an Bildqualität einzubüßen und den dazugehörigen Fps-Gewinn ermitteln.
Die Werte dann auch in die Gesamt-Performance-Ratings einfließen lassen. Evtl. das ganze dann auch nochmal mit 8x durchtesten. Die Performance/Watt Steigerung kann man dann auch gerne ebenfalls darstellen.

Beispiel:
Warum umständliches OCing wenn (bei Witcher 3 mit aktivem Hairworks auf 16x Faktor begrenzt die Performance um 30% steigt (HD7950) ohne auf Bildqualität verzichten zu müssen. Mehr fps umsonst. Wer sagt dazu schon nein?

Quelle:https://wccftech.com/amd-announces-...driver-coming-boost-tessellation-performance/


Ansonsten könnte man die verfügbare Zeit eventuell noch für andere Themen verwenden.
Gaming unter Linux:
Dank Vulkan. Gibt es bereits eine nennenswerte Anzahl an Spielen? Und wie sieht die Performance AMD vs. NVidia aus?

G-Sync vs. FreeSync:
In wie weit treffen die 30 Hz als untere Grenze bei G-Sync überhaupt zu? Meines Wissens nach schaffen es die Monitore nur runter bis 37 Hz bei 1:1 Skalierung (also ohne Frame-Doubling). Damit einhergehend ist evtl. auch ein aktueller Vergleich der Features von FreeSync und G-Sync interessant, sowie den zu zahlenden Aufpreis bei G-Sync. Derzeit wird bisweilen immer noch argumentiert G-Sync wäre besser. Aber wo? Das einzige das mir dazu einfällt ist: G-Sync bei (nicht-Vollbild) Fenster, aber das funktioniert momentan unter Win10 nicht mal?!
Eine Auklärung über den aktuellen und tatsächlichen Stand wäre hier ganz schön.

Quelle1: https://forums.blurbusters.com/viewtopic.php?f=5&t=3073

Zitat von Blurbusters:
MINIMUM REFRESH RANGE
Once the framerate reaches the 36 and below mark, the G-Sync module begins inserting duplicate frames to maintain the display’s minimum physical refresh rate, and smooth motion perception. If the framerate is at 36, the refresh rate will double to 72 Hz, at 18 frames, it will triple to 54 Hz, and so on. This behavior will continue down to 1 frame per second.

Beim Youtube Video kann man direkt zum Zeitpunkt 8:15 springen, dort ist die Grenze klar ersichtlich.

Quelle2:

Außerdem könnte man bei Zeit mal das folgende Thema anschneiden:
NVidia TLC und HLC Preisleistungs-Problematik (DLC: DriverLoadContent; HLC: HardwareLoadContent)

Ein nacktes Vergleichen der Kartenpreise NVidia vs. AMD wird m.M.n. immer unsinniger. NVidia versucht durch Auslagerung von Aufpreisen in andere Hardware im Direktvergleich günstig dazustehen.

Beispielsweise ist bei Berücksichtigung eines Kaufs von Grafikkarte + Monitor (mit Sync) die Preis-Leistung sämtlicher NVidia Grafikkarten bis einschließlich der GTX 1080 mangelhaft ggü. AMD. Darüber besteht lediglich Performance-technisch keine andere Wahl als die GTX 1080 TI zu nehmen.

HLC: G-Sync
DLC: 3DTV Play, 3D-Vision

Aufpreisthemen: G-Sync, 3DTVPlay für Spiele und Filme (für Filme und Spiele, die Stereoskopie mitbringen bezahle ich zumindestens bei AMD kein TLC, meine NVidia im Laptop möchte gerne 40€ dafür haben, evtl. hat sich dies bei NVidia auch mittlerweile geändert, da ich nach der Negativerfahrung keine weiteren Versuche mit der NVidia Karte gemacht habe)

Also insgesamt würde mir mal ein RoundUp über die aktuellen Features von AMD und NVidia, abseits von Benchmarks, gefallen. Und die Kosten, die zusätzlich zum Kauf der "nackten" Grafikkarte entstehen, sollten mit einbezogen werden.
 
Zurück
Oben