A.Xander schrieb:Wie kommst du darauf?
Die FPS können nur in dem Spiel den Unterschied zwischen den Grafikkarten darstellen in dem sie gemessen wurden.
Jedes Spiel hat seine eigenen Anforderungen an die Grafikkarte, somit sind die FPS für ein Rating über mehrere Games ungeeignet.
Das geht nur über die Leistungsdifferenzen in Prozent.
CS 2 | Diablo4 | Dota 2 | Baldurs Gate 3 | F1 23 | Ratchet Clank | CP 2077 | |
RTX 3050 | 185 | 104 | 162 | 48 | 101 | 45 | 36 |
GTX 1650 | 137 | 71 | 122 | 9 | 68 | 25 | 23 |
FPS diff | 48 | 33 | 40 | 41 | 33 | 20 | 12 |
Prozent diff | 35% | 46% | 33% | 430% | 48% | 80% | 56% |
Die ersten drei genannten Spiele sind ohne VRAM-Limit.
Interessanterweise sind die kleineren FPS Differenz-unterschiede machen die größeren Prozentualen unterschiede aus. Aus meiner Sicht ist das die GRÖSSTE Schwäche bei der prozentualen Berechnung (zumindest bei der Wahrnehmung).
Für mich würde die Balken in FPS deutlich besser/stabiler aussehen als in Prozent. Durchschnittlich 40fps Unterschied ohne VRAM-Limit und 26fps Unterschied mit VRAM-Limit macht die RTX3050 eine bessere Figur als die GTX1650 in Spielen. Alle 7 Spiele zusammen sind es durchschnittlich 32 FPS Unterschied zwischen den beiden GPUs.
Prozentual betrachtet sieht das eher so aus als ob der VRAM-Limit einen größeren Unterschied ausmacht als ohne.
Mein Wahrnehmung bezüglich der Anzeige in Prozent sieht eher wild aus und mit zwei sehr hohen Ausreißern zu verstehen (80% und 430%).
Für mich kann man die Leistungsdifferenzen natürlich auch in avg FPS-Balken darstellen.
Leistungsunterschiede vom GTX1650 zum RTX3050 ist wohl erheblich größer als von gtx1050ti zu gtx1650.
Da hat/hatte die gtx1650 durchschnittlich "nur" ~15fps mehr geliefert als die gtx1050ti. Der Unterschied wird erheblich vergrößern wenn man DLSS des RTX3050 nutzen würde.
Zuletzt bearbeitet: