S
samexclusive
Gast
Hallo Leute ich habe mal eine komische Frage undzwar wie berechnet man denn wenn man z.B. 2 CPUs oder auch Grafikkarten vergleicht den Leistungsunterschied also z.B.
1. Sagen wir mal ich vergleiche eine R9 280 mit einer R9 280X. Sagen wir mal in Battlefield hat die eine Grafikkarte 50Fps und die andere Karte 60Fps. Wie berechne ich jetzt, wie viel mehr Leistung die R9 280X hat. Muss ich dann 50 / 60 = 0,8333 also hat die R9 280X knapp 17% mehr Leistung oder muss ich 60 / 50 = 1,2 rechnen sodass man auf 20% kommt? Muss ich da den größeren Wert geteilt durch den kleineren Wert immer nehmen sodass ich immer über 1,xxx komme?
2. Sagen wir mal eine AMD CPU entpackt eine Datei mit Winrar in 58 Sekunden und eine Intel CPU in 33 Sekunden. Wie berechnen ich dann wie viel % schneller die Intel CPU ist? Bei 58/33 = 1,758 aber 33/58 = 0,57 also bei den einem sind es 76% schneller bei dem anderen 43% schneller? Falls man bei dem ersten Vergleich den größere Wert durch den kleineren Wert teilen muss wie ist dass dann in diesem Fall, wo der kleinere Wert also 33 Sekunden ja eig der größere/bessere Wert ist? Muss man in diesem Fall den besseren Wert durch den schlechteren Wert rechnen?
3. Sagen wir mal man will 2 CPUs vergleichen einmal ein Spielebenchmark wo nix im Hintergrund läuft und einmal wo etwas im Hintergrund läuft. Sagen wir mal wir machen einen Spiele Benchmark mit einem Intel i3 wo wir 60FPS haben, dann machen wir den Test nochmal während im Hintergrund ein Download, Musik, Virenscanner oder sonstwas läuft und die FPS stürzen auf 45 ein. Was wäre dann korrekter:
Die FPS stürzen bei Hintergrundlast um (60/45 = 1,333) um 33% ein oder ist es korrekter wenn man sagt die FPS stürzen um (45/60 = 0,75) um 25% ein?
Also meine Hauptfrage wenn man einen Leistungsunterschied berechnen will geht man dann immer von dem schlechteren/langsameren Wert aus und setzt ihn quasi = 100% und berechnet dann wie z.B. bei der ersten Frage 60/50= 1,2 schneller, bei der 2. Frage 58/33 =1,758 und bei der dritten Frage 60/45 = 1,33 sodass man am ende immer einen Wert über 1,xxx hat?
1. Sagen wir mal ich vergleiche eine R9 280 mit einer R9 280X. Sagen wir mal in Battlefield hat die eine Grafikkarte 50Fps und die andere Karte 60Fps. Wie berechne ich jetzt, wie viel mehr Leistung die R9 280X hat. Muss ich dann 50 / 60 = 0,8333 also hat die R9 280X knapp 17% mehr Leistung oder muss ich 60 / 50 = 1,2 rechnen sodass man auf 20% kommt? Muss ich da den größeren Wert geteilt durch den kleineren Wert immer nehmen sodass ich immer über 1,xxx komme?
2. Sagen wir mal eine AMD CPU entpackt eine Datei mit Winrar in 58 Sekunden und eine Intel CPU in 33 Sekunden. Wie berechnen ich dann wie viel % schneller die Intel CPU ist? Bei 58/33 = 1,758 aber 33/58 = 0,57 also bei den einem sind es 76% schneller bei dem anderen 43% schneller? Falls man bei dem ersten Vergleich den größere Wert durch den kleineren Wert teilen muss wie ist dass dann in diesem Fall, wo der kleinere Wert also 33 Sekunden ja eig der größere/bessere Wert ist? Muss man in diesem Fall den besseren Wert durch den schlechteren Wert rechnen?
3. Sagen wir mal man will 2 CPUs vergleichen einmal ein Spielebenchmark wo nix im Hintergrund läuft und einmal wo etwas im Hintergrund läuft. Sagen wir mal wir machen einen Spiele Benchmark mit einem Intel i3 wo wir 60FPS haben, dann machen wir den Test nochmal während im Hintergrund ein Download, Musik, Virenscanner oder sonstwas läuft und die FPS stürzen auf 45 ein. Was wäre dann korrekter:
Die FPS stürzen bei Hintergrundlast um (60/45 = 1,333) um 33% ein oder ist es korrekter wenn man sagt die FPS stürzen um (45/60 = 0,75) um 25% ein?
Also meine Hauptfrage wenn man einen Leistungsunterschied berechnen will geht man dann immer von dem schlechteren/langsameren Wert aus und setzt ihn quasi = 100% und berechnet dann wie z.B. bei der ersten Frage 60/50= 1,2 schneller, bei der 2. Frage 58/33 =1,758 und bei der dritten Frage 60/45 = 1,33 sodass man am ende immer einen Wert über 1,xxx hat?