Die meisten Vergleichlisten beziehen sich auf Performance
Wichtiger wäre für für viele Preis/Leistung
Da sieht die liste völlig anders aus. das gleiche bei Perfomance/Watt
je größer eine Architektur wird und je mehr man sich vom idealpunkt wegbewegt wird es extrem ineffizient
Will man max performance ist man derzeit bei einer titan rtx 2800€
Will man beste P/L wirds schwierig aktuell kloppe sich 3 lager dafür
Den 150€ bereich, den 250€ bereich und den 500€ bereich
Alles darüber wird ein chart Perfomance per Euro unattraktiv
games nun das hängt vom den Jahrgängen ab
Weswegen die relative performance einzelner gpu gen sich mal verschiebt
Je neuer ein game wird desto mehr werden features genutzt was alte gpu gen nicht unterstützen.
Idealer wäre also games zu nehmen auf engine basis
Es nützt einen nix wenn man 5 Unreal engine games bencht wenn man genau weis wie die engine mit performance nutzt. hier gibt es klare bevorzugte treiber. bei ue ist es nvidia worauf die engine besser läuft.
bei Hersteller spezifischenengines wirds schwierig daher de einwand das nach Jahren zu ordnen
Cb und andere nutzen dazu immer aktuelle benchkurse was nicht vergleichbar ist mit alten.
Die folge ist Verwirrung bei gpu test bei Laien
gamestar hatte mal in früheren zelten zu jeden Spiel eine Tabelle mit cpu gpu kombi mit farbkennzeichnung, dazu eine leiste wie viel ram benötigt wird auch farbkodiert.
Das war ideal.
leicht zu erkennen ob ein game cpu limitiert ist oder gpu.
Dazu eine Liste mit relativen theoretischen teraflops und die ipc der gpu gemessen an tf vs frames.
teraflops sind die thearetische rechenleistung Parallele compute von Ganzzahlen
32bit Genauigkeit entspricht einfache Genauigkeit
so z.B. die gtx1060
1280 kerne der gpu mit 2 Operationen pro takt und 1,93ghz = 4,94tf
Die ipc vs der Referenz liegt bei 0,39/1280=0,0025 shader per frame und bei etwa 160€ (Vergleichbare gpu)
Die titan rtx ist bei 100/4608=0,0021 shader per frame und bei 2800€
0,0030/0,0025=0,85 etwa 15% bessere ipc als die pascal generation.
Also brauche ich 15% mehr shader um eine pascal generation (nvidia 2016 gen 10) vs turing generation (nvidia 2018 gen rtx20) gleichzusetzen
oder anders gesagt turing braucht nur bei gleichen takt 1088 shader was es nicht gibt
Die gtx1650s hat auch 1280 shader und taktet nur 1,7ghz
mathe wäre also
1280*1,15/1,9*1,7=1307 1307/1280=knapp 1% schneller als die gtx1060
allerdings spielt da noch die speicherbandbreite mit was nochmal 2% ausmacht.
Summarium etwa 3% vs turing
was den preis anbelangt ist klar eine gtx1660s Bevorzugungen vs titan rtx
2800€/100=28€ per frame vs 250€/52=4,81€ per frame
Dabei habe ich mal 100fps angenommen
Sind real eher 160 rames aber das hängt von den games ab pro Jahr.
Eine gtx1650s bei etwa 160€/42=3,81€
Zum vergleich 2016 war die gtx1060 bei 280€
also eine frame per euro sind 280/39=7,17€ 7,17/3,81=1,8fach besser F/€
oder 280/160=1,75 = 75% bessere P/L
Nütz einen aber nix wenn die Leistung der 280€ gpu deutlich darunter sind
In dem preisbereich gibt es nur die rx5600xt diese hat 58fps
Diese ist bei etwa 58/39= 48% schneller
preise aber 49% pro fps gesunken
ich erwarte aber um 80% pro fps
Vorher waren es nur 13% gtx1060 vs gtx1660ti
Das Sollte eine beim kauf interessieren
Dabei ist aktuell warten angesagt ab sep gibt es eine neu gpu gen wo sich die ganze preis situation ändert spätestes zum nov Konsolen release ändern sich die preise extrem.
Man kann keine 800€ gpu verkaufen wenn die Konsole für 500€ die gleiche Leistung haben.