hmm ja sehe auch das der Test realtiv problematisch ist, vieles wird nur halbherzig beruecksichtigt, klar man kann sich die zumindest teilweise echten antworten mit glueck denken.
Nennen wirs so, es wurde oft nur die halbe Wahrheit bzw eine Sicht der Dinge genannt:
1. ein wichtiger Punkt, man kauft sich karten um ruckelfrei so viele spiele wie moeglich zu spielen, daher spielt ein test ob in einem setting in einem alten spiel nun 60 oder 70 fps raus kommen keine rolle, sehr wohl aber bei einem spiel wo die eine karte 27fps hat die andere aber 33fps. Wobei hier streng genommen ja sogar die Minimal-fps interessanter waeren, aber gut man kann ein wenig auch mit den average zahlen auf die minimals spekulieren.
2. man kauft heute in der Regel ne Grafikkarte die man nicht nur ein Monat hat um die aktuellen Spiele zu spielen, sondern auch die die in ein paar Monaten bis hin zu nem Jahr raus komen, daher sind auchs piele interessanter die eben auf die neueren Spiele hin deuten, so ist z.B. watch dogs schon interessant da es so ziemlich das einzige der hier aufgefuehrten spiele ist die bei konsolen explizit fuer die nextgen programmiert wurde.
Wenn man jetzt mal schaut bei welchen spielen eine R280x und eine gtx770 bei fullhd an der 30fps grenze scheitern drohen und alle anderen ignoriert:
Games ueber 40 fps beide karten:
Anno 2070, Battlefield 4, Bioshock, Call of Duty, Company of Heroes, Grid, Hitman, Metro, Risen 2, Thief, Tomb Raider, Far Cry 3
Interessante games:
Ascen Creed, Crysis 3, Rome 2, Watch dogs.
So schauen wir mal wer hier wieviel % schneller ist:
HD 280X vs GTX 770
Assassins Creed -19%
Crysis 3 -3%
Rome 2 15%
Watch Dogs 15%
* Hab die werte von AA genommen SSAA ist dann eh nimmer spielbar
das macht dann immerhin (30 - 22) / 4 = 2% mehr speed in spielen in denen es drauf an kommt. Aber noch interessanter ists wenn man sich die Werte genau an schaut, dank der R280 kommen 2 Spiele in die spielbarkeit ( mit den settings) bei nvidia nur eines, die 3% machen da keinen etnscheidenden unterschied das ignorier ich mal bei crysis 3.
Ok nehm ich mal so hin auch wenn ich erwaehnen moechte das sich Ubisoft mit dem Assassins Creed team (sofern das noch die gleichen sind) schon einen guten Ruf mit AMD unterstuetzung und nachtraegliche patches die amd ausgebremst haben bekannt geamcht haben. Will das nur mal erwaehnen, aber ok ignorieren wir das.
Bleiben 2% mehr speed bei spielen im Schnitt wo es drauf an kommt, auch wenn diese % zahl nicht so viel aussagt, 2 von 3 spielen hilft es > 15%. aka macht es mehr oder weniger spielbar.
Wenn ich crysis 3 noch aus der wertung nehmen wuerde da die 3% das spiel auch nicht spielbarer macht bzw der unterschied sehr klein ist und ein Messfehler sein koennte, komm ich auf 3 bis 4% unterschied. Gut auf diesen Unterschied (2%) kommt zufaellig hier auch CB in ihrem ergebnis.
Was gibt es noch zu beachten.
- Die gtx 770 verbraucht unter last 66 Watt weniger
- Die Radeon kostet 50,- Euro weniger.
Soweit so gut, jetzt kommen wir zu dem was ich hier die Halbe Wahrheit meine:
Zu dem Stromverbrauch gilt zu sagen,
1. ja wie erwaehnt verbraucht ein chip mit besserer kuehlung weniger strom hier scheint wohl bei amd ein groeserer spielraum nach unten zu sein wie bei nvidia, allerdings denk ich nicht das dieses die 66Watt weg zaubert aber immerhin ein Teil davon.
2. Amd bietet Mantle support, ich habe ja gesagt das wohl die spiele die in zukunft raus kommen wichtiger sind wie die heutigen, wenn man heute eine karte kauft, denke so denken die meisten? Es werden jetzt nicht ploetzlich 90% mantle spiele raus kommen, aber es sind durchaus einige titel angekuendigt, es werden prozentual mehr werden. Fuer diese gilt dann entweder das man sich noch mehr geld beim cpu kauf sparen kann, weil eine kleinere cpu reicht und man spart beim Stromverbrauch der cpu (hier waere stromverbrauch bei battlefield 4 sehr interessant), oder selbsst wenn man ne monstercpu trotzdem kauft, spart man trotzdem stromverbrauch da eine cpu die nicht so stark belaastet wird auch weniger verbraucht.
3. AMD hat mehr Ram verbaut, das erlaubt einem nicht nur texturedetails im einen oder anderen spiel in der zukunft heute eher mit mods um eins hoeher zu aktivieren, es ist auch einer erklaerung fuer den mehr strom verbrauch, den RAM verbraucht strom.
Ich hatte mir mal ne HD4770 mit 512mb ram gekauft, vor meiner jetzigen, ich hab mich fuer immerwieder in arsch gebissen, da einfach 1024 recht schnell standard war und ich deshalb spiele auf mittel spielen musste oder texturen eins zurueck schalten musste.
== (mein) FAZIT ==
Von daher wuerde ich sogar ohne die genannten Mantle vorteile klar zur Radeon raten, BEI DIESEN 2 zur auswahl. bei den anderen karten muss man nochmal schauen.
die 3gb ram einfach als nichtfeature ab tun, halte ich fuer sehr naiv, der mehrpreis negiert zumindest aufm konto das es sparsamer ist.
Man muss halt fuer sich genau schauen, was einem wichtig ist, z.B. bin ich mir sicher das der STromverbrauch bei Battlefield dank der entlasteten CPU deutlich geringer ist wie bei Anno, wenn man also vor hat das naechste halbe jahr 5h Battlefield pro tag zu spielen, sollte man mit ner amd karte gut bedient sein.
Aber selbst wenn ich die 66W mal fuer gegeben nehme komme ich auf ca. 10h pro tag spielen im Schnitt um nach 1 Jahr auf ca. 50 euro zu kommen.
http://www.strom-rechnen.de/rechner.html Wer hat so viel zeit zu spielen? Realistisch wird also kaum jemand selbst in 2 Jahren ueber die Stromkosten den Preisunterschied wieder wett machen, und das wo die HD 280X wegen mehr ram nunmal die karte ist die mehr potential hat und eben auch schon in dem test ein paar prozent besser war.