Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

Gentlem4n schrieb:
Auf die Idee das Dropdown zu benutzen, seid ihr beiden Spaßvögel noch nicht gekommen?

Nein, danke.

Aber dennoch, ich bleibe dabei. Blauer Balken impliziert für mich, dass es sich um die Intel iGPU handelt und einemal eben mit und einmal ohne Monitor.
 
@hübie: Ich würde sagen es ist ein Kompromiss und die sind selten optimal.
Wie ich in dem von dir zitierten Post geschrieben habe (das nächste mal bitte etwas selektiver zitieren) geht es ja erstmal darum einen möglichst großen Bereich abzudecken und der 2500K ist da eine sinnvolle Wahl für das untere Ende. Man kann sicher darüber streiten, ob der übertaktete Haswell jetzt ne gute Wahl fürs obere Ende ist (mir - als Mainstream user - wär ne langsamere lieber gewesen), aber diese Tests sollen ja auch noch in 2 Jahren Relevanz besitzen und die Benchmarks - soweit möglich - nicht ins CPU-Limit laufen lassen.
Da finde ich die jetzige Prozessorkombination ganz in Ordnung (eben ein Kompromiss). Ich sags nochmal: Das ist kein Prozessorvergleich, sondern ein Grafikkarten Test unter verschiedenen Randbedingungen.
 
zeedy schrieb:
Und wenn du auch lesen würdest, statt nur Balkendiagramme zu betrachten, dann wüsstest du, dass das Höchstwerte sind -> für den Stromverbrauch irrelevant. Wie im Test zur GTX980/970 von Toms Hardware erklärt, ist die Lastanpassung von Maxwell extrem schnell, die echten Peakwerte kann man nur mit entsprechender Hardware messen, die extrem hoch auflöst.
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-11.html

mich für meinen Teil interessieren diese Peakwerte nicht die Bohne. Was hab ich denn davon wenn ich weiß dass meine GPU vorm Netzteil für Millisekunden auch 1kw ziehen kann? Entscheidend ist doch das was der Rechner aus der Dose zieht und was der Stromzähler erfasst. Für den Consumer sind so Messungen wie THG zwar netter Lesestoff - aber mehr aus theoretischer Natur, weniger praxisbezogen.

Was HT4U macht finde ich gut. Es könnte nur etwas besser aufbereitet werden. Im Prinzip ist deren Ansatz aber richtig so wie hier:
http://ht4u.net/reviews/2015/watt_v...nd_nvidia_gtx_980_im_effizienztest/index7.php

schön wären da noch etwas mehr Modelle selber GPU Serie da die Streuung recht groß ist.
http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/index55.php hier is die MSI 290X mit 298W Gaming verbrauch angegeben.
Die Zahl seh ich hier aber nicht mehr http://ht4u.net/reviews/2015/watt_v...nd_nvidia_gtx_980_im_effizienztest/index7.php


Es lässt sich wie man an der ganzen Diskussion schon sieht nicht genau festmachen. Die Chips werden auf verschiedene Spannungen gesetzt, manche haben stock mehr, manche weniger. Die Streuung innerhalb der gleichen Produkte sind schon hoch. Schwer da überhaupt vergleiche zu ziehen.
Am ehesten noch mit Durchschnittswerten oder Spannweiten.

Zb
Custom GTX 970 -> Last @ 243W-295W alles dabei. Schnitt etwa 265W
https://www.computerbase.de/2014-10/nvidia-geforce-gtx-970-test-roundup-vergleich/5/


Custom R9 290X -> Last @ 411W-458W. Auch alles bei. Schnitt etwa 420W.
https://www.computerbase.de/2014-05...x-roundup-test/3/#abschnitt_leistungsaufnahme


Gibt doch nen schnellen einfachen Überblick.

Fakt is aber auch -> es können hier zwei Unterschiedliche Spiele zur Last Erzeugung herangezogen worden sein. Wie lösen wir das Problem -> indem wir uns Einzelkarten anschauen wie sie sich bei Spielen verhalten.
bei AMD wurde Crysis 3 verwendet um die oberen Messwerte zu ermitteln.

Eine GTX 780 TI kommt dabei auf 337W @ Last Crysis 3 im Tri X R9 290X Test:

https://www.computerbase.de/2014-01...-tri-x-oc-test/4/#abschnitt_leistungsaufnahme


Im aktuellen Test wird mit Ryse die Last erzeugt

https://www.computerbase.de/2015-05/17-grafikkarten-von-amd-und-nvidia-im-vergleich/7/


Die GTX 780 TI kommt genau auf 337W, exakt gleich wie bei Crysis 3. Was das angeht dürfte sich Ryse also schon mal fast exakt gleich verhalten wie die älteren Tests mit Crysis 3.
Die GTX 970 (OC Modell) ordnet sich genau da ein wo man sie ausgehend vom Partnerkartentest (ohne Spieleangabe) erwarten würde.

Dennoch, es sind 2 Games. Wie schaut es bei anderen aus? Dazu schauen wir mal bei HT4U ob Crysis 3 hier eine Ausnahme stellt und die AMD Karten weit mehr als die Nvidia Karten brauchen:

http://ht4u.net/reviews/2015/watt_v...nd_nvidia_gtx_980_im_effizienztest/index7.php


Hm, ich würde sagen dass sich Crysis 3 und vermutlich demnach auch Ryse im guten Mittel bewegt, eventuell mit leichter Tendenz für Nvidia (also dezent größerer Abstand bei Leistungsaufnahme als im Spiele Schnitt) aber jetzt nichts wo ich CB irgendwas vorwerfen würde...

Edit: Ich sehe bei HT4U bei Crysis 3 46W Differenz zwischen Custom AMD R9 290X und Custom GTX 980. Bei Computerbase sind es 93W... Dass es bei CB deutlich mehr ist dürfte an der bereits angesprochenen Thematik liegen, dass die CPU bei Spielelast insbesondere bei AMD deutlich höher ausgelastet wird, was durch den OC i7 4770k natürlich noch verstärkt wird. Da kommen schnell nochmal 47W on Top wenn die CPU Last höher ist.
Das verfälscht das Ergebnis natürlich etwas. Genauer wäre es wohl die Last mit CPU @ Stock zu testen, andererseits will man natürlich das CPU Limit klein halten :-/
 
Zuletzt bearbeitet:
Gentlem4n schrieb:
Auf die Idee das Dropdown zu benutzen, seid ihr beiden Spaßvögel noch nicht gekommen?

Darauf dass ich das Dropdown Menü benutzt habe, bist du Spaß vogel schon gekommen oder?

G3cko schrieb:
keine Ahnung was du dir da mit Paint zurecht editierst...
Als ob ich mir die Mühe machen würde, da was mit Paint zurecht zu editieren. Vor allem dann auch noch mir selbst neue Verbrauchswerte für jede Grafikkarte auszudenken. Bisschen zu viel Phantasie oder?

G3cko schrieb:
Aber dennoch, ich bleibe dabei. Blauer Balken impliziert für mich, dass es sich um die Intel iGPU handelt und einemal eben mit und einmal ohne Monitor.

a) Was soll es sonst darstellen?
b) Wer hat etwas anderes behauptet?
 
Wow, über 400 Kommentare...

Hier noch meiner:

Euer Graph ist kaput: (Framtimes 256x1440)
kbg1TYb.png

Da steht drunter nicht das es sich um "Zeit " handelt, und wäre es nicht viel praktischer die Zeitangaben auf 60 Sekunden schritte zu fixieren anstatt so eine wilde unregelmässige Zahlenbande ?

nun aber zum eigentlichen Problem mit dem Graphen, wobei... der Graph ist hier unschuldig, es fehlt eine genaue numerische Angabe was für ein Wert da nun im Graph steht.
Ich mein, ihr kauft euch endlich ein FCAT set, nach Jahrelanger abneigung von wegen "Das interessiert doch eh keinen" & "Zu viel Aufwand" und dann gibts nur so ein mikriger Graph? Wo bleiben die Zahlen? die einen 1:1 Vergleich zwischen verschiedenen Grafikkarten und Spielen zulassen?
Frafs zeigt hier mit den 1% und 0.1% Werten bereits einige Beispiele auf was vergleichbar wäre,
Ziemlich interessant finde ich hier auch den Graphen der Verteilung:

FC2-SSD-rank.jpg
Wobei man den wohl auf die letzten 5-10% zoomen müsste um was zu erkennen ^^

Aber auch die verteilungskurve von Fraps Calc gefällt mir recht gut.
frapscalcbf3cfx7870high.jpg

Euer Graph hier ist jedenfalls nicht vergleichbar, ausser einer Linien mit ein par tollen spitzen sieht man da gar nichts.
 
Zuletzt bearbeitet: (nicht zu kompliziert)
Euer Test und die ganze Methodik dahinter ist super, auf jeden Fall.
Ich würde mir wünschen, wenn man die Leistungs-Ratings irgendwie mit dem Stromverbrauch verbinden könnte. Für mich spielt der Stromverbrauch eine verdammt große Rolle. Da wäre es schön zu wissen (und diagrammatisch zu sehen) wieviel FPS ich pro Watt (oder so Ähnlich) bekomme. :)
 
Sehr schön Krautmaster

Du kommst dem Problem ein wenig näher.

Jetzt schau dir mal die von dir geposteten Diagramme 1 und 2 an.
Die 290x verbraucht auf einmal 40 Watt mehr unter Last.

Bei der GTX 780 TI übersiehst du leider dass der Unterschied auch in der Performance zu suchen und finden ist.
Bei Crysis 3 ist die 290x ggü. der 780 ti 3 - 7 % schneller.
Und bei Ryse? Da ist die AMD auf einmal 22% schneller.

Der Stromverbrauch kommt nunmal primär durch die Auslastung der Grafikkarte zu stande.
Bei den 47 Watt on top spielt zusätzlich noch die Ineffizienz des Netzteils rein, die bei CB noch dazu kommt und die Werte automatisch erhöht. Daher wird der Mehrverbrauch nicht alleine durch die CPU geschehen. Netto bleiben also wesentlich weniger als die dargestellten Werte in diesem Test übrig, wenn man auch tatsächlich die Partnerkarten genommen hätte und nicht das elendige Referenzdesign.

Ich finde es einfach blöd, dass bei Custom Tests immer wieder andere Spiele zum Verbrauch genutzt werden, womit die Vergleichbarkeit unnötig leidet. Die hätte man mit der selben Basis (Spiel) sehr leicht herstellen können. (Dies geht an CB)
Die Tests sind immer sehr schön, aber durch diese Details bekommt das Gesamtbild der Tests bei mir leider immer so einen blöden Eindruck wegen der Nichtvergleichbarkeit beim Stromverbrauch im ersten Blick. Man muss stattdessen sich durch mehrere Tests versuchen den Vergleich zu ermöglichen mit den Problemen die dies zugleich einbringt.
 
Starker Test, vor allen Dingen der Vergleich mit dem 2500k und dem 4770k.

Da sieht man mal, dass nicht immer die aktuellste Generation an CPU am Start sein muss, damit die Games flüssig laufen.

Des Weiteren sieht man, dass 4GB VRAM in Grafikkarten demnächst wohl zum Standard gehören werden, allein um den
Kunden zu beruhigen.
 
Sontin schrieb:
Man sollte das P/L-Rating einfach rausnehmen. Denn Leistung alleine auf Performance zu reduzieren, ist auch nicht das Wahre.

Man muss sich ja nur ansehen, wie die Sache mit einem Prozessor aussieht, der nicht zum absoluten Besten gehört:
In Ryse ist eine 290X-OC nur auf dem Niveau einer GTX970 mit dem 2500K Prozessor. Mit dem 4770K@OC sind es 15% mehr Leistung. Je langsamer der Prozessor, umso besser stehen nVidia Karten da.

Gibt viel zu viele Variablen, die das P/L beeinflussen.


Das ist aber auch nur bei Ryse der Fall, und vom schnelleren i7 mit OC profitieren die Karten beider Hersteller.

Was das Preis-/Leistungsverhältnis darstellen soll sagt ja schon der Name, FPS pro Euro.
Und dass du was dagegen hast, weil die GTX 980 und Titan X schlecht dastehen kann ich nachvollziehen.
Andernfalls kriegt man in den Klassen bis GTX 970 und R9 290(X) immer gute Produkte für einen fairen Preis.
Das was du herbeisehst ist bestimmt ein FPS/Watt Diagramm um die unendliche Effizienz der Maxell Architektur hervorzuheben. *lol*
 
Zuletzt bearbeitet:
Ist schon ziemlich ärgerlich, den ewigen Kampf der Kunden (!) hier mitlesen zu müssen, obwohl man sich eigentlich nur informieren will. Das tragikomische dabei ist ja, daß voraussichtlich keiner von den Schlaumeiern und selbsternannten Verkaufsberatern jemals bei AMD oder nvidia gearbeitet hat oder aufgrund fehlender Kernkompetenz jemals bei selbigen arbeiten wird!

Ich denk mir meinen Teil. Währenddessen sitze ich auf meiner betagten nvidia, hatte viel Freude mit dieser, und überlege, ob ich das nächste mal einfach das beschämende Forum zum Thema Grakas meide. Und ob ich mal wieder eine AMD nehme, einfach nur zur Abwechslung. Und das übernächste mal wieder eine nvidia, mal sehen. Nimmt sich doch sowieso nichts.
 
Kann Krautmaster #443 nur zustimmen. Warum zur Hölle sollte man sich die auf Millisekunden genauen Stromwerte ansehen wollen? Das hat Null praktische Bedeutung. Technisch werden diese "Stromspitzen" eh weggeglättet. Wie gesagt, diese Werte sind nur von theoretischer Bedeutung und für einen PC Nutzer komplett unnötig (zu wissen).
 
@Computerbase

Sehr schöner Test.

Mich hätte allerdings bei dem CPU-Vergleich sehr interessiert, wie sich neben den beiden beobachteten CPUs eine AMD FX CPU schlägt (bspw. der 8350).

Einfach nur um einmal selber nachvollziehen zu können wie hoch der Abstand ist.
 
Schöner Test und auch wieder irgendwie ernüchternd zu sehen das AMD ja mal locker fast 1 Jahr hinter Nvidia zurück hängt. Einige machen sich hier zwar über die Effizienz lustig aber in Zeiten wo als mehr auf kompaktere Systeme gesetzt wird, ist es eben nicht unwichtig was so eine Karte an Strom verbraucht.

Ich selbst z.b. nutze aktuell MATX Hardware die aber trotzdem potent ist und da heizt eine R9 270x bei Volllast das Gehäuse schon gut auf. Gehen wir mal den Schritt weiter und erwägen den Kauf von Steamboxen etc. dann wirds sehr mau was AMD da bieten kann, außer eben man forciert weiterhin das APU Thema.
 
Deren neue Generation wenn sie rauskommt. Davor ist dieser Test sinnlos. Was ihr hier also macht ist ihr vergleicht Nvidias neueste Karten mit AMDs 3 Jahre alten Karten. Absolut sinnlos, ich weiß nicht wie das niemandem in eurer "Redaktion" aufgefallen ist bevor ihr das gemacht habt. Ihr müsst den ja nicht machen, ihr könnt also warten bis ihr da was sinnvolles macht.
Naja, ich denke schon, dass es unser Bier ist zu entscheiden, wann wir einen Artikel bringen :)
Aktuell sieht die Situation eben so aus wie sie ist. Es bringt dem Kunden, der jetzt eine Grafikkarte kaufen will, nichts wer weiß wie lange noch auf die neuen AMD-Karten zu warten. Ihm bringts auch nichts zu sagen, dass die AMD-Karte schon zweieinhalb Jahre alt sind und daher eben die Nvidias eher besser sein können. Die aktuelle Situation sieht so aus wie im Artikel beschrieben.

Denk doch mal darüber nach. Hier haben Nutzer 419 Kommentare hinterlassen und dabei über 28000 Hits generiert. Wenn man bei solchen Themen die Kommentarfunktion deaktiviert, gehen Hits entsprechend runter und so auch die Einnahmen.
Das hat damit nichts zu tun :)
Es gibt doch ehr viele Kommentare, die ordentlich argumentieren. Die liest man gerne - man kann nunmal immer noch etwas verbessern.

Könnt Ihr bitte bei den Balken noch einen Beispielwert für AMD ZeroCore einfügen? Dürfte ja bei allen AMD Karten dann identisch sein.
Wenn du ein Diagramm weiter klickst, siehst du die Messwerte mit ZeroCore Power.

Zur Volllastdarstellung ist es ungünstig einen Titel mit klarer AMD oder Nvidia-Bevorzugung zu wählen, da die Grafikkarten in diesen Titeln nicht nur mehr fps rendern, sondern auch logischwerweise all umfassender ausgelastet werden. Das betrifft nicht nur die GPU, sondern auch die CPU verbaucht hierbei mehr Strom. Der Stromverbrauch ist also entsprechend höher.
Die Argumentation kann ich so nicht nachvollziehen. Ausgelastet sind beide GPUs (soweit erkennbar) gleich, es wird eben einfach nur unterschiedlich shcnell gearbeitet. Wie bereits erwähnt haben wir vor Testbeginn mehrere Spiele überprüft. Die Verhältnisse ändern sich nicht großartig - und Ryse ist da kein Ausreißer. Mehrere Titel zu testen wäre natürlich besser. Doch greift dann irgendwann (leider) das Zeitargument.

nun aber zum eigentlichen Problem mit dem Graphen, wobei... der Graph ist hier unschuldig, es fehlt eine genaue numerische Angabe was für ein Wert da nun im Graph steht.
Ich mein, ihr kauft euch endlich ein FCAT set, nach Jahrelanger abneigung von wegen "Das interessiert doch eh keinen" & "Zu viel Aufwand" und dann gibts nur so ein mikriger Graph? Wo bleiben die Zahlen? die einen 1:1 Vergleich zwischen verschiedenen Grafikkarten und Spielen zulassen?
Frafs zeigt hier mit den 1% und 0.1% Werten bereits einige Beispiele auf was vergleichbar wäre,
Ziemlich interessant finde ich hier auch den Graphen der Verteilung:
Mhm? Unser erster FCAT-Test ist vom 10.7.2013, also nutzen wir das System schon was länger. Und wir haben kein einziges Mal gesagt, dass das "niemanden interessiert". Und was für Zahlen willst du haben? Die genauen Frametimes? Alle? Dann hättest du aber viel Spaß und null Übersicht mit rund 1.000 Werten pro Spiel/Grafikkarte.
Und warum ist der GRaph nicht vergleichbar? Vergleichbar zu was überhaupt? Der Graph gibt die eigentlichen Messwerte so gut/genau wieder wie nur möglich. Das sind die direkten Messwerte.

Ich finde es einfach blöd, dass bei Custom Tests immer wieder andere Spiele zum Verbrauch genutzt werden, womit die Vergleichbarkeit unnötig leidet. Die hätte man mit der selben Basis (Spiel) sehr leicht herstellen können. (Dies geht an CB)
Wir haben jahrelang Anno 2070 benutzt und jetzt eben Ryse. Also dauernd ändern wir da sicher nichts :)
 
Wolfgang schrieb:
Mhm? Unser erster FCAT-Test ist vom 10.7.2013, also nutzen wir das System schon was länger. Und wir haben kein einziges Mal gesagt, dass das "niemanden interessiert". Und was für Zahlen willst du haben? Die genauen Frametimes? Alle? Dann hättest du aber viel Spaß und null Übersicht mit rund 1.000 Werten pro Spiel/Grafikkarte.
Und warum ist der GRaph nicht vergleichbar? Vergleichbar zu was überhaupt? Der Graph gibt die eigentlichen Messwerte so gut/genau wieder wie nur möglich. Das sind die direkten Messwerte.

Naja zwischen ersten Tests und fest im Programm eingebaut ist etwas anderes.. aber das ist nun auch schon bald 2 Jahre her, kann gut sein das meine Erinnerungen nicht mehr ganz so genau sind ;)

Was ich mit der Vergleichbarkeit meine? nun gut, nehmen wir den Graphen als beispiel: Sag mir welche GPU ist besser? die GTX 980 oder die GTX 970?
kbg1tyb-png.491085


Die 980 hat am Anfang mehr spitzen, dafür hat die 970 gegen ende zu den höheren spitz, und was sollen wir nun aus dem Graphen heraus lesen? Beide Grafikkarten sind in etwa gleich gut?

Natürlich war mit Zahlen nicht die genauen Werte gemeint (Hei, die habt ihr sogar, wenn man drauf clickt werden die angezeigt) sondern die Statistische Auswertung des Graphens in Zahlen die als Vergleichswerte zwischen verschiedenen GPU's oder spielen dienen.
Eben solche Werte wie, unter anderem, die 0.1% Zeiten

"1% Time (ms)" = difference time for the worst 1% (best 99%) frames.
"0.1% Time (ms)" = difference time for the worst 0.1% (best 99.9%) frames

Die eine Angabe darüber machen wie glatt ein Graph den wirklich ist, und wie schlimm die vorhandenen Spitzen sind.
 
Habe im Moment noch eine HD 7870 im Rechner, aufgrund der "Ermüdungserscheinungen" in GTA V bzw. (vorraussichtlich) in Witcher 3 steht jetzt der Wechsel auf die Sapphire Radeon R9 290 Tri-X OC [New Edition] an.

Eine GTX 970 wäre sicherlich interessant gewesen, allerdings kostet diese Karte keine 299€ (bei fast gleicher Leistung) und auch die "Speicherproblematik" ab 3,5GB hat mich zur AMD Karte greifen lassen ...
 
Wolfgang schrieb:
Das hat damit nichts zu tun :)
Es gibt doch ehr viele Kommentare, die ordentlich argumentieren. Die liest man gerne - man kann nunmal immer noch etwas verbessern.
Gut zu wissen ;) Wo wir schon dabei sind:

Haldi schrieb:
Natürlich war mit Zahlen nicht die genauen Werte gemeint (Hei, die habt ihr sogar, wenn man drauf clickt werden die angezeigt) sondern die Statistische Auswertung des Graphens in Zahlen die als Vergleichswerte zwischen verschiedenen GPU's oder spielen dienen.
Eben solche Werte wie, unter anderem, die 0.1% Zeiten
Ich finde auch, dass man die Spitzen noch als eine Art statischen Wert ausgeben könnte.

Aber ich kann auch nachvollziehen warum dies eventuell noch nicht der Fall ist. Denn einen Wert zu finden der hier objektiv was aussagt, ist schwierig. Eventuell wird Vergleichbarkeit suggeriert wo keine ist.
 
@Wolfgang

Naja, ich sehe in den meisten Tests Crysis 3, nich Anno 2070. Und oftmals auch garkeine Angabe ;)

@Traxton

richtig, dass mit der R9 290X in den ersten 2 Grafiken ist mir noch nicht so aufgefallen.

http://ht4u.net/reviews/2015/watt_v...nd_nvidia_gtx_980_im_effizienztest/index7.php

sind ja doch schon auch etwa 40-50W im Schnitt, bei der GTX 970 entsprechend mehr. Etwas mehr Last auf dem OC i7 4770k und schon ergeben die recht hohen Gesamtsystem Differenzen bei CD wieder Sinn.

Mich stört vor allem die fehlende Angabe bei vielen Last Tests.

zB https://www.computerbase.de/2014-10/nvidia-geforce-gtx-970-test-roundup-vergleich/5/

Der Test gibt mir am meisten Rätsel auf. Für was steht die R9 290X (max) hier? Die braucht da nämlich mit 383W relativ moderat Saft (im Vergleich zu den anderen Tests bei CB im Ueber Modus) und wiederum recht viel für eine R9 290X Referenz die man sonst so bei CB findet.

Bei CB sind es hier:
https://www.computerbase.de/2015-01/nvidia-geforce-gtx-960-im-test/9/#abschnitt_leistungsaufnahme
Anno 2070 -> 339W

https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/10/
Crysis 3 im Ueber Mode -> 423W

... und in diesem GTX 970 Roundup diese komischen 383 (Max). Namenlos. Alles etwas dubios und neblig.

Zur wirklichen Vergleichbarkeit fehlen da wiederum die Crysis 3 Tests zur GTX 970er. Es ist schon etwas chaotisch aber wie gesagt ist teils gar die Streuuung im Modell recht hoch.

Dennoch, der Unterschied zwischen GTX 970 und der R9 290X bleibt auch bei Custom Modellen recht hoch, gerade auch wenn man die CPU OC. Ich denke die zusätzliche Last auf CPU und die einhergehende Leistunsgaufnahme macht schnell 20-40W aus - wie vermutlich auch hier bei CB. Die Grafikkarte hier alleine anzusehen ist recht sinnbefreit.

100W Unterschied im Gesamtsystem dürfte durchaus quasi normal sein, bei CB geht der Unterschied ja bis rauf auf 150W. Wie ich finde recht viel (war mir bisher garnicht so bewusst). Mal sehen was AMD bei Fiji reißt, ob man zb auch die hochfreqzente Laststeuerung wie bei Maxwell implementiert.
 
Zuletzt bearbeitet:
Vielen Dank Wolfgang,
dass du mir da mal entgegengehalten hast.

Wahrscheinlich ist es mir einfach nicht aufgefallen wie groß die Zeitspannen mittlerweile sind und dabei immer noch die gleichen Grafikkartenchips vorhanden sind. Das Datum fällt bei der Suche manchmal einfach nicht mehr auf.
Also der erste Test mit Anno 2070 war am 02.08.14.
Der am 05.08.14 verwendete aber wieder Crysis 3. (das immerhin 10 Monate Basis war)
Ganz geschlagen geben muss ich mich also nicht. :D

Bleibt die Frage warum Crysis 3 als Basis nicht bis zuletzt beibehalten wurde. Schließlich wurde Crysis 3 doch ohnehin performancetechnisch getestet (Titan X Test). Gab es also Gründe dafür Anno 2070 9 Monate als Basis zu nehmen anstatt Crysis 3?

Damals war das wahrscheinlich einfach nicht so auffallend, da die Zeitspannen zu neuen Architekturen wesentlich kleiner war. Momentan macht es leider den Vergleich der aktuellen Custom Karten von AMD und NVidia, die auch von euch getestet wurden, beim Verbrauch schwer.
Ich hoffe einfach mal, dass Ryse jetzt als Basis bleibt, bis es rausfliegt.

Gruß
Traxton
 
Zurück
Oben