Test AMD Radeon R7 260X, R9 270X und 280X im Test

Die R9 270X in guter Ausführung für 170€+ oder eine 7950 OC mit wahrs. besseren OC Potential für 189€...glaub da nehm ich die 7950. Wie kommt CB darauf, dass die 270X ne bessere PL hat?
 
Beim Zubehör steht "1 x Mini-DP auf DisplayPort", mich würde mal interessieren, ob das nur ein Adapter ist oder gleich ein Kabel.
 
Bumblebee2012 schrieb:
Die R9 270X in guter Ausführung für 170€+ oder eine 7950 OC mit wahrs. besseren OC Potential für 189€...glaub da nehm ich die 7950. Wie kommt CB darauf, dass die 270X ne bessere PL hat?

Die haben eindeutig das OC nicht miteinberechnet. Ohne OC ist wirklich eine bessere Leistung pro Euro geboten.
 
hmm..die Vapor-X gefällt.
Bei 250€ könnte ich eventuell schwach werden. ;)
 
ob das nur ein Adapter ist oder gleich ein Kabel
schon mal gesehen, dass einer Graka ein Kabel beilag - ich nicht, aber Adapter liegen fast jeder Karte bei, wenn man nicht gerade "lite retail" kauft!
 
Warum haben die Karten kein HDMI 2.0? Wenn ich so ne Karte 3 Jahre habe, kann es gut sein, das ich mal einen 4k Fernseher mein Eigen nenne. Sowas von gar nicht zukunftssicher!
 
Herdware schrieb:
Ich bin deshalb ziemlich skeptisch, was TrueAudio angeht. Es scheint mir eher so zu sein, dass die Spielentwickler einfach nur keine Priorität auf den Sound gelegt haben. (Was wohl auch nicht ganz realitätsfremd ist, denn die meisten Gamer legen da auch keinen Wert drauf und lassen sich von billigen Brüllwürfeln und Gamer-Headsets beschallen.)

eben, weniger die Leistung fehlte, als ein einheitliches Konzept / eine API für sowas. Welcher Gaming Publisher steckt schon viel Manpower in die Entwicklung einer Soundengine die etwa 0,5% der Spieler ausfahren können da sie auch nen anständiges Hifi Set besitzen. Der Aufwand für den Gaming Entwickler muss klein werden, sodass sich die Sache auch lohnt und ein Mehrwert daraus entsteht ohne viel Ressourcen zu fressen.

Ich erwarte nicht so viel von diesen neuen Sound Geschichten...

Andere Frage, wie schließe ich den meine AMD / Nvidia Karte denn an meine 2 Monitore an + an meinen AVR um so Sound über HDMI zu haben? Bisher macht das seit Jahren die Xfi digital.
Problem ist halt noch, dass die Dell Bildschirme nicht mit meiner HD6950 über DP können. Endet in einem Bootloop. =/
 
Ich verstehe die Leute hier nicht, ganz und gar nicht.

Nur mal so als Beispiel:

Der Vorgänger der R9 280X ist die 7870. Der Vorgänger wurde damals beim Release für 350€ verkauft, die R9 280X gibt es bereits für 260€. Die Leistung im Gegensatz zur 7870 hat auch massiv zugenommen.

Und dann kommen hier die Leute auf die Idee neues Mainstream mit altem High-End zu vergleichen. Verstehe einer diese Logik. Dann kauft doch das alte High-End-Produkt zum Abverkaufspreis aber hört mit diesen sinnlosen Vergleichen a "Mimimi, die R9 280X ist langsamer als die 7970 GHz." auf.

Was war denn bei Nvidia?
Die GTX680 wurde zur GTX770, die GTX670 zur GTX760 und nur die High-End Modelle basierten auf nem "neuen" Chip.

Und AMD scheint ja bei der 260er auch einen Chip der ausgelassenen South Islands Generation eingebaut zu haben, da sie sämtliche Features unterstützt.

Also wartet mal an was der Nachfolger der 7970 GHz (R9 290X) abliefert und dann könnt ihr immer noch weiter weinen.
 
So ist es, Held213.
 
SKu schrieb:
Ich verstehe die Leute hier nicht, ganz und gar nicht.

Der Vorgänger der R9 280X ist die 7870. Der Vorgänger wurde damals beim Release für 350€ verkauft, die R9 280X gibt es bereits für 260€. Die Leistung im Gegensatz zur 7870 hat auch massiv zugenommen.

Und dann kommen hier die Leute auf die Idee neues Mainstream mit altem High-End zu vergleichen. Verstehe einer diese Logik. Dann kauft doch das alte High-End-Produkt zum Abverkaufspreis aber hört mit diesen sinnlosen Vergleichen a "Mimimi, die R9 280X ist langsamer als die 7970 GHz." auf.
Das ist ja der ganze Irrsinn der Diskussion, wo Leute die Karten nach den Preis kategorisieren und dann die Leistung & Preis der Karte entsprechend der Kategorie bewerten.

Bevor der R9 280X kam, fand ein starker Preisverfall statt. Und die neuen Karten orientieren sich nach dem neuen Preis-Leistung-Verhältnis. Wenn es was zu beschwären gibt, sollte man da zuerst auf das Preis-Leistungsverhältnis der Konkurrenz schauen sowie der Die-Größen entsprechend der Fertigung (Qualität & Quantität) und dann erst mit den richtigen Blick zum Vorgänger. Und eben nicht nach irgendwelchen philosofierte Eigendefinitionen.
 
Hallo,

ich habe mal eine Frage, die ich mir nicht selber beantworten kann.

Mittlerweile gibt es schon recht viele Testberichte, so auch zum Ableger von Gigabyte der 280X ...
snu, nun wurde dort ebenfalls Strom gemessen und die Ergebnisse unterscheiden sie dermaßen krass von denen hier, dass ich mir nicht erklären kann wie es zustande kommt. Gemeint sind nicht die tatsächlichen Werte sondern die Differenz.

Typ idle load
GIGABYTE R9 280X 139w 314w 35°C 61°C

GeForce GTX 770 OC 148w 318w 33°C 74°C

GeForce GTX 760 OC 146w 286w 34°C 68°C

Die 280X rangiert hier auf teilsweise niedrigerem Niveau als die GTX 760 im Idle und auf gleichen Niveau mit der 770 im Load ... versteh ich jetzt nicht die Werte. Für mich ist ComputerBase grundsätzlich die Referenz, aber so stark abweichende Werte bringen mich etwas ins Grübeln.

Hier im Test würde die 280X als absolutes Strommonster dargestellt. Unabhängig davon, ob der andere Testbericht (namhafte englische Seite) nun mit oder ohne Bildschirme und sowas getestet wurde, dürften die Differenz nicht so stark auseinander gehen.

Hat jemand einen Einfall?
 
Das mit den Verbrauchsmessungen ist schon eine komplizierte Sache.

Da spiele viele Faktoren mit rein, auch weil praktisch immer das Komplettsystem gemessen wird.

Wie wird z.B. die Last erzeugt? Wenn mit einem bestimmten Spiel, wie viel Last erzeugt das auf der GPU und wie viel auf der CPU oder z.B. auch die Festplatte usw.?
Welche CPU steckt im Testsystem? Wurden Energiesparoptionen der CPU aktiviert oder nicht?
usw. usw. ...

Ergebnisse von verschiedenen Reviewern kann man also schon mal fast gar nicht vergleichen. Und es kann auch durchaus sein, dass zwei Reviewer grundsätzlich korrekt messen, aber trotzdem zu sehr unterschiedlichen Ergebnissen kommen, auch innerhalb ihrer eigenen Messreihen. Eben z.B., weil die CPU und andere Systemkomponenten unterschiedlich stark mit rein spielen.
 
selbst, wenn nur die graka gemessen wird (was ein paar seiten machen), ergeben sich teils deutliche unterschiede.

für mich hängt das entscheidend mit der erzeugten last zusammen.
100% auslastung in spiel a erzeugt einen anderen verbrauch wie 100% auslastung in spiel b.
auch die relation amd vs. nv kann man damit beeinflussen.
d.h. man kann sich ein spiel raussuchen, daß amd oder nv bevorzugt, obwohl es immer 100% last sind.

um es mal am bespiel der cpu zu zeigen, was ich meine:
cinebench erzeugt 100% last auf allen kernen, prime ebenso.
der verbrauch bei prime ist aber signifikant höher. gemessen an meinem system.

ich möchte gern glauben, daß cb sich ein "neutrales" spiel raussucht - bin mir da aber nicht ganz sicher.

wegen dieser problematik nehme ich für mich 3dcenter als referenz.
dort wird ein mittelwert aus verschiedenen testseiten gebildet, das nimmt den ausreißern (ob nach oben oder unten) die spitze.
 
Zuletzt bearbeitet:
Naja... ich bin ja der Meinung das ein modifiziertes MB das nur die GPU misst das beste wäre, aber ich kann voll und ganz verstehen wieso man diesen riesen Aufwand nicht eingehen will.

Aber was ich nicht kapiere ist wieso "nur" Crysis 3 und Assassins Creed 3 getestet wird. Man könnte doch wirklich bei jedem Benchmark der getan wird ein Auge auf den Stromverbrauch werfen, oder ?
Damit könnte man am ende der Benchmarks ein "Durchschnittsverbrauch in Games" ausrechnen der "fairer" wäre.
Oder habt ihr eure Benchmark Suite so automatifiziert das ihr die über Nacht laufen lassen könnt ohne das jemand dabei sein muss? ^^
 
Danke für die Hinweisen. Für meinen Fall gehe ich daher mal davon aus, dass die krasse Differenz von rund 100Wh ein absoluter Ausreißer ist und sich im Praxistest so nicht wieder findet.

Obwohl ich eher NV-Fan(-Boy :D) bin, hat es mir die R9 280X doch sehr angetan.

Ich habe aktuell eine GTX 660 und bin auf 2560x umgestiegen. Spiele die vorher gut liefen, kommen jetzt ganz schön ins Stocken und die R8 kommt gerade zum richtigen Zeitpunkt. Mit 260€ und satten 3 Spielen, die es dazu gibt, ist das ein verdammt verlockendes Angebot. Die GTX760 kriegt man zwar für 40€ weniger und es gibt Batman Arkham Origins dazu, aber die R9 hat wirklich wesentlich mehr Power und die 2 zusätzlichen Spiele gleichen die geringe Preis-Differenz eindeutig aus. Zumal man die Keys ja auch verticken kann. BF4 interessiert mich z.B. weniger ...
 
Herdware schrieb:
Das mit den Verbrauchsmessungen ist schon eine komplizierte Sache.

Da spiele viele Faktoren mit rein, auch weil praktisch immer das Komplettsystem gemessen wird.

Wie wird z.B. die Last erzeugt? Wenn mit einem bestimmten Spiel, wie viel Last erzeugt das auf der GPU und wie viel auf der CPU oder z.B. auch die Festplatte usw.?
Welche CPU steckt im Testsystem? Wurden Energiesparoptionen der CPU aktiviert oder nicht?
usw. usw. ...

Ergebnisse von verschiedenen Reviewern kann man also schon mal fast gar nicht vergleichen. Und es kann auch durchaus sein, dass zwei Reviewer grundsätzlich korrekt messen, aber trotzdem zu sehr unterschiedlichen Ergebnissen kommen, auch innerhalb ihrer eigenen Messreihen. Eben z.B., weil die CPU und andere Systemkomponenten unterschiedlich stark mit rein spielen.

Selbst wenn gewissen Einstellungen die CPU betreffend i usw in den unterschiedlichen TEsts abweichen, müßte die ermittelte Differenz der Grafikkarten in den jeweiligen TEsts ziemlich eng beieinander liegen, denn egal was die Tester an Festplatten, Energiespareinstellungen usw nutzen, der direkte Vergleich innerhalb einer Testreihe bietet dennoch die gleichen Bedinungen. Wird z.b ein TEst mit einem 3930 einmal mit der 280x und einmal mit der 770 durchgeführt, und führt dieses zu 50 Watt Unterschied beruht diese Differenz einzig und allein auf der Grafikkarte und nicht auf weiteren Systemeinflüssen. Die Bedinungen waren für beide KArten die gleichen.
Ermittelt nun ein anderer TEst auf anderer Plattform 70 Watt Differenz, basiert dieser Unterschied ebenso nur auf der verwendeten Grafikkarte. Einzig im GEsamtverbrauch spielen die Plattform und die jeweiligen TEstbedingungen eine Rolle, nicht jedoch bei der Differenz der Grafikkarten in den einzelnen Tests. hierbei kommt es einzig und allein auf die getestete Software an.
Sinnvoll wäre es auf jeden Fall mehrere Anwendungen zu testen und sich nciht nur auf eine festzulegen, denn eines ist auffällig. AMD schneidet hier auf CB besonders schlecht ab. Ein blick ins Hardwareluxx Forum hinterläßt einen ganz anderen Eindruck.
 
Zuletzt bearbeitet:
Zurück
Oben