Test Radeon R9 380X im Test: Tonga im Vollausbau von Asus und Sapphire

Sahit schrieb:
Bei den Testergebnissen fragt man sich wirklich warum die R9 380X nicht das mögliche 384 Bit Speicherinterface bekommen hat. Damit schießt sich AMD doch selber ins Knie weil entweder ist der Preisunterschied zwischen beiden so gering das sich keiner die R9 380 mehr kauft oder der Preisunterschied ist so hoch das sich kein mensch die R9 380X kauft.
Eventuell kommt ja ne R9 385/X dann mit 384 Bit :D
Naja was mich noch Interessieren würde wie viel OC kann man noch auf die Karte geben? Von den Temps her ist ja bei beiden Modellen noch relativ viel Platz nach oben.

Naja, ob die 384 Bit Speicheranbindung es herausgerissen hätte ist die Frage und wenn es heisst, dass OC-mässig auch nicht viel möglich ist (siehe Tom's Hardware), wobei wie auch hier keine 6+8-Pin OC Karte mit 380X Chip getestet wurde, dann scheint Tonga wohl doch nicht soviel her zu geben wie von vielen hier (inklusive meiner Wenigkeit) erwartet wurde (ca. 15% mehr Leistung als bei der 380 bzw. fast mittig zwischen 380 und 390). Ja, sie schießen sich vor dem lukrativen Weihnachtsgeschäfts selber ins Knie bzw. werden diejenigen enttäuschen, die halbwegs blind zugreifen oder sich die Karte unterjubeln lassen. Ob Treiber das jetzige, für mich auch sehr enttäuschende Bild aufhübschen werden können, wage ich ein wenig zu bezweifeln und ich denke, dass für den fast schon unverschämten Einführungspreis (im Vergleich zu den 380er und 390er Karten und sogar der nVidia Konkurrenz) man weitaus mehr als Kunde hätte erwarten können. Dann heisst es wohl bis zur (über-)nächsten Generation zu warten, bis das Preis-Leistungsverhältnis wieder stimmt und zu hoffen, dass 2GB noch lange ausreichen werden um neuere Titel (nicht auf Maximaleinstellungen, aber trotzdem einigermaßen vernünftig) spielen zu können.

Das Heranziehen von Anno 2205 als Benchmark-Testspiel, welches bekanntermaßen miserabel programmiert und einseitig auf nVidia Maxwell Karten zugeschnitten/optimiert ist, im Test zu verwenden halte ich für absolut unsinnig, CB, da hätte ein ebenso aktueller Titel, der für AMD (und nVidia Kepler) Kartenbesitzer wohl eher zum Kauf in Frage kommen wird, weitaus mehr Sinn gemacht. Ein weitaus besserer Kandidat, der ziemlich gut/vorbildlich zum Marktstart programmiert zu sein scheint (siehe PCGH), wäre etwa Star Wars Battlefront, zumal letzterer Titel sich insgesamt auch weitaus besser verkaufen dürfte als Anno 2205 (und Sperrung des Origin Accounts wegen zu vieler Hardwarewechsel ist auch kein Grund bzw. eine schwache Ausrede, denn dann legt man einfach mehr Accounts bei Origin an ;) ) und auch im Spielebundle bei Kauf von AMD Karten geführt wird.
 
Zuletzt bearbeitet:
Schade, doch so weit von der 390 weg, dann wirds doch nichts mit dem Upgrade, wart ich halt auf die 4xx Generation.

Die Verbesserung des Verbrauchs ist zwar enorm und gut, aber auch schon lange überfällig.


Vor fast 2 Jahren ne wirklich leise MSI 270X 2G für ~160 Euro gekauft. Eine 380X hat ca. 30 % Mehrleistung und kostet 260 Euro ????

Damals hat ne 280X ca. ~230 gekostet, die Mehrleistung und vor allem der Verbrauch waren mir aber die lumpigen 70 Euro nicht wert.
 
Zuletzt bearbeitet von einem Moderator:
Nach dem Test bleibt meine 7970 erst mal im Rechner.

Würde sie mehr Richtung 390er gehen, hätte ich es mir Überlegt.

Aber so fehlt der Anreiz für einen Neukauf.
 
@tic-tac-toe-x-o jein, aber wieso sollte Nvidia den Chip künstlich beschneiden wenn sie ihn teurer als GTX970 verkaufen können? Ich denke nicht dass sie viele kaputte GTX970 chips haben da die 28nm Fertigung ja sehr ausgereift ist. Würde ich als NVIDIA nicht tun nur damit das Preisgefüge "schön" ausschaut? Sie verkaufen auch so genug.
 
Das die 380x auf dx12 ausgelegt ist sieht man auch hier: http://techreport.com/review/29316/amd-radeon-r9-380x-graphics-card-reviewed/8
Performt ganz gut in fable legends und Ashes.

Interessant ist auch der Test bei Tomshardware und Ashes. Was sagen denn die CPU Aufrufe den aus? Die Erklärung bleibt man dem Unwrfahrenem Leser schuldig.

Wie ist das eigentlich bei Ashes Benchmark. Ist der für alle gpus gleich? Oder kommen mehr Einheiten aufs Feld je stärker die gpu?
 
Zuletzt bearbeitet:
Ach, jetzt versteh ich. Ja gut, so ganz Unrecht scheinst du da nicht zu haben. Stellt sich nur die Frage ob das auch mit der Stückzahl gut gehen kann...
 
Der Preis passt leider aktuell noch gar nicht zu Leistung. Für 230 hätte ich das Gefühl, etwas gutes gekauft zu haben. So würde ich dann aktuell eher darauf spekulieren beim Cybermonday vllt. eine GTX 970 für 280 oder 290 Euro zu bekommen.

Oder ich sage dann halt, die Mehrleistung zur 380 ist kaum zu erkennen, da zahle ich bei gutem Angebot lieber 200€ und investiere das Restgeld bei der nächsten Gen.
 
tic-tac-toe-x-o schrieb:
Nö, wieso. 1280 Shader, volle/ganze 3GB (kein Zusammenrechnen-nonsense).

Oder halt 1472 Shader aber dafür 3.25GB was wohl mit 4GB verkauft werden könnte... Das denk ich jedoch eher weniger.

Die GTX 960 hat 1024.

Und die Maxwell Architektur skaliert sehr gut, also ist das nicht mal so ganz abwegig, so ne 1280 Shader Karte. Ausser halt, dass man heftig an Margen verliert. Aber davon abgesehen, die Verkäufe von 970 und 960 Karten, selbiges für 380 und 390 müssten heute eh schon abgeklungen sein, so könnte man mit ne 960Ti nochmal ein paar mehr Verkäufe rausreissen (oder wie manche sagen würden: Melken bevor man mit Pascal was neues liefert.)

Aber Nvidia weiss bestimmt am besten, wie man den Gewinn maximieren kann und ob sich so ne Karte wirklich lohnt.

Nunja ich bin gespannt wie die Treiberpflege mit Pascal aussieht.. Kepler zeigt es deutlich, und so weit sind Maxwell und Kepler architektonisch nicht entfernt. Ich sehe hier eher bei der 960 das Ergebnis gescheiter Treiber. Man sieht ja die wesentlich stärkere 770 skaliert mieser als die 960 was eben auch Treiberfaulheit hindeutet.. Dennoch glaube ich auch nicht dass eine 960Ti kommen wird. Man macht sich wohl kaum die Marge der 970 kaputt ;)

@ All Weiner und Hater hier:
AMD hat eine Karte gebracht die zwischen 380 und 390 liegt.. Ende aus und die Karte ist sehr gut Platziert, wenn man zur 960 und 970 schielt. Dummerweise wären 229€ UVP wohl interessanter gewesen.. Für Leute mit einer HD 7000 oder neuer lohnt es nicht.. Ich habe eine 470 und ich werde nun mal sehen was als Übergang reinkommt.. Man sieht ganz krass, dass das halbe Backend eben da einen strich durch die Rechnung macht.. (Halbes backend einer Hawaii) AMD baut gute Karten aber auch Tonga ist kein 28nm Design.. Wobei wenn ich dann dran denken muss wie Maxwell in 20nm aussähe dann wird mir eh übel ;)
Insofern hat AMD ne Karte gebracht die eben gut als Gegenpart zur 960 passt, ein bissl mehr Rohleistung zur 970 wäre Wünschenswert gewesen. Aber bei dem Budget was AMD hat, wundert mich auch das nicht mehr.
Für mich wirds wohl ne gebrauchte 7950 bis zum 16nm launch.
 
Chismon schrieb:
Das Heranziehen von Anno 2205 als Benchmark-Testspiel, welches bekanntermaßen miserabel programmiert und einseitig auf nVidia Maxwell Karten zugeschnitten/optimiert ist, im Test zu verwenden halte ich für absolut unsinnig, CB, da hätte ein ebenso aktueller Titel, der für AMD (und nVidia Kepler) Kartenbesitzer wohl eher zum Kauf in Frage kommen wird, weitaus mehr Sinn gemacht. Ein weitaus besserer Kandidat, der ziemlich gut/vorbildlich zum Marktstart programmiert zu sein scheint (siehe PCGH), wäre etwa Star Wars Battlefront, zumal letzterer Titel sich insgesamt auch weitaus besser verkaufen dürfte als Anno 2205 (und Sperrung des Origin Accounts wegen zu vieler Hardwarewechsel ist auch kein Grund bzw. eine schwache Ausrede, denn dann legt man einfach mehr Accounts bei Origin an ;) ) und auch im Spielebundle bei Kauf von AMD Karten geführt wird.

Soso, Anno2205 wäre miserabel programmiert, aber Battlefront wäre der Weisheit letzter Schluss?!
Wieso eigentlich? Weil AMD-Karten in einem AMD gekauften Spiel, dass vom Entwickler noch mit "AMD Karten sind die besten Karten für unser Spiel" beworben wird, besser darstehen? Das ist dein Argument? :lol:

Anno2205 ist der grafische Maßstab im Strategiegenre. Ansonsten kann man auch auf einem miserablen Multiplayer-Shooter ala Battlefront verzichten.
 
Der Last-Verbrauch im Verhältnis zur Leistung ist ja jenseits von Gut und Böse.
Da ist die Konkurrenz, egal ob man 960, 970 oder 980 betrachtet, meilenweit voraus.

Evtl. sind alle energieeffizienten Chips der 380X in die (schon lange verfügbare) Notebook-Variante gewandert und man hat gezielt über Monate die "schlechten" Chips gesammelt, um die nun als Desktop-Versionen zu verwerten?

Zum Schluss noch eine kleine Kritik an CB: Warum wird stets nur EIN EINZIGES Spiel für den Lastverbrauch herangezogen? Der Durchschnitt aus allen Spielen wäre bedeutend aussagekräftiger und würde euch auch nicht der Vorwurf eine möglichen Manipulation einhandeln. Wer sagt denn, dass eine Karte in EINEM BESTIMMTEN Spiel besonders viel verbraucht, aber in anderen deutlich weniger?

LG, fin000
 
Weit über 250 Euro für eine Karte die deutlich langsamer ist als z.B. eine "alte" GTX780?
Die habe ich z.B. im Abverkauf anfangs des Jahres neu für 250€ glatt bekommen.

Da stimmt doch was nicht, was soll das denn? :/
 
Traumzauberbaum schrieb:
a) In 3 Minuten den ganzen Test gelesen? WoW. I don't think so.

b) AMD Karten in FHD nur testen? Sehr fair. Was mich zu c) bringt...

c) Was ist bloß los mit CB -> Ich habe diese Page zur Hauptanlaufstelle für HW-Infos erkoren, weil CB einfach und trotzdem sachlich korrekt komplexe Strukturen erklären konnte. Es ging nie um "wir müssen erster sein". Es ging immer um Qualität und Korrektheit, statt um Quantität u. Releasedatum. Ich bin von diesem "Test" SCHWER enttäuscht. (nein, ich möchte jetzt nicht auf dem CB Pro Kram rum haten. Das ist ein anderes Thema)

Ich schließe mich diesem Kommentar vollinhaltlich an!
 
Klingt doch ganz gut, die GTX 960 ist im Schnitt um 12% geschlagen und wenn der Preis sich um die 230-250€ einpendelt ist die Karte wohl eine gute Empfehlung in dem Segment. Stromverbrauch ist mal wieder etwas höher, aber sie ist etwas schneller als eine 280X, bietet mehr RAM, zieht weniger Strom, ist leiser und kostet gleich viel. Höre zwar schon wieder die Stromnörgler aus den Löchern kriechen, aber was juckt es mich das einige meiner seltenen Spielsessions n paar Watt mehr fressen ^^
 
Hm, bin auch enttäuscht. Also war die GTX 960 4GB, die ich letzte Woche ins Haus geholt habe, doch keine schlechte Wahl, wenn man sich den Stromverbrauch ansieht. Da verzichte ich auch gerne auf die 10% Leistung. Hätte die 380X mehr zu einem vergleichbaren Preis geleistet, wäre die 960er evtl. doch zurückgewandert ...
 
Bei jedem Test die gleichen Kommentare ... als ob man unbedingt diese kleine Leistungsnische besetzen muss.
Wen die Karte enttäuscht der soll einfach 'ne karte drüber oder drunter kaufen und hat dann eben 'ne hand Voll fps mehr oder weniger ...
 
Wolfsrabe schrieb:
Das war ein Eigenttor. Hättest du den Text gelesen, würdest du wissen, daß CB aus Urlaubsgründen den Test kurzgehalten hat und Tests höher als FHD noch folgen.

Nein ist es nicht (Eigentor) - er hat ja nur geschrieben, dass sie dann, anstatt als 'Erstes Magazin' zu berichten, dann eben gewartet hätten - 'alle Auflösungen' getestet hätten UND DANN ihren Testbericht veröffentlicht hätten.

Denn so wie wir die Leute aus dem Forum kennen und/ oder einschätzen ist dieser Bericht der der im Gedächtnis hängenbleiben wird und nachträgliche - womöglich positivere Ergebnisse in höheren Auflösungen - dann nicht mehr greifen werden, da die Karte hier bei nur FullHD Auflösung ja nur mittelprächtig angeschnitten hat. Alles klar?
 
lexus77 schrieb:
womöglich positivere Ergebnisse in höheren Auflösungen - dann nicht mehr greifen werden, da die Karte hier bei nur FullHD Auflösung ja nur mittelprächtig angeschnitten hat. Alles klar?
wer ernsthaft in 1440p zocken will wird sich wohl eher mindestens eine leistungsklasse höher umsehen, behaupte ich jetzt mal.
 
Sontin schrieb:
Soso, Anno2205 wäre miserabel programmiert, aber Battlefront wäre der Weisheit letzter Schluss?!
Wieso eigentlich? Weil AMD-Karten in einem AMD gekauften Spiel, dass vom Entwickler noch mit "AMD Karten sind die besten Karten für unser Spiel" beworben wird, besser darstehen? Das ist dein Argument? :lol:

Anno2205 ist der grafische Maßstab im Strategiegenre. Ansonsten kann man auch auf einem miserablen Multiplayer-Shooter ala Battlefront verzichten.

Sorry Anno IST Mies Programmiert.. Strategiespiele fressen CPUs zum Frühstück und nicht GPUs ;) Ich sag nur halbe Bildframerate bei 900k, das ist indiskutabel, da hier die GPU ins Limit rennt. Schau dir mal Cities Skylines an und dann ne Megacity, das macht Spaß für die CPU ;) oder Trainfever (wobei das ist schlecht multicored) GPU Leistung ist in Strategiespielen soo wichtig wie COD Shootern die Story.. Und ja dagegen IST Battlefield gradezu perfekt Programmiert.. Auch wenn EA keine Spiele kann, Shooter optimieren können Sie.
Der bessere Bench wäre Anno 2170 (Anno ARRC) gewesen.. Da sieht man mal was CPU und GPU bei Anno ausmachen.
 

Ähnliche Themen

Zurück
Oben