Test Radeon R9 380X im Test: Tonga im Vollausbau von Asus und Sapphire

Wir haben einen Nachbarn, der hat im Treppenhaus jede zweite Lampe ihrer Leuchtmittel beraubt, nur weil ihm sein Nebenkostenanteil an der Hausbeleuchtung zu hoch erschien.
Was je nach Leuchtsituation sogar verboten ist, wegen Unfallgefahr und das Treppenhaus ist außerdem ein Flucht- und Rettungsweg (darum darf im Mehrfamilienhaus z.b. nachts die Haustür nicht abgeschlossen werden (ins Schloss fallen ja, aber man muss sie von Innen ohne Schlüssel öffnen können, da man diesen in der brennenden Wohnung vergessen kann)).

Edit: Der "FormatC" von THG?
 
Zuletzt bearbeitet:
pipip schrieb:
Im CB Bench ist die 960 OC, Standard OC Werte der 960 GTX Karten immer noch im Performance Index minimal langsamer. Übertaktete R9 380 kommen im Test nicht mal vor. Somit kannst du deine Aussage mal mit Tests untermauern um das Gegenteil zu belegen.
https://www.computerbase.de/2015-08...#abschnitt_tests_in_1920__1080_und_2560__1440

Die GTX 960 OC ist hier im Mittel exakt genau so schnell wie die R9 380.
Und je nach Spiel ist sie eben langsamer oder schneller.
pipip schrieb:
Und dann schau mal Tests an und du wirst sehen, dass die 380 überall minimal schneller ist.
Stimmt daher nicht.

pipip schrieb:
Dazu kommt, dass ein sehr kleiner Anteil der Leute Grafikkarte OC und des weiteren auch nicht jede 960 GTX super OC lässt.
Also erstmal ist es irrelevant, wie viele Leute übertakten, da ich explizit schrieb "Wenn man also OC betreibt ...".
Davon abgesehen habe ich aus meiner bereits OC GTX 960 noch mal 13% mehr Leistung rausgeholt, und das ohne Spannungserhöhung.
Ist somit in den allermeisten Spielen deutlich vor der R9 380.

Und tendenziell lassen sich die GTX 960 Karten eben besser übertakten als die R9 380 Karten.
Ich hatte da mal in einem Forum eine Übersicht gesehen. Das waren bei der 380 eher so im 5% Bereich, während bei GTX 960 10-15% normal sind.

pipip schrieb:
Auf höheren Auflösungen kommt es dann im Vergleich bei der 960 GTX dann sogar zu Limitierungen dank des 128 Bit Speicherinterface ect. Da bringt dir das beste OC nichts.
Hast du dazu mal ein paar gute Benches? Ich versuche schon seit Wochen, da mal verlässliche Infos zu bekommen. Wird ja immer wieder behauptet, daß das ein Flaschenhals sei. Aber vernünftige Tests dazu sind mir nicht bekannt.
(Den VRAM habe ich allerdings auch um knapp über 13% übertaktet.)

Naja, schlussendlich wird's mit 1440p eh knapp. Bei aktuellen Spielen kannste das mit GTX 960 / R9 380 eh knicken, wenn du auf all die schönen Effekte nicht verzichten willst. Das sind dann einfach keine stabilen 60 mehr. Für sowas holt man sich dann eh ne R9 390.
 
DocWindows schrieb:
Weiß gar nicht warum so gegen das Stromargument angegangen wird. Wenn ich von einem Gerät die Leistung X für 150W kriege und die gleiche Leistung von einem anderen Gerät für 100W, dann nehme ich fast schon selbstverständlich das mit 100W. Wozu mehr Energie aufwenden um das gleiche Ergebnis zu erhalten?

Tja, aber bei unterschiedlichen Kosten kannste dann auch rechnen, und je nachdem wie man rechnet ist das eine oder andere besser, so einfach. Ich hab mir zB vor ein paar Jahren einen 50" Plasma geholt, LCD hätte in der Größe 500-600€ mehr gekostet. Im Gegensatz zu meinem Rechner läuft der jeden Tag und frisst Strom, bei einem Mehrverbrauch von vllt 100-150 Watt zu damaligen LCDs. Gehe ich jetzt nach der Logik vieler hier im Forum, ist der per se schlecht, frisst ja mehr Strom. Sage ich jetzt aber: kwh 25 Cents, 0,15 kw mehr im Verbrauch, 500€ -> 500/0.25 = 2000, 2000/0,15 = 13333h = 4 1/2 Jahre bei 8h täglicher Nutzung.

Und da habe ich dann lachenden Auges gesagt: wenn das Ding wirklich 4 1/2 Jahre bei 8h täglicher Nutzung durchhält, darf es danach wegen mir auch mehr Strom verbrauchen, dass ein 'Billigfernseher' für 580€ (oder so) so lange hält, ist nämlich nicht geplant ;)

Zum Thema zurück: wie lange man zocken kann, bis sich das über Stromkosten mit NVidia gleichtut, muss jeder selbst ausrechnen. Ich zocke vielleicht zwei mal die Woche jeweils 4 Stunden wenns ganz gut läuft, sprich mir wäre der Mehrverbrauch evtl hupe, wenn man einen Schnapper macht fährt man mit der 380x vllt sogar günstiger. Man muss halt immer Kaufpreis, Leistung und Nutzung in Relation setzen, und wie jeder das Ding nutzt ist seine Sache, da können hier noch 30 Leute mit imaginären Nutzungsstunden kommen, da wird mein Usecase kaum dabei sein.
 
ampre schrieb:
Also wenn man mal rechnet 100 Watt für ein Stunde Zocken kostet gut 2,5 cent. Man spielt zirka 3 Stunden am Tag und meist 200 Tage im Jahr.( Man trifft ja auch noch Feinde und hat Urlaub)
Als Diskussionsthema finde ich diese Verbrauchsgeschichte recht öde. Die Maxwells sind nun mal effizienter und damit ist auch schon alles gesagt. Und das ist auch nix Neues.
Was das letztlich für Auswirkungen hat und obs überhaupt eine Rolle spielt, muss jeder für sich entscheiden. Ich glaube auch, dass jeder dazu in der Lage ist, sich mal schnell pi mal Daumen mögliche Mehrkosten auszurechnen oder abzuschätzen, mit welcher Graka er im Hinblick auf Gehäuse- und Netzteilauswahl besser fährt.

Der für die meisten wichtigste Punkt wird das P/L-Verhältnis sein, aber da gibts in der neuen Mittelklasse (GTX 960, R9 380 und jetzt 380X) ja kaum Unterschiede. Von daher: Freie Auswahl.
 
Ich frage mich nur,welche Grafikkarte ich mir jetzt holen soll.Eine R9 380(x) oder GTX 960.Oder gar doch eine gebrauchte R9 290.
Man weiß ja auch noch nicht genau,wie sich das Ganze bei DirectX 12 verhält.
 
Schöner Artikel/Test.

Klein aber fein - Danke.
 
wie so oft, wenn gemunkelt wird "AMD xy wird kommen und alles zerstören"...diesmal kam die 380x und hat mal wieder goar nix zerstört^^....die nächste Ernüchterung wird mit ZEN und dem ach so tollen Asynchrous trallala-Vorteil kommen.
 
GEZ-Verweigerer schrieb:
wie so oft, wenn gemunkelt wird "AMD xy wird kommen und alles zerstören"...diesmal kam die 380x und hat mal wieder goar nix zerstört^^....die nächste Ernüchterung wird mit ZEN und dem ach so tollen Asynchrous trallala-Vorteil kommen.

Wie soll ich deinen beitrag verstehen, es warklar das sie sich zwischen der 380 & 390 platziert ,also was soll sie bitte zerstören hab ich was verpasst oder ist das wieder einfach nur so ein Troll Kommentar alla wenigsten was gepostet auch wenn's nur Müll ist? Und anscheinend bist in sachen Zen Insider? Weist du mehr was als wir und willst es mit uns teilen?
 
mambokurt schrieb:
Tja, aber bei unterschiedlichen Kosten kannste dann auch rechnen, und je nachdem wie man rechnet ist das eine oder andere besser, so einfach. Ich hab mir zB vor ein paar Jahren einen 50" Plasma geholt, LCD hätte in der Größe 500-600€ mehr gekostet. Im Gegensatz zu meinem Rechner läuft der jeden Tag und frisst Strom, bei einem Mehrverbrauch von vllt 100-150 Watt zu damaligen LCDs. Gehe ich jetzt nach der Logik vieler hier im Forum, ist der per se schlecht, frisst ja mehr Strom. Sage ich jetzt aber: kwh 25 Cents, 0,15 kw mehr im Verbrauch, 500€ -> 500/0.25 = 2000, 2000/0,15 = 13333h = 4 1/2 Jahre bei 8h täglicher Nutzung.

Schön und gut. Wir hatten nen 55 Zoll Plasma als Präsentationsgerät in der Firma. 500 Watt Verbrauch. Da hätte ich persönlich erst gar nicht angefangen zu rechnen, denn das ist meiner Meinung nach einfach zu viel für ein solches Gerät. Egal wie lange das Ding läuft. Ähnliche Resultate bekommt man eben auch mit weniger als der Hälfte Verbrauch. Ich bin aber durchaus bereit auch höhere Verbrauchswerte zu akzeptieren, aber nur wenn sie auch gerechtfertigt sind. Und das sind sie nur wenn ich auch mehr rauskriege. Abwärme produzieren ist keine gewünschte Mehrleistung. Wobei bei Plasma vs. LCD/LED Fernsehern auch noch andere Kriterien dazukommen.

Damit will ich nicht sagen dass das Stromargument jetzt besser ist oder mehr wiegt als das Stromverbrauch ist mir egal Argument, sondern dass es ein genauso gutes Argument ist, das man einfach auch mal akzeptieren kann. AMD möchte bei der nächsten Generation besonders auf den Punkt Stromverbrauch achten, weil es anscheinend viele Leute gibt dich auch nach diesem Kriterium kaufen. Quelle dazu hab ich vor 2-3 Seiten schon gepostet. Da kann es ja wohl nicht so albern und unwichtig sein wie viele hier tun.
 
Zuletzt bearbeitet:
Wir hatten nen 55 Zoll Plasma als Präsentationsgerät in der Firma. 500 Watt Verbrauch.
Wann war das?
Außerdem kann man die 500W beim Plasma nicht so stehen lassen, denn der Verbrauch ist abhängig vom Bild, je heller, umso mehr Stromverbrauch, LCD verbraucht nahezu konstant.
Wer mehr düstere Filme schaut, hätte mit einem Plasma sogar Vorteile (weniger Stromverbrauch und besseren Schwarzwert). :D

Wie schon oft gesagt, Unterschiede beim Stromverbrauch von Grafikkarten und CPUs ist nur für hirnlose Benchmarkbalkenlängenmesser, auf den Gesamtverbrauch eines Haushaltes (nicht Rechenzentrum!) über das Jahr gerechnet macht sich das nicht nennenswert bemerkbar. Und wer einen Durchlauferhitzer besitzt, braucht lediglich nur ein paar Sekunden schneller duschen.

Edit: Im Gegensatz zu den Leuten, die hier so tun als ob, habe ich meine eigene Wohnung und zahle Miete, Nebenkosten und Strom selber. Und ja, mir ist egal, ob meine Grafikkarte 40W mehr verbraucht (weil es eben keine nennenswerte Auswirkung hat) und ich habe in vielen Deckenlampen noch die ersten (15 Jahre alten) Glühlampen drin trotz täglichem Kurzzeitgebrauch (Küche, Schlafzimmer...), die Billigdinger vom Grabbeltisch im Möbelhaus wollen einfach nicht kaputtgehen (mein Vater verbraucht wesentlich mehr von diesen angeblich so langlebigen LED-Lampen als ich an Glühlampen).
 
Zuletzt bearbeitet:
Jetzt muß AMD damit nur noch Geld verdienen, weil Sie die GPU so billig anbieten müssen damit die überhaupt verkauft wird.
Eine tolle 380X die von der Leistung knapp unter der 390 liegt und dabei sparsamer ist hätte natürlich andere Margen gebracht aber so kurz vor dem Shrink kommt eh nur noch aufgewärmtes Zeug von beiden Seiten. Der krampfhafte Versuch noch etwas vom Weihnachtskuchen abzubekommen weil etwas richtig Neues sehen wir erst irgendwann 2016.
 
Und selbst beim neuem Zeug im nächsten Jahr sehe ich rot für AMD.

Man hört fast nichts von Arctic Island, während Pascal schon regelrecht in den Startlöchern steht (Tapeout Mitte dieses Jahres schon geschehen).
Pascal wird nochmals effizienter werden und ich sehe nicht wie AMD das kontern kann. Und kommt mir nicht mit billigen Zweckoptimismus. Das ist jedesmal das Gleiche bei AMD.
 
max_1234 schrieb:
Wie hier auf Verbrauch und FPS geschworen wird ist nicht mehr normal.

da geb ich dir ausnahmsweise Recht, beide Karten sind vom Verbrauch hier im Rahmen, mit Custom Designs sollten zudem beide Karten auch in einem Silent PC Ihre Arbeit verreichten dürfen.

Auf der Haben Seite bei der GTX 960 ist der bessere Multimedia Support + besseres OC, allerdings hat sie ein recht beschnittenes SI und ich würde annehmen dass diese in 1-2 Jahren mehr einbricht als die 380X.

Defakto geben sich beide wenig. Viel eher wird wohl das mitunter bessere P/L von AMD nicht ganz erreicht, das mag manchen eher auffallen. Auch suckt natürlich dieses Aufgießen alter Chips und das weitere Hinauszögern der kleinen Fertigung. Gilt allerdings für beide Seiten.
Zudem hätte ich bei der Rohleistung schon ein paar % mehr erwartet, aber den Brei wirklich fett machen tut das nicht.

Ich würd mir glaub ne Custom 290 schießen wenns um FPS / € geht.

Edit:
Wirtschaftlich betrachtet fährt Nvidia halt wieder besser... die GTX 960 dürfte nicht zuletzt wegen kleinerer DIE und einfachem 128 Bit Layout mega gute Margen bringen in einem wichtigen Segment. Und das is eher das Problem von AMD. Konkurrenzfähig zu Preis X ist die Karte absolut, klar, man platziert sie ja auch bewusst irgendwo. Nur bleibt halt deutlich weniger bei ner verkauften Einheit hängen.
 
Zuletzt bearbeitet:
@DocWindows der Umweltschutzgedanke scheint mir hier bei den meisten eher nicht im Vordergrund zu stehen, vielmehr versucht man halt auf Krampf X oder Y schöner zu rechnen.

Wenn man sich mal an Intels Burst oder Nvidias Wiewarnochgleichdernamederheizlüfterkarte erinnert, kann sich so ein Verhalten auch mal drehen. Ich muss jetzt aber auch sagen, dass ich den Verbrauch der Asus in dem Umfeld nicht als exorbitant hoch sehe. Das ist in etwa die Leistung einer 770 bei Verbrauch einer 770, nichts wofür sich eine aufgewärmte Karte schämen müsste. Die Architektur ist ja nunmal nicht neu und am Prozess hat sich auch nix getan.

Zu deiner Geschichte: was akzeptabel ist entscheidet die Konkurrenz. Niemand, inklusive dir, wird pauschal sagen 'das ist mir zu viel Verbrauch', der Knackpunkt ist immer 'das ist mir zu viel Verbrauch, Technik X macht das mit weniger!'. Vor 20 Jahren zu den halben Stromkosten(gefühlt, ka wie hoch die da waren) hätte sich wohl jeder Techniknarr und Fußballfan den 500 Watt 50" gern ins Wohnzimmer gestellt. Heute so ohne weiteres nicht denkbar, weil man halt weiß dass es ein LCD mit weit weniger kann bei gleichem Preis.
 
Fakt ist. 90% der hier postenden User würde sich so oder so keine 380X kaufen. Egal ob sie jetzt die 7-9% mehr Leistung bringt wie auf CB gemessen, oder die 10-15% mehr Leistung wie auf anderen Seiten gemessen, oder sogar die 25% mehr Leistung wie einige hier angeblich gehofft haben.
Denn das was selbst bei 25% mehr Leistung passieren würde, wäre das andere Kritikpunkte dann plötzlich auftauchen würden, z.B. weil sie nicht grün ist.

Es ist einfach am Ende Lächerlich wie sich hier im Grunde 10 Seiten über den Stromverbrauch aufgeregt wird. So viele sind nicht bereit sich eine AMD Karte zu kaufen. Schön, interessiert aber am Ende nicht wirklich. Bringt nämlich AMD rein Garnichts zu wissen wie viele sie nicht kaufen. AMD interessiert einzig nur wie viele die Karten kaufen werden. Aber streitet euch nur brav weiter um den angeblichen riesigen Stromverbrauch der Karte. Gibt CB weitere Klickzahlen für einen dahingeschluderten Test.
 
Vindoriel schrieb:
Wie schon oft gesagt, Unterschiede beim Stromverbrauch von Grafikkarten und CPUs ist nur für hirnlose Benchmarkbalkenlängenmesser, auf den Gesamtverbrauch eines Haushaltes (nicht Rechenzentrum!) über das Jahr gerechnet macht sich das nicht nennenswert bemerkbar. Und wer einen Durchlauferhitzer besitzt, braucht lediglich nur ein paar Sekunden schneller duschen.

Zum Posten schalte ich wegen dir nicht den Pc an. Trotz SSD müßte ich dann aufstehen. Brrr. Und mehr Strom zahlen ...
Jetz mach aber nicht den Fehler, irgendwas zu entschuldigen, nur weil andere Sachen mehr verbrauchen. Ich hatte mal den Verbrauch gemessen von Pc (beim Benchmsrk) und den Wasserkocher auch mal ans Gerät gehängt.

Und? Trotzdem ist das keine Erlaubnis, den (Mehr-)Verbrauch zu ignorieren. Wer so rangeht, dem sind letztlich auch Spritkosten egal, weil auch nur ein Teil. Irgendwann is der Haushalt optimiert von den Geräten und dann gibt es keine Entschuldigung mehr ...

Vindoriel schrieb:
ich habe in vielen Deckenlampen noch die ersten (15 Jahre alten) Glühlampen drin trotz täglichem Kurzzeitgebrauch (Küche, Schlafzimmer...), die Billigdinger vom Grabbeltisch im Möbelhaus wollen einfach nicht kaputtgehen (mein Vater verbraucht wesentlich mehr von diesen angeblich so langlebigen LED-Lampen als ich an Glühlampen).

Trotz Kurzzeitgebrauch? Gerade deswegen! Wer ESL kauft, um sie da einzusetzen, wo sehr oft nur sehr kurz das Licht eingeschaltet wird, der ist (Ausgaben-)Masochist. Und Umweltverschmutzer.
Wer ESL da nutzt, wo das Licht stundenlang durchgehend an ist, emittiert weniger Quecksilber als ne Glühbirne. Und ich hab die Hg-Emissionen des Kohlekraftwerks mit einbezogen.

Zum Strom: ich zahl selbst, mein Herd ist ... sehr .... ineffizient und trotzdem darf die Hardware nicht ferbrauchen, was sie will. Auch Mehrkosten über die Nutzung sind wichtig. 36€ im Jahr sind viel. Mehr Kino, oder mal ins Lokal oder so, was sonst nicht ginge.

ABER : sind es denn die Mehrkosten, die da errechnet wurden? Trifft das auf mich zu? Nur Peakwerte nehmen geht auch an der Realität vorbei. ..

Ich wurde auch gefragt: du kaufst mir ein 400w netzteil, brauch ich dauernd 450w, wenn der Pc läuft?
=> Nein.

Tdp? Nur Einteilung nach Klassen.
In dem Thread würde ich die 380 anstelle der 380x und der 960 nehmen. ... Tu ich nicht, weil die ins Notebook nicht reingeht und ich eh nicht mehr Spiele wegen DRM und Always on ... Da spart man Geld!


oldmanhunting schrieb:
Ich habe hier einen Haufen Spaß! Da werden Kaffeemaschinen ausgeschaltet und Glühbirnen raus gedreht nur um den Stromverbrauch der GPU zu rechtfertigen.

In der Tat. Allerdings sollte man trotzdem schauen, ob der Mehrverbrauch ins Gewicht fällt, bzgl. Realer Werte, Vollast und Wahrscheinlichkeit des Szenarios.

Idle = wichtig!

e:/
Aber nachdem Shooter und andere gewalttätige Spiele junge Muslime radikalisieren, werden die eh bald verboten :) Dann hat sich das mit drm Verbrauch von starken Grafikkarten eh erledigt :)
 
Zuletzt bearbeitet:
Das Problem ist der Stromverbauch ist relevant wenn man 2 Produkte vergleicht die derselben Kathegorie angehören.

Den der AMD-Nutzer stellt alles im Haushalt um auf Energiesparlampen und spart dort dann die Energie die er gegenüber der GTX mehr verbraucht.
Das kann der NV nutzer ebenfalls machen und dann hat man wieder die ausgangsdifferenz .
Wie hoch diese Differenz nun ist darüber kann man wohl Monatelang streiten. Aber ob nun 30 W oder 100 W es ist mehr und über ich würd mal sagen realistische 2 Jahre und wenn es nur 20€ sind sind das 20€ die das AMD Produkt mehr kostet.

Jedoch fairerweise muss man sagen das man in die Rechnung durchaus einbringen könnte das man sich im Winter vielleicht Energie erspart da man mit der AMD Karte 1° mehr heizt an Energie und unterm Strich diese gleich sind.
Abhilfe könnte aber auch schaffen in Zukunft nicht nur das P/L Diagramm zu machen sondern auch ein L/W Diagramm.
Wie das Setup für so ein Wattdiagramm aussehen müsste ist dann aber wieder ein anderes Thema da sich dann sicher wieder genug finden die die Methodik in Frage stellen.

Und die Gewichtung bei den Grafikkarten ist nunmal für jeden verschieden.
Was ich bei einer Kaufberatung mache ist einfach dem Käufer die Vor und Nachteile der Karten aufzählen und er muss dann entscheiden.
Wenn ihm die Wärme,Lautstärke und Stromverbauch der AMD Karten egal sind dann sind diese Preis /Leistungmässig absolut Top aufgestellt gegenüber den Nv.
Auch die 380x (wenn auch etwas mehr erwartet) ist wenn sie im Preis sich nun bei den 250€ einpendelt und evtl noch leicht nach unten geht absolut gut wenn ich mir so ansehe das die 960GTX 4Gb bei 200€ anfangen die EVGA,MSI ,Asus costums aber schnell auch an die 230€ gehen kann die 380x heir durchaus den einen oder anderen Käufer gewinnen.

Ob die AMD`s in DX12 Titeln so viel besser performen werden kann man nur spekulieren und wird die Zukunft zeigen.
Die Maxwell Karten sind ja auch nur so effizient, weil NV hier halt bei den professionellen Einheiten ordentlich kürzt was mir als Gamer aber egal ist solange es nicht relevant wird im Gamingberreich.
Und Zaubern wird AMD auch nicht mehr können in dieser Generation.

Persönlich habe ich die 970 der 390 vorgezogen aus bestimmten gründen bin mir aber der Nachteile des Speicher durchaus bewusst und kann damit aber Leben.
Deswegen ist die 390 für mich aber keine Karte die schlecht wäre.
Mit Pascal / SI wird diese sowiso wieder ersetzt und bis dahin wird sie abolut gut ihren Dienst verrichten.
 
Zuletzt bearbeitet:
Dark_Knight schrieb:
Gibt CB weitere Klickzahlen für einen dahingeschluderten Test.

Gebt. 2. Person Plural im Imperativ. Wer sich über hingeschluderte Artikel aufregt, sollte das wenigstens fehlerfrei auf die Reihe bekommen.

Im Übrigen: wäre es dir lieber, Computerbase hätte den Test nicht verkürzt sondern gar nicht gebracht? Wenn der Autor in ein oder zwei Wochen zurück ist lieber den ganzen Test nachgereicht? Da höre ich aber jetzt schon das Gejaule im Forum.

Der Mann macht da vor seinem Urlaub noch Klimmzüge, um wenigstens _etwas_ zu liefern, und Ihr tretet ihn dafür noch in den Hintern, statt das mal anzuerkennen. :freak: Keine Angst, den Fehler macht er bestimmt nie wieder. Den nächsten Test bekommst du dann frisch ausgeruht nach dem Urlaub geschrieben, mit 14 Tagen Latenz.:rolleyes:
 

Ähnliche Themen

Zurück
Oben