Test Radeon R9 380X im Test: Tonga im Vollausbau von Asus und Sapphire

Das meine ich man hätte die 380 eben deutlich niedriger Takten können, wenn man sie zusammen mit der 380X oder eben danach gebracht hätte. Jetzt hat man 2 Produkte innerhalb von rund 7% Leistung, die ähnliche Leistungsaufnahmen haben.

Die 960 hat man so oder so in der Tasche und wem die 380 aus irgendwelchen Ökogründen nicht gefiel, dem gefällt die 380X auch nicht. Sie schließt aber eben auch nicht die Lücke zur 970/390.

Im Endeffekt ist es aber halt nicht schlimm, weil schon die 380 die beste Karte in ihrem Segment war und diese so gesehen nur noch besser wurde. Auch wenn der Preisaufschlag für die X zu hoch ist.
 
Nein, ihr Portfolio spiegelt sich in den Marktzahlen wider.
Zum größtenteil nur Rebrands und die Furys sind auch nicht das Gelbe vom Ei.

Mit der 380X hätten sie es besser machen müssen, haben sie aber nicht. Diese Karte füllt eben nicht die Lücke zwischen einer 960/380 und einer 970/390.
Ich prophezeie euch, dass diese Karte sich nicht gut verkaufen wird, trotz der von euch so großartig propagierten Qualität.

Ich würde ja auch zu gerne die Linux performance dieser 380X sehen.

1448288995428.png
 
Zuletzt bearbeitet:
Wenn du so gut prophezeien kannst, wie du vernünftig argumentierst. Dann wird die 380x der neue Verkaufsschlager von amd.
 
In den wilden Fantastereien von irgendwelchen Leuten in Foren, die sich nicht mit den Fakten abfinden können, klar.

Wie schön AMD, qualitativ konkurrenzfähige Produkte herstellt und dabei auch noch Marktanteile an andere Firmen überlässt, wie barmherzig.:lol:
 
SSJ schrieb:
Nein, ihr Portfolio spiegelt sich in den Marktzahlen wider.

Da stimme ich dir zu (bzw. ist es vielleicht weniger das Portfolio an sich, sondern die Tatsache, das AMD zeitlich ständig hinterherhinkt und durch die verspäteten Releases Kunden verliert). Ich will auch die Qualität der 380X gar nicht "großartig propagieren", ich stelle nur fest, dass sie gegenüber der 960 eine in etwa dem Mehrpreis entsprechendes Plus an Leistung bietet.

Klar wäre sie mit höherer Leistung und/oder niedrigerem Stromverbrauch attraktiver gewesen, ihr aber vollkommen die Daseinsberechtigung abzusprechen geht mMn auch zu weit.

6546111.png
 
Zuletzt bearbeitet:
SSJ schrieb:
In den wilden Fantastereien von irgendwelchen Leuten in Foren, die sich nicht mit den Fakten abfinden können, klar.
...
Ich prophezeie euch, dass diese Karte sich nicht gut verkaufen wird, trotz der von euch so großartig propagierten Qualität.

Du bist irgendwie der einzige der hier fantastereien verbreitet. Und auch der einzige der hier irgendwie "propagiert" (und zwar dass die 380 (X) "fail" karten sind.

Schon seltsam. Die meisten andern halten sich an die Fakten, und kaufen eben das was passt für die jeweilige Anforderung etc. nur du versuchst ständig alle davon zu überzeugen wie falsch und schlecht es ist was anderes zu tun als das was du dir zusammenfantasierst.
 
seahawk schrieb:
Das meine ich man hätte die 380 eben deutlich niedriger Takten können, wenn man sie zusammen mit der 380X oder eben danach gebracht hätte. Jetzt hat man 2 Produkte innerhalb von rund 7% Leistung, die ähnliche Leistungsaufnahmen haben.
Wohl wahr, eine 380 im Sweetspot würde deutlich weniger verbrauchen als jetzt und wäre trotzdem noch leicht schneller als eine 960. Und schon müsste man nicht mehr diese leidige Stromdiskussion führen (sondern HDMI2 Diskussionen :evillol:). Außerdem hätte sich die 380x dann deutlicher absetzen können und ihr hätte man dann auch den Mehrverbrauch nachgesehen.
Aber AMD hat ja bekanntermaßen beim Marketing seine Schwächen und von daher ist die Situation jetzt so wie sie ist. Hoffe sie schaffen es in 2016 wieder auf 25% Marktanteil, ansonsten siehts düster für sie aus.
 
johnniedelta schrieb:
Tolle Wurst, ist das X dahinter imo nicht wert.
Diese Karte hätte überdies schon letztes Jahr im Herbst als R9 285X kommen müssen, dann freilich mit 3GB.
Nun ist es nur eine eher langweilige Karte der oberen (wenn überhaupt) Mittelklasse.

letztes Jahr Herbst war ein gutes Stichwort, so "alt" ist der Chip ja imho auch. Ist schade, aber Nvidia hätte wohl schnell drauf reagiert und für mich ist die Karte ein Zeichen dafür, dass die <28nm Karten in diesem Preissegment noch ein Jahr auf sich warten lassen.

Klar, die Karte ist in Ordnung da wo sie platziert ist, die Preise werden etwas fallen, auf etwa ~220€ ... aber ich denke es ist eher der allgemein ausbleibende Fortschritt der beklagt wird.

Ob die Karte allein AMDs Marktanteil von unter 20% wieder etwas noch oben zieht bezweifel ich. 10% weniger als noch 2014 ist happig, davon erholt man sich nicht so schnell und auf uns warten Monate der Durststrecke. Die Next Gen Karten kommen vermutlich zunächst zu sehr hohen Preisen.
:-/
 
Zuletzt bearbeitet:
issenia schrieb:
380X ist eine sehr gelungene Karte. Leistungstechnisch landet diese genau zwischen GTX 960 und GTX 970 ->perfekt.
laut test GTX960 100% -> R9 380X 114% -> GTX970 149%. stimmt, genau dazwischen. ich würde das ja eher "geringfügig schneller als die 960, aber deutlich langsamer als die 970" nennen, aber da habe ich wohl unrecht:rolleyes:
und nebenbei fressen selbst die hungrigen werksübertakteten 970 noch etwas weniger strom als die deutlich langsamere R9 380X.
 
@Deathangel008: 114% liegen irgendwo zwischen 100% und 149%. Passt doch. :p

Ob nur haargenau oder nicht, ist doch sch... egal.

Leistungsmäßig kam nicht das raus, was man sich gewünscht hat, stimmt. Und nun? Sobald die 380x ein paar Wochen Zeit zum preislichen Einpegeln hinter sich hat, wird der Preis schon ihrer Leistung entsprechen. Damit regelt sich das doch von alleine. Warum also wird hier nochmal aufeinander losgehackt? :freak:

Auf das Verbrauchsargument braucht man nicht mehr eingehen, ehrlich. nvidia-Karten sind aktuell hier und da effizienter. Ich schätze, das haben alle geschnallt. Aber warum einige scheinbar denken, nvidia hätte deshalb einen Preis für Umweltfreundlichkeit ihrer Karten verdient, während man für AMD-Karten ein Atomkraftwerk neben seine Wohnung stellen und die Dinger am besten sowieso nur in der Arktis betreiben sollte, erschließt sich mir nicht.

Hier dreht man sich sowieso im Kreis.
 
Das ist doch sicher etwas was man ausrechnen kann. Wieviele zusätzliche Atomkraftwerke müßte man bauen wenn alle GPU's dieser Welt von AMD wären.
 
Die Stromdiskussion ist doch totaler Käse, würd mich lieber im Haushalt (Kühlschrank, Trockner, TV) oder bei der Beleuchtung umschauen und da sparen, wir reden von ca. 70 Watt (und eine Mehrleistung zur GTX 960). Die Kühler halten die Karte locker kühl -> das Gehäuse heizt auch nicht wirklich mehr auf, als mit ner 960 :rolleyes: Wie wenn jedes Grad zählt^^
 
Um einmal von dieser komischen Verbrauchsdiskussion wegzukommen. Im 3dcenter verweist man auf diesen Post, der interessante Ansätze liefert warum Tonga so geworden ist:
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-23-november-2015

reaperrr schrieb:
Der Chip schleppt, zumindest für's Gaming-Segment, einfach zu viel Ballast mit sich herum der Platz, Transistoren und Strom verbraucht, aber zu wenig bis garnichts für die Spieleleistung bringt.

Um mal die Unterschiede zu Tahiti hervorzuheben:

- verdoppelte ShaderEngines -> verbessert sicherlich die Auslastung/"IPC" etwas, aber benötigt eben auch doppelt so viel Platz und Transistoren und erhöht den Stromverbrauch dieses Teils der GPU (und durch die bessere Auslastung indirekt auch der CUs! Die 5870 war damals nicht grundlos etwas langsamer, aber eben auch sparsamer pro Takt und taktbarer, als man erwartet hätte, das war einfach auch eine Auslastungsgeschichte).
- verdoppelte Primitive-Pipelines & Tesselation-Einheiten -> bringt logischerweise nur in Spielen mit ziemlich hoher Polygonzahl bzw. Tesselation-Leveln was, macht den Chip aber ebenfalls größer und stromhungriger (unabhängig vom Spiel).
- größerer Tesselation Perimeter Cache -> keine Ahnung wie viel größer, kostet aber auf jeden Fall zusätzlichen Platz und Strom und bringt nur bei Tesselation was.
- verdoppelter L2 Cache -> hilft zwar ein wenig bei hohen Tesselation-Leveln und fängt zusammen mit DCC die geringere Bandbreite etwas auf, benötigt aber eben auch doppelt so viel Platz und damit Strom wie bei Tahiti. Und bevor jetzt jemand darauf verweist, dass ja 512KB deaktiviert sind: richtig, nur wenn ich den Die-Shot richtig lese, ist der L2 auf zwei Cache-Einheiten, an die je 3x256KB gekoppelt sind, verteilt, während Tahiti wohl nur eine hatte. Bei den Tongas ist dann zwar je 1x256KB pro L2-Einheit deaktiviert, aber die Kontroll-Logik dürfte voll aktiv sein und somit auch fast voll Strom verbrauchen, so dass der Verbrauch eben nicht nur 2/3 eines doppelten Tahiti-L2 entspricht.
- flächenoptimiertes SI -> braucht zwar weniger Platz pro 128 bit, es kann aber durchaus sein, dass Tahitis SI zwar größer ist, aber für Speicher-Taktraten von ~5.5-6GHz etwas weniger Strom braucht, weil es eben taktfreundlicher ist. Kann also sein, dass AMD nicht nur flächenmäßig, sondern auch vom Verbrauch her bei Tonga mit einem doppelten Bonaire-SI unterm Strich besser gefahren wäre (und von der Bandbreite bei 256-bit natürlich auch, weil dann 6.5-7GHz Speichertakt möglich gewesen wären, wovon zumindest die 380X profitiert hätte).
- 128 bit ungenutztes SI -> sind allein ca. 27-28 mm² ungenutzte Fläche, und ob die in Sachen Leakage/Verbrauch wirklich zu 100% deaktiviert/ge-power-gated/"totgelasert" sind und nichts verbrauchen, oder nur per Bios/ROM deaktiviert sind und trotzdem etwas zum Verbrauch beitragen, wissen wir auch nicht.
- Delta Color Compression -> soll zwar kaum Platz benötigen, aber auch das nimmt erstmal einen Tick mehr Transistoren und damit Strom in Anspruch, und hilft nur in Titeln mit genug Bandbreiten-Anforderungen.
- Hardware-DX12, FP16-Unterstützung und andere CU-Änderungen -> GCN1.2-CUs scheinen trotz 1:16 DP eher etwas größer und stromhungriger zu sein als selbst Tahitis 1:4-DP-CUs, von Pitcairns CUs ganz zu schweigen.
- Im "Uncore"-Bereich sitzen gegenüber Tahiti ein größerer UVD-Block, größerer VCE-Block, die TrueAudio DSPs, 6 zusätzliche ACEs (und wahrscheinlich auch noch größere, da ab GCN1.1 bis zu 8 Queues unterstützt werden), und der Display-Controller düfte u.a. durch FreeSync-Unterstützung auch etwas gewachsen sein.

Insgesamt quetscht Tonga halt trotz 1:16-DP mal eben satte ~700 Mio. Transistoren mehr in die gleiche Fläche, wobei diese höhere Dichte übrigens auch einer der Gründe für die miese Taktbarkeit sein könnte, evtl. hat der Chip einfach auch etwas mehr mit Leakage/Hotspots zu kämpfen als Tahiti und GM204.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10854863&postcount=13485
 
Zuletzt bearbeitet von einem Moderator:
Die Stromdiskussion ist doch totaler Käse, würd mich lieber im Haushalt (Kühlschrank, Trockner, TV) oder bei der Beleuchtung umschauen und da sparen, wir reden von ca. 70 Watt (und eine Mehrleistung zur GTX 960). Die Kühler halten die Karte locker kühl -> das Gehäuse heizt auch nicht wirklich mehr auf, als mit ner 960 Wie wenn jedes Grad zählt^^

70W wären bei meinem Zockverhalten ca. 48€ auf 3 Jahre gerechnet.
Das wäre 2 mal schick essen gehen oder einmal die KFZ-Steuer gespart oder 24x Frühstücksemmel gespart.
Ich rechne da anders wie die meisten. Und bei der 970 zur 290X (damals) ist der Unterschied noch größer.
Wenn ich 2 Produkte mit ähnlicher Leistung und ähnlichem Preis habe, nehme ich selbstverständlich das effizientere.
Das ist meine Meinung, meine Rechnung und meine Entscheidung. Deshalb kreide ich die Effizienz bei AMD an. Wenn das jemand nicht so sieht oder seine Kaufkriterien anders gewichtet, ist das ja sein Ding und völlig legitim.
Und wer sagt dass solche Leute nicht auch schon bei anderen Sachen wie TV, Kühlschrank oder Beleuchtung sparen? Meine Oma sagte immer: Viele Wenig werden auch ein Viel. Also ziehe ich das auch bei der Grafikkarte durch.
 
Drummermatze schrieb:
...

Wenn ich 2 Produkte mit ähnlicher Leistung und ähnlichem Preis habe, nehme ich selbstverständlich das effizientere.
...

Und wer sagt dass solche Leute nicht auch schon bei anderen Sachen wie TV, Kühlschrank oder Beleuchtung sparen? Meine Oma sagte immer: Viele Wenig werden auch ein Viel. Also ziehe ich das auch bei der Grafikkarte durch.

genau so und nicht anders. wenn ich zwei pkws zur auswahl habe, sich beide von der ausstattung/verarbeitungsqualität etc. auf ähnlichem niveau bewegen, wagen b) jedoch im schnitt 3 l/100 km mehr verbraucht, wer würde sich dann für diesen entscheiden? und wer nun mit markentreue/-verbundenheit kommt, denkt doch nicht anders, als die amd/nvidia-fanboys in diesem forum. ausser natürlich, man hat den berühmten goldesel im keller und geld spielt nur eine untergeordnete rolle.

fakt ist, es spricht relativ wenig für die r9 380x bzw. tonga als chip allgemein. das kann man sachlich betrachtet nicht bestreiten.
 
SSJ schrieb:
Nein, ihr Portfolio spiegelt sich in den Marktzahlen wider.
Zum größtenteil nur Rebrands und die Furys sind auch nicht das Gelbe vom Ei.

Mit der 380X hätten sie es besser machen müssen, haben sie aber nicht. Diese Karte füllt eben nicht die Lücke zwischen einer 960/380 und einer 970/390.
Ich prophezeie euch, dass diese Karte sich nicht gut verkaufen wird, trotz der von euch so großartig propagierten Qualität.

Ich würde ja auch zu gerne die Linux performance dieser 380X sehen.

Anhang anzeigen 527154

Das bringt erst etwas, wenn mit Kernel 4.05 der Support für Tonga und Fiji da ist.

Ich finde die 380X schon ganz gut. Die 970 hat ja ihren krummen Speicher, wundert mich eh das so viele die kaufen.
 
genau so und nicht anders. wenn ich zwei pkws zur auswahl habe, sich beide von der ausstattung/verarbeitungsqualität etc. auf ähnlichem niveau bewegen, wagen b) jedoch im schnitt 3 l/100 km mehr verbraucht, wer würde sich dann für diesen entscheiden?
All diejenigen die mehr PS haben möchten (380x)?:rolleyes:
Du scheinst echt nicht zu verstehen das die 380x um einiges schneller (mehr PS hat) ist als die "kleine" Nvidia. Bringst du die 380x auf dem selben Leistungsniveau, "verbraucht" die auch nicht mehr als deine heißgeliebte 960 ...
das kann man sachlich betrachtet nicht bestreiten.
Und da du für deine Sachliche Argumentation bekannt bist, landete auch jeder zweite Beitrag im Aquarium :D

BTT:
die 380x wird sich Preislich wohl bei etwa 220€uro einpendeln und könnte dann für den einen oder anderen Kunden durchaus eine Option sein. Vor allem dann, wenn bisher eine deutlich schwächere Grafikkarte im System werkelte.
 
Zuletzt bearbeitet: (Zusatz^^)
All diejenigen die mehr PS haben möchten (380x)?
Du scheinst echt nicht zu verstehen das die 380x um einiges schneller (mehr PS hat) ist als die "kleine" Nvidia. Bringst du die 380x auf dem selben Leistungsniveau, "verbraucht" die auch nicht mehr als deine heißgeliebte 960

Ja. Ganze 14% schneller. Das sind bei 30FPS (nivida) ganze 4FPS mehr. Drauf geschi....
In manchen Spielen gleichauf, in manchen sogar schlechter.
 
Zuletzt bearbeitet:
Geschissen nur wenn man von der 960 auf die 380x wechseln wollen würde. Wenn man aber von einer weitaus schwächeren Grafikkarte wechseln will, dann wäre es merkwürdig das langsamere Modell zu nehmen nur weil es auf 3 Jahre gesehen bei dauerhafter hoher Belastung mehr vetbraucht. Und wer bei 3 Jahren so wie du auf errechnete 48€ achten muss, der hat auch leicht andere sorgen.
 

Ähnliche Themen

Zurück
Oben