News AMD Tonga: Grafikchip hat ungenutztes 384-Bit-Speicherinterface

Hopsekäse schrieb:
Die Fury X schafft es (erst) in 4K leistungstechnisch zur 980Ti aufzuschließen, hat ~45% (!!!) mehr Recheneinheiten und eine neue sehr stromsparende Speichertechnik, verbraucht aber dennoch ~22% mehr Strom als eine 980Ti.
Dasselbe mit R9 390 und GTX970, auch wenn ich da selbst die 390 empfehle, hat diese ~54% mehr Recheneinheiten, liegt aber nicht annähernd in dieser Größenordnung vorn. Beim Stromverbrauch sind es ~62% zum Vorteil von Nvidia.
Es gibt nur einen einzigen Fall, wo die Mehrleistung unter höheren Auflösungen bezüglich der Effizienz einen nennenswerten Einfluss hat. Das ist das Duell zwischen GTX980 und R9 Nano, welche unter Full HD gleich schnell sind aber unter 4K dann etwas über 10% für die Nano stehen. Da verbraucht die Nano nur unwesentlich mehr und mit dem Vorsprung der hohen Auflösungen reicht es, um in der Effizienz minimal besser zu sein (allein unter FHD nicht). Das ist allerdings nur die Effizienz bezüglich des Stromverbrauchs, nicht bezüglich der Leistung/Recheneinheiten. Die 100% mehr Recheneinheiten kriegt man mit ~10% mehr Leistung wohl schlecht ausgeglichen.

Nochmal in kurz: Die Leistungsunterschiede in den Auflösungen von maximal 10-15% kannst du nicht hernehmen, um abzustreiten dass Nvidia die effizienteren Karten baut, wenn die in den Größenordnungen von 50-100% weniger Recheneinheiten und 20-60% weniger Strom verbrauchen. Das einzige, wo ich diesbezüglich noch mitgehen würde, wäre Leistung/Preis. Das ist aber kein Maß für die Effizienz.

Wow so viele Prozentangaben, die keinerlei Sinn ergeben...
Also erstens benötigt eine Referenz 980ti unwesentlich weniger Energie verglichen mit einer Fury X, ca. 20-30W, ausgehend von ca. 220W für eine 980ti wärens nur etwa 13% mehr. Custom 980ti's können auch mal mehr als eine Fury X ziehen, sind dann aber auch schneller.

Oh tatsächlich? Fiji hat 45%(!!!!!!11) mehr Shadereinheiten als 980ti? Tja, und ist dabei trotzdem ein wenig kleiner. Ob du glaubst oder nicht, CUDA Kerne kannst du mit GCN Kernen überhaupt nicht vergleichen. Du kannst sie nicht einmal markenintern vergleichen. 2048 Maxwell Kerne sind zB stärker als 2880 Kepler Kerne... oder wie du es ausdrücken würdest: "40%(!!!) mehr Kerne und trotzdem langsamer!" :rolleyes:

Deine Prozentangaben zu 970/390 sind auch totaler Käse. 62% mehr Energiebedarf würde bedeuten, eine 390/290 zieht über 280W... ist klar. Nicht einmal hier auf CB, wo AMD beim Stromverbrauch immer besonders schlecht aussieht, verbraucht eine R9 390 62% mehr Energie.
 
Hallo Leute,

Verstehen tut man AMDs Schritt es bei 256 Bit zu belassen schon, ist deutlich günstiger ...

nein, es ist eben nicht günstiger.
Das Interface ist als 384bit Interfaceangelegt, wird aber nur als 256bit Interface genutzt.
Dadurch ist am Chip für AMD gar nichts günstiger.
Und auch für den Verbrauch bringt es wenig, denn die Strukturen sind da und die ziehen auch Strom.

Man sehe sich die Chips bei denen nur ein Teil der Shader genutzt wird.
Tonga im Vollausbau und Nutzung aller vorhandener Shader wäre bei gleicher Leistung sparsamer
als Tonga mit reduzierter Shaderanzahl.
Weil Tonga XT im Vollausbau dann mit etwas weniger Takt und geringerer Spannung laufen könnte als Tonga.
Die Tonga XT Mobilkarte für Apple hat das ja sehr schön verdeutlicht.

Daß AMD bei Tonga XT nur ein 256 bit breites anstatt ein 384 bit breites Speicherinterface nutzt
liegt wohl eher daran daß die Tonga XT sonst zu nah an die 390 herankommen würde.
Die Preiseinstufung von Tonga XT würde dann nicht mehr so gut passen.

Aber ich werde jtzt in den sauren Apfel beißen und auf das neue Fertigungsverfahren (und neue Chips) warten.
Wenn AMD dann auch die Unterstützung für Linux deutlich verbessert
darf es gerne wieder eine AMD Karte werden. Ansonsten eben NVidia.

Gruß, JoeCool
 
JoeCool schrieb:
Hallo Leute,



nein, es ist eben nicht günstiger.
Das Interface ist als 384bit Interfaceangelegt, wird aber nur als 256bit Interface genutzt.
Dadurch ist am Chip für AMD gar nichts günstiger.
Und auch für den Verbrauch bringt es wenig, denn die Strukturen sind da und die ziehen auch Strom.

Man sehe sich die Chips bei denen nur ein Teil der Shader genutzt wird.
Tonga im Vollausbau und Nutzung aller vorhandener Shader wäre bei gleicher Leistung sparsamer
als Tonga mit reduzierter Shaderanzahl.
Weil Tonga XT im Vollausbau dann mit etwas weniger Takt und geringerer Spannung laufen könnte als Tonga.
Die Tonga XT Mobilkarte für Apple hat das ja sehr schön verdeutlicht.

Daß AMD bei Tonga XT nur ein 256 bit breites anstatt ein 384 bit breites Speicherinterface nutzt
liegt wohl eher daran daß die Tonga XT sonst zu nah an die 390 herankommen würde.
Die Preiseinstufung von Tonga XT würde dann nicht mehr so gut passen.

Aber ich werde jtzt in den sauren Apfel beißen und auf das neue Fertigungsverfahren (und neue Chips) warten.
Wenn AMD dann auch die Unterstützung für Linux deutlich verbessert
darf es gerne wieder eine AMD Karte werden. Ansonsten eben NVidia.

Gruß, JoeCool

Wieder jemand der keine Ahnung von der Materie hat aber laut Mitbrüllt.

Natürlich braucht das 384 bit Interface weniger Strom. Wenn dort nichts angeschlossen ist fließt dort auch kein Strom also gibt's dort auch keinen Verbrauch! Hinzu kommt das man 2GB mehr Ram braucht um die 384 bit auch nutzen zu können. Die 2GB mehr Ram brauchen auch Strom. Zudem erhöhen die 2GB Ram den Preis.

Deine Logik hinkt auch etwas. In den Test wurde die Enttäuschung breit das die 380x sich nicht weitgenug von der Mittelklasse abheben kann. Sie war ja mal gedacht zwischen der GTX 960 und der 390 zu stehen. Die 380x konnte sich aber nur zu 15% von der GTX 960 absetzen und es sind gut 40-50% zur 390. Hier hätten 20-30% mehr Drinsein müssen. Hätte das Speicherinterfache irgend etwas gebracht um die 380x höher zu bewerten hätte man es vermutlich gemacht. Aber 2-3% mehr gewinn um dann 10-20% mehr Strom zu verbrauchen ist nicht sehr effektive.

Tonga hat 256bit und auch Kompression. Das ist schon wie ein normales 384bit Interface ohne Kompression. Was will man denn bei Tonga mit einem Theoretischen 512 bit Interface?

Hier gabst mal einen Test mit erhöhter Bandbreite indem man den Vram übertaktet hat. Gebracht hat es nichts und da bei Tonga in etwas das selbe Verhältnis Bandbreite/Shader hat wie haweii wird es auch die gleichen Auswirkungen haben.

https://www.computerbase.de/2015-05...-radeon-r9-290x-speicherperformance-2560-1440
 
Zuletzt bearbeitet:
Oh tatsächlich? Fiji hat 45%(!!!!!!11) mehr Shadereinheiten als 980ti? Tja, und ist dabei trotzdem ein wenig kleiner. Ob du glaubst oder nicht, CUDA Kerne kannst du mit GCN Kernen überhaupt nicht vergleichen. Du kannst sie nicht einmal markenintern vergleichen. 2048 Maxwell Kerne sind zB stärker als 2880 Kepler Kerne... oder wie du es ausdrücken würdest: "40%(!!!) mehr Kerne und trotzdem langsamer!"
Die "Shadereinheiten" selbst sind durchaus vergleichbar - jede davon schafft 2 SP-Flops FMA pro Takt (in anderen Instruktionen unterscheiden sie ich zum Teil etwas, aber das ist idr ziemlich egal). Jedoch ist bei NVIDIA und bei AMD das "Drum-Herum" der Architektur wie Vektorbreite, Registergröße, Cachegröße, DRAM-Bandbreite, TUs, Rasterpipeline, Organisation innerhalb der CUs/SMs uvm. stark unterschiedlich. Dementsprechend entfalten die Shadereinheiten je nach Architektur eine unterschiedliche Leistung.
 
Zuletzt bearbeitet:
Interessant. Wie erklärt man sich das, dass die Shadereinheiten selbst bei beiden ca. die selbe Rechenleistung haben? Gibt es hier nur ein Konzept das funktioniert?
 
JoeCool schrieb:
nein, es ist eben nicht günstiger.
Das Interface ist als 384bit Interfaceangelegt, wird aber nur als 256bit Interface genutzt.
Dadurch ist am Chip für AMD gar nichts günstiger.
Schon mal ne GPU auf geizhals gelistet gesehen?
Durch die 256 bit wird die Grafikkarte günstiger. Du sparst 2 Speicherchips und das PCB wird unter Umständen etwas billiger.

Sicher ist das für AMD ziemlich ungünstig die GPU mit 384 bit designed zu haben. Trotzdem kann die Entscheidung vernünftig sein, im nachhinein nur 256 bit zu nutzen, wenn sie die Karte in einem niedrigeren Preisbereich platzieren können und dabei nicht großartig Performance verliert.
 
Ich empfinde die 380x als Enttäuschung.... Eigentlich passt fast alles.... Preisbereich.... Speicher ... Warte schon lange auf einen Nachfolger meinge GPU, eine 6870 die wirklich schon aus jeden Loch Pfeift.. mitlerweile sind es schon zwei von den drei LKüftern die Klappern. Nie wieder Gigabyte... ... schon damals habe ich es bereut nicht zu günstigeren aber fast genauso schnellen Saphire 5870 zu greifen.... und habe mir geschworen beim nächsten upgrade nicht zu geizen, ein stufe höher zu gehen und genau im richtigen moment zu zu schlagen..... Ich habe vor zwei Jahren daran gedacht auf eine aufgebohrte und mit nem accerlo gepimpte 7970 um zu steigen... auch das bereue ich irgendwie, nicht gemacht zu haben. Aber nach dem Freesync, tut das wenigstens nicht so weh..., aber nach den ganzen rebrand dingern doch wieder irgendwie etwas. ;-)

Als dann die 380x angekündigt wurde, zum einen große freude, ich dachte, das ist meine Karte! Aber irgendwie auch viel mistrauen... den die 380x gab es ja schon länger im oem bereich... wieder nur aufgewärmte kost.... aber zumindest etwas verbessert... cgn 1.2.... aber 30% unter einer 390 ... und das weil man jetzt am speicher sparen musste.... moment, war das nicht schon bei 285 so? Also ein 285_2.0 !?!?!?... ich will keinen Speichergrüppel kaufen.... das Nerft gewaltig....

Habe gerade den Artikel der Kollegen konsumiert.... und man hat jetzt die wahl zwischen der aufgewärmten 390(cgn1.1) und einer kastrierten 380x(cgn1.2)... und bevor jetzt die ganzen AMD Fanboys mit ihren Steinen werfen, jaaja ich weiß "its not a bug, its a feature...." :freak:

Ich tue mir da einfach gewaltig schwer Geld aus zu geben. Bedarf ist da. Aber Freesync ist ein muss, genügend leistung dafür in FHD auch, aber 300 ocken ausgeben... will ich jetzt auch nciht... Aber irgendwie ist die 380x auch nciht so Sympatisch.... die Speicher beschneidung wirkt insgesamt, total unsexy... So eine scheiße echt....
 
Zuletzt bearbeitet:
Hallo Bensen,

nochmal, die GPU wird für AMD im Gegensatz zu den Behauptungen mehrerer User hier
durch die Kastration des Interfaces nicht um einen Cent günstiger.

AMD bezahlt dem Auftragsfwertier einenn Betrag X für den Chip,
ganz egal ob AMD den Chip nun mit 384 Bit oder mit 256 Bit breitem Interface nutzt.

Was die Boardpartner von AMD danach aus dem Chip machen ist deren Sache.
Verbaut der Boardpartner mehr RAM wird die Graka teurer,
aber AMD bekommt trotzdem nicht einen Cent mehr für ihren Chip.

Es ist purer Blödsinn den Chip mit breitem Interface zu designen und zu fertigen,
dann aber nur einen Teil des Interfaces zu nutzen.

Und es ist ebenso Blödsinn einen intakten Chip zu kastrieren um z.B. 1792 shader
anstatt 2048 shader zu nutzen. So etwas spart nicht einmal Strom.

Das macht nur Sinn wenn ein Teil der Chips sowiso Defekte aufweist.
Dann kann man einen Teil der Shader deaktivieren und die Yieldrate
auf diese Weise deutlich erhöhen.

Als alter AMD Freund kann ich nur hoffen daß AMD endlich mehr Wert
auf Effiziens und auf die Unterstützung von Linux legt,
ansonsten sehe ich für die Zukunft ziemlich schwarz.

Gruß, JoeCool
 
@JoeCool
Blödsinn... nicht unbedingt... Die kastration kann auch dem zweck dienen, der 390 nicht zu nahe zu kommen, voll funktionsfähige Chips zu sammeln um sie später als eine aufgebohrte verbesserte version dann auf den markt zu werfen. Wie schon angemerkt, man kann dadurch teildefekte chips nutzen.
Ich werde nicht zur 380x greifen.... noch läuft meine 6780 und meine letzte FHD karte soll auch wirklich bis 4k mit 60fps im Mainstream ankommt halten. Sprich ich warte dann halt auf den echten vollaubau von tonga :D


hier zwei schöne artikel die denk anreize gibt.

http://www.heise.de/newsticker/meld...ce-aus-wirtschaftlichen-Gruenden-3032725.html
http://www.golem.de/news/grafikchip-amds-tonga-hat-ein-384-bit-speicherinterface-1512-117828.html

man darf auch nicht vergessen, es ist nicht immer automatisch wirtschaftlicher einen "perfekten" chip in der idealen große zu fertigen.... den mit ungenutzter fläche lassen sich yieldraten erhöhen und enticklungskosten sparen.... um so höher die chipfläche, um so höher zwar die kosten pro transistor, aber man kann die leistung ja auch wieder auf kosten der effizenz wieder senken.... AMD kauft sowieso keine wegen der effizents... sondern nur wegen den Preis. Und den Spielraum den Nvida lässt, kann AMD so auch ausnutzen. So hat man mit einer Blaupause, 3 Chips pro rebrandt und daher nur grob 1/3 der entwicklungskosten....

Ich persönlich finde so eine Entwicklung nicht sehr begeisternd. Denn das bedeutet, das AMD nicht mehr wirklich im GPU Markt agiert, sondern reagiert und schaut möglichst Wirtschaftlich die Grümel auf zu sammeln die nvida übrig lässt. Echte Konkurenz ist das nicht.
 
Zuletzt bearbeitet:
JoeCool schrieb:
nochmal, die GPU wird für AMD im Gegensatz zu den Behauptungen mehrerer User hier
durch die Kastration des Interfaces nicht um einen Cent günstiger.
Das brauchst du nicht wiederholen, das ist jedem klar. Du musst nicht den Leuten irgend einen Scheiß unterstellen nur um hier deinen Senf abzusondern.
Die Textpassage die du zitiert hast bezog sich nicht auf die GPU sondern auf die ganze Grafikkarte.

Was die Boardpartner von AMD danach aus dem Chip machen ist deren Sache.
Verbaut der Boardpartner mehr RAM wird die Graka teurer,
aber AMD bekommt trotzdem nicht einen Cent mehr für ihren Chip.
Ne, aber sie können mehr Chips verkaufen, da die Boardhersteller durch einen niedrigeren Preis konkurrenzfähig sind. Würden sie den Tonga nicht loswerden weil die Nvidia-Karte interessanter ist, kaufen sie auch nicht bei AMD ein.

Es ist purer Blödsinn den Chip mit breitem Interface zu designen und zu fertigen,
dann aber nur einen Teil des Interfaces zu nutzen.
Ja genau, bei AMD arbeiten nur Idioten. Wie naiv bist du eigentlich? So einen begrenzten Horizont kann man doch gar nicht haben. Mach am besten selber ne Chipschmiede auf, du weißt wie man es machen muss.
Natürlich war das ein großer Designfehler, aber was meinst du wäre jetzt der große Vorteil eines 384bit Tongas?
 
@JoeCool: Das ist ja alles schön und gut. Der Punkt ist einfach der, ja AMD würde evtl noch mehr damit verdienen wenn man den Chip anders designed hätte. Den Chip so gesehen unter seinen Möglichkeiten zu verkaufen ist aber sicher kein Beinrbuch für AMD, schließlich gibt es Tonga bis jetzt schon ne ganze Weile.

Einen neuen Chip zu entwerfen würde sicher mehr Kosten. Solange man hier keine konkreten Zahlen kennt, wieso was und warum, kann man sich lange streiten. Und sowas nervt einfach, wenn die Leute hier ihre streitereien anhalten, ohne auch nur Ansatzweise AMDs Meinung zu wissen.

Vielleicht wusste man einfach nicht wieviel Bandbreite man mit der Texturkompression sparen kann, und hat den Chip anders ausgelegt. Oder man wusste nicht wie man die Karte später im Markt positionieren will, alleine was den Speicherausbau angeht.

Vielleicht war es von vornherein geplant, ihn so zu entwerfenen, um ihm in der 400er Serie als Refresh (welcher in Summe wohl billiger ist, als 2 separete Chip Designs zu entwerfen) nochmals stärker auf den Markt zu werfen.


Ich finde es einfach schon so albern hier im Forum, wie oft die Leute irgendwelchen Quark erzählen, weil sie denken sie wüsste was, weil sie irgendwo mal ein paar Zahlen gesehen haben.
 
Naja offensichtlich gab es zu einem Zeitpunkt in der Entwicklung des Chips die Vermutung, dass er von einem großen Speicherinterface profitieren könne. Mehr können wir doch aus unserer Position kaum formulieren. Ist doch kein Grund sich anzugehen.
 
Hallo r4ny3,

Vielleicht wusste man einfach nicht wieviel Bandbreite man mit der Texturkompression sparen kann, und hat den Chip anders ausgelegt.

ja, ich bin sicher daß die Fortschritte bei der Texturkompression sowohl bei NVidia (etwas früher)
als auch bei AMD (etwas später) ein schmaleres Speicherinterface ermöglicht haben,
ohne daß dabei die Leistung verringert wurde.

Trotzdem macht es keinen Sinn einen Chip mit mehr Shadern oder mit einem breiteren Speicherinterface
auszustatten, dann aber nicht zu nutzen.
Das ist verschwendete Chipfläche und mehr Chipfläche kostet mehr Geld, welches an den Auftragsfertiger überwiesen werden muß.

Meiner Ansicht nach braucht AMD braucht dringend neue GPUs, denn diese andauernden re-brandings
vergraulen auf die Dauer die treuen AMD User.

Dazu braucht AMD auch ein besseres Marketing und mehr Leute die schnell die Treiber anpassen können.

Ich finde daß es irgendwie etwas armselig ist daß es Jahre gedauert hat bis endlich auch eine AMD Karte
in der Lage ist eine Blue-Ray-Disc wiederzugeben, ohne daß deren Stromverbrauch dabei unmäßig stark ansteigt.

Gruß, Joe Cool
 
Zuletzt bearbeitet:
Vielleicht ist das Speicherinterface auch für Professionelle Workstation Karten gedacht. Für solche Berechnungen braucht man viel Vram und dementsprechend auch das nötige Interface. Wie gesagt übertacltet mal den Vram auf 30% mehr und Ihr seht was dabei rauskommt!!! Nämlich nichts wie in den OC Tests zu lesen ist.
 
Meiner Ansicht nach braucht AMD braucht dringend neue GPUs, denn diese andauernden re-brandings
vergraulen auf die Dauer die treuen AMD User.
Rebranding ist für Nvidia ja zum Glück ein Fremdwort ;)

Dazu braucht AMD auch ein besseres Marketing und mehr Leute die schnell die Treiber anpassen können.
Da hat sich das ganze in die falsche Richtung verschoben: Nicht die Hersteller der Hardware sind in der Pflicht auf ein Spiel zu optimieren, sondern die Spieleschmieden müssen einfach mal gescheite Shader entwerfen. AMD und Nvidia Game Ready machen nichts anderes als schlecht geschriebene Shader durch bessere zu ersetzen. Im Endeffekt machen da ja alle Spieleschmieden das Gleiche (bspw. Beleuchtungsmodell) nur der Code sieht bei allen etwas anders aus. Gleichsam gibt es für das Problem aber genau eine effizienteste Lösung. OpenGL hat das früher schon versucht und sind dann immer weiter zu Custom Shadern abgedriftet. Früher waren alle Strukturen, also Lichtquellen usw., feste Datenstrukturen. Heute darf da jeder sein eigenes (versalzenes) Süppchen kochen. Natürlich war die Entwicklung nicht falsch. Mit uniformen Shadern wären Titel mit besonderer Grafik (nicht besonders gut, nur anders) wie Borderlands o.Ä. nicht entstanden. Dennoch sind Optimierungen bei Spieleschmieden dann doch eher weniger prioritär.
Der Stack ist ja sowieso vorgegeben: Wie ich meinen OpenGL/DirectX Kontext erstelle folgt einer in der Informatik vergleichsweise strengen Prozedur ohne viel Spielraum.

Ich finde daß es irgendwie etwas armselig ist daß es Jahre gedauert hat bis endlich auch eine AMD Karte
in der Lage ist eine Blue-Ray-Disc wiederzugeben, ohne daß deren Stromverbrauch dabei unmäßig stark ansteigt.
Sowas müsste schneller gehen, das stimmt. Doch gerade die Blue-Rays sind im PC nie wirklich angekommen. Der Effekt war dank schnellerem Internet deutlich geringer als noch zu Zeiten des Wechsels von CD auf DVD.

Trotzdem macht es keinen Sinn einen Chip mit mehr Shadern oder mit einem breiteren Speicherinterface
auszustatten, dann aber nicht zu nutzen.
Das ist verschwendete Chipfläche und mehr Chipfläche kostet mehr Geld, welches an den Auftragsfertiger überwiesen werden muß.
Das Zahlen doch am Ende eh wir. Und unterm Strich bleibt eine im aktuellen Markt preis-leistungstechnisch gut aufgestellte Karte, ob mit oder ohne ungenutztem Interfaceanteil. Selbst wenn der Chip nur 256-Bit hätte wäre der Preis wohl der Gleiche.
 
Zuletzt bearbeitet:
Hallo Lynx,

sor, ich hatte deinen sehr guten Beitrag leider übersehen.

Blödsinn... nicht unbedingt... Die kastration kann auch dem zweck dienen, der 390 nicht zu nahe zu kommen, ....

ich denke daß genau das der springende Punkt ist.
AMD will den schon etwas angestaubten Hawaii / Grenada Chip nicht durch einen Tonga / Antigua
im richtigen Vollausbau, welcher dann eine annähernd gleiche Leistung bei wesentlich geringerem Strombedarf
bereit stellt und mit modernerer Video Engine daher kommt, obsolet machen.
Aber damit enthält AMD dem potentiellen Kunden das aus meiner Sicht bessere Produkt vor.

Die beiden von dir verlinkten Seiten bestätigen doch teilweise das was ich geschrieben habe:

http://www.golem.de/news/grafikchip-amds-tonga-hat-ein-384-bit-speicherinterface-1512-117828.html

auf dem Bild sind deutlich die sechs Speichercontroller mit je 64 Bit erkennbar. Zusammen ergibt das ein 384-Bit-Interface, bisher hatte AMD davon aber nur vier Blöcke aktiviert - etwa bei der Radeon R9 380X.
Deren 2.048 Shader-Einheiten werden vergleichsweise stark durch das 256-Bit-Interface ausgebremst, ....


http://www.heise.de/newsticker/meld...ce-aus-wirtschaftlichen-Gruenden-3032725.html

Mit einem 256-Bit-Speicherinterface ist es AMD möglich, 4 GByte Speicher zu verbauen und diesen mit voller Geschwindigkeit anzubinden. Bei einem 384-Bit-Interface hätte die Radeon R9 380X entweder 3 oder 6 GByte Speicher – also entweder im Vergleich zur Nvidia-Konkurrenz zu wenig (3 GByte) oder sie wäre in der Produktion etwas teurer als die 4-GByte-Lösung mit 256 Bit. Allerdings läge die Transferrate dann bei 273,6 statt 182,4 GByte/s, was die Bildrate in Spielen besonders bei sehr hohen Bildschirmauflösungen oder mit anspruchsvoller Kantenglättung steigern würde.

Diese Ausage bestätigt ebenfalls daß das Interface limitiert, was von einigen AMD Fanboys hier in Abrede gestellt wird.

Bei einem 384-Bit-Interface hätte die Radeon R9 380X entweder 3 oder 6 GByte Speicher – also entweder im Vergleich zur Nvidia-Konkurrenz zu wenig (3 GByte) oder sie wäre in der Produktion etwas teurer als die 4-GByte-Lösung mit 256 Bit. Allerdings läge die Transferrate dann bei 273,6 statt 182,4 GByte/s, was die Bildrate in Spielen besonders bei sehr hohen Bildschirmauflösungen oder mit anspruchsvoller Kantenglättung steigern würde.
Ansonsten hätte der Hersteller Geld für die Entwicklung und die Fertigung einer nie im Vollausbau eingesetzten GPU verschwendet, was bei AMDs schlechter Finanzlage alles andere als erstrebenswert ist.

Im Prinzip bestätigen diese beiden externen Seiten genau das was ich hier im Thread geschrieben habe.

@ bensen:

Der Vorteil wäre daß die 384 bittige Tonga 380XX annähernd die Leistung von Hawaii bringen würde,
bei gegenüber der Hawaii deutlich niedrigerem Strombedarf,
besserer Zukunftsicherheit durch DX12 Kompatibilität und mit modernerer Videoengine.
Tonga wäre etwas preiswerter (etwas kleinere Chipfläche und mit 6GB weniger VRAM als die 8GB von Hawaii)
und wegen der geringeren Stromaufnahme auch etwas leichter zu kühlen als Hawaii.

Edit:
Tonga könnte locker in 3 Versionen laufen:
380
380X
380XX (384 bit)
und damit einen ziemlich weiten Leistungsbereich abdecken.

@ sdwaroc,

sicher,
NVidia hat ebenfalls reichlich Erfahrung im re-branding gesammelt :)
Aktuell hat NVidia aber aktuelle Maxwell GPUs am Start.

Kritisch sehe ich bei NVidia vor allem deren Problem mit dem asychronous shading
und den Skandal um die nicht komplett schnell angebundenen 4GB VRAM der 970er.

Ich habe mich an dieser Diskussion nur beteiligt weil ich einige der hier im Thread gemachten Aussagen
nicht unwidersprochen stehen lassen wollte.
Das soll es von meiner Seite gewesen sein.
Ich werde erst dann jubeln wenn AMD die Möglichkeiten die die moderne Tonga GPU bietet
endlich komplett nutzt.

Gruß, JoeCool
 
Zuletzt bearbeitet:
JoeCool schrieb:
nein, es ist eben nicht günstiger.
Das Interface ist als 384bit Interfaceangelegt, wird aber nur als 256bit Interface genutzt.
Dadurch ist am Chip für AMD gar nichts günstiger.

natürlich ist es günstiger. Wie viel % macht bei diesen Karten denn die 5mm² des DIE allein aus? 384Bit hätte ein aufwendigeres PCB zur Folge. Das dürfte teurer kommen als das bisschen DIE das man ja eh belegt durch die dezente Fehlplanung zu Beginn (vermutlich mit niedriger getaktetem GDDR5).

Wirtschaftlich macht es absolut Sinn die Karte hier zu beschneiden da das SI kaum limitiert.

Zur 390 ist mehr als genug Abstand. 128Bit mehr auf Seite des SI dürften der Karte vielleicht 5-10% bringen, keine 30. Vermutlich sogar weniger. Da der Chip die 384Bit ja eh verbaut hat würde, sofern es Sinn ergeben würde, AMD diese auch sicher ausfahren - was aber nur Sinn gibt wenn sich dadurch der Preis des Produktes sinnvoll erhöhen lässt sodass unterm Strich eine bessere Marge rauskommt. Da die Leistungssteigerung wohl klein wäre, zu klein um die höheren Produktionskosten durch höhere Preise wegzumachen, bleibt es bei 256 Bit. So einfach ist das.

Dazu gehört natürlich auch das Absetzen der offensichtlich massig vorhandenen Hawaii Chips. Zur 390 ist dennoch schon etwas Abstand, zumindest genug um sich nicht selbst Konkurrenz zu machen (auch bei aktiven 384 Bit).
 
Zuletzt bearbeitet:
Während hier noch über Sinn und Unsinn gestritten wird, fährt wcctech wieder die Gerüchte-Geschütze der nächsten GPU Generationen auf :D
http://wccftech.com/amd-1416nm-arctic-islands-launching-summer-2016/

@Topic
Kastration beschreibt das Entfernen eines Anhängsels. Die 380X ist höchstens als Abstinent zu bezeichnen :D
Die 970 hingegen wurde Hardware- und Softwareseitig kastriert, aber nie kommuniziert. Eine art Ladyboy-GPU.

mfg,
Max
 
Zuletzt bearbeitet:
cruse schrieb:
würde den 20l eimer nehmen

Dito, denn das unterstützt meine Faulheit und ich muss nur einmal den Eimer rein werfen und weg tragen, um die 20l zu bewegen ;)
Ergänzung ()

Mextli schrieb:
Dann erklär einfach warum AMD GPUs der letzten zwei Generationen mit mehr CPU Power stärker skalieren als die Nvidia Pendants. [...] Dann wäre ich ebenfalls beeindruckt. ;)

Treiberoverhead unter DX11 (kurz genug?)
 
Hier wird teilweise der größte Unsinn vermutet. Herrlich. Und dann wird auch noch speicherkrüppel in den Raum geworfen. *rolleye*
 
Zurück
Oben