News AMD Tonga: Grafikchip hat ungenutztes 384-Bit-Speicherinterface

@ r4yn3
Interessant. Wie erklärt man sich das, dass die Shadereinheiten selbst bei beiden ca. die selbe Rechenleistung haben? Gibt es hier nur ein Konzept das funktioniert?
Wie meinst du das ?
 
lynx007 schrieb:
Ich empfinde die 380x als Enttäuschung.... Eigentlich passt fast alles.... Preisbereich.... Speicher ... Warte schon lange auf einen Nachfolger meinge GPU, eine 6870 die wirklich schon aus jeden Loch Pfeift.. mitlerweile sind es schon zwei von den drei LKüftern die Klappern. Nie wieder Gigabyte... ... schon damals habe ich es bereut nicht zu günstigeren aber fast genauso schnellen Saphire 5870 zu greifen.... und habe mir geschworen beim nächsten upgrade nicht zu geizen, ein stufe höher zu gehen und genau im richtigen moment zu zu schlagen..... Ich habe vor zwei Jahren daran gedacht auf eine aufgebohrte und mit nem accerlo gepimpte 7970 um zu steigen... auch das bereue ich irgendwie, nicht gemacht zu haben. Aber nach dem Freesync, tut das wenigstens nicht so weh..., aber nach den ganzen rebrand dingern doch wieder irgendwie etwas. ;-)

Als dann die 380x angekündigt wurde, zum einen große freude, ich dachte, das ist meine Karte! Aber irgendwie auch viel mistrauen... den die 380x gab es ja schon länger im oem bereich... wieder nur aufgewärmte kost.... aber zumindest etwas verbessert... cgn 1.2.... aber 30% unter einer 390 ... und das weil man jetzt am speicher sparen musste.... moment, war das nicht schon bei 285 so? Also ein 285_2.0 !?!?!?... ich will keinen Speichergrüppel kaufen.... das Nerft gewaltig....

Habe gerade den Artikel der Kollegen konsumiert.... und man hat jetzt die wahl zwischen der aufgewärmten 390(cgn1.1) und einer kastrierten 380x(cgn1.2)... und bevor jetzt die ganzen AMD Fanboys mit ihren Steinen werfen, jaaja ich weiß "its not a bug, its a feature...." :freak:

Ich tue mir da einfach gewaltig schwer Geld aus zu geben. Bedarf ist da. Aber Freesync ist ein muss, genügend leistung dafür in FHD auch, aber 300 ocken ausgeben... will ich jetzt auch nciht... Aber irgendwie ist die 380x auch nciht so Sympatisch.... die Speicher beschneidung wirkt insgesamt, total unsexy... So eine scheiße echt....

Also stört dich einfach, dass der Chip 256 statt 384 bit hat? Ich verstehe nicht wirklich wo dein Problem ist. Deine 6870 war schon vor 3 Jahren veraltet. Damit kann man doch schon lange nichts mehr vernünftig spielen. Vor allem wegen des winzigen Grafikspeichers.

380Xen haben ein gutes P/L Verhältnis und wären für dich ein sehr deutliches Upgrade. >60% mehr Leistung, doch eigentlich sogar mehr da mit dem einen GB VRAM deiner 6870 nichts mehr rund laufen kann.

Die 380X ist eher für Besitzer einer 760/7870 eine ziemliche Enttäuschung, da sie sich von der 380 nur minimal absetzen kann. Für mich (7870) wäre das eine Leistungssteigerung von 25-30%, nach 3 Jahren 7870 wäre das irgendwie zu wenig. Ich habe nämlich mit einem 15% Plus im Vergleich zur 380 gerechnet. Dann wäre die Karte mindestens 35% schneller.
 
Also ich weiß nicht wie es sich die 380X verhält, wenn Speicher OC betrieben wird. Sicherlich hängt es auch vom Spiel ab wie der Speichertakt mit den fps skaliert.
Bei einer GTX960 mit 128 Bit, finde ich, ergibt sich schon eine Limitierung. Gerade bei höherer Auflösung z.B. 1440p erreiche ich ca. 6-7% mehr fps mit 10% mehr Speichertakt. Das finde ich, zeigt schon eine Limitierung. Wie es sich weiter fortsetzt kann ich allerdings nicht testen. Vielleicht ist dann ja schnell Schluss.
 
ampre schrieb:
Vielleicht ist das Speicherinterface auch für Professionelle Workstation Karten gedacht. Für solche Berechnungen braucht man viel Vram und dementsprechend auch das nötige Interface. Wie gesagt übertacltet mal den Vram auf 30% mehr und Ihr seht was dabei rauskommt!!! Nämlich nichts wie in den OC Tests zu lesen ist.

Tonga hätte in 20nm auf den Markt kommen sollen und hätte wahrscheinlich 3GB GDDR5 haben sollen. Hawaii selbst war so nie geplant und hätte ein kleinere Fijii mit HBM sein sollen. Da 20nm gestrichen wurde haben wir nun mal alles in 28nm.

GCN1.2 ist in meinen Augen selbst, ein Zwischenschritt zu neuen Generation. Man merkt dass GCN 1.2 für HPC wesentlich uninteressanter ist, sondern diese Weiterentwicklung klar auf Games abzielt. Kann gut sein, dass AMD hier genau wie NV in diese Richtung entwickelt und ich bin gespannt, ob es von GCN 1.0 nicht eine gesonderte Weiterentwicklung für einen Big-Chip geben könnte.

Somit GCN 2.0 für Big Chip (GCN 1.0 oder 1.1 Weiterentwicklung) und GCN 2.1 für alle unteren Klassen (GCN1.3+ quasi).

Die Texture-Kompression könnte für alles unterhalb High-End für Mittelklasse und und untere Klasse interessant sein und ich kann mir sehr gut vorstellen, dass die R400 Mittelklasse 386 Bit SI und 6 GB GDDR5 haben könnte und das auf einen GCN 1.3 basieren wird, der noch weiter auf Gaming getrimmt ist und wie die NV Konkurrenz was HPC angeht, beschnitten ist.

Somit auch Tonga ist ein Testballon und es war eigentlich ein ganz anderer Nachfolger geplant, der mit 20nm gestrichen wurde.

Nai
Er meint es so. Wieso beide Grafikkarten unter Games gleich schnell sind, aber AMD mehr Shader hat.
Naja er stellt sich nicht die Frage, wo denn die AMD Grafikkarten von der Strategie, mehr Shader beim gleichen Platz anzuwenden Vorteile bringt. Klar ist, bei Games nicht, außer AMD schafft es, Asynchronous Computing in Zukunft, die Shader auszulasten und somit wieder einiges auszugleichen.
 
Zuletzt bearbeitet:
@JoeCool: Ja das mag durchaus sein, dass AMD vieles neu bräuchte. Das Problem ist halt dass AMD dazu nicht die Ressourcen hat. Man steckt halt alles in Zen und Greenland, und ich hoffe das zahlt sich aus.
Einfach mal so neue Chips ausm Ärmel zu ziehen, nur weil der aktuelle nicht perfekt ist...wo kämen wir da denn hin.

@Nai: Hm nunja, zugegegeben weiß ich jetzt nicht wirklich wie ein Shader aufgebaut ist. Daher hätte es mich interessiet, ob es Zufall ist ob bei beiden die Shader gleich viel leisten, oder ob es für einen Shader quasi ohnehin nur einene "Bauplan" gibt.
Kannst mir das gerne auch per PN erklären, um nicht den Thread unnötig zu shreddern.
 
Es liegt wohl daran, dass ein "Shader" kein eigenständiger Prozessorkern sondern lediglich eine skalare Ausführungseinheit innerhalb einer Vektoreinheit für SIMD-Befehle ist. Solche Ausführungseinheiten zeichnen sich aus Optimierungsgründen überall dadurch aus, dass sie diejenigen Befehle, die häufig in Programmen auftreten und einfach in Hardware zu realisieren sind, während eines einzigen Taktes ausführen können. In der Regel sind diese Befehle Addition, Multiplikation, FMA für SPFP-Zahlen, Addition für Integer-Zahlen. Komplexere Befehle (Integer-Division) oder seltenere Befehle (Integer-Multiplikation) werden oft entweder nicht nativ unterstützt (alternativ wie beim Kepler nicht auf allen Vektoreinheiten unterstützt) oder benötigen mehrere Takte. Dementsprechend stellen Shader - egal ob bei NVIDIA oder bei AMD und egal welche GPU-Generation - sofern ihr Takt und ihre Zahl gleich ist auch immer in etwa die gleiche Rohleistung zur Verfügung. Ich nehme hier zudem stark an, dass ein Shader, da er sowohl bei AMD als auch bei NVIDA die gleiche Funktion übernimmt, wegen Koevolution bei beiden einen sehr ähnlichen Schaltplan haben wird.
 
Hallo r4yn3,

@JoeCool: Ja das mag durchaus sein, dass AMD vieles neu bräuchte. Das Problem ist halt dass AMD dazu nicht die Ressourcen hat. Man steckt halt alles in Zen und Greenland, und ich hoffe das zahlt sich aus.

ja das hoffe ich auch. Man wird sehen...

Aber AMD könnte den Tonga Chip endlich im wirklichen Vollausbau bringen und damit Hawaii ablösen.
Ich vermute daß AMD noch zu viele Hawaii Chips vom Auftragsfertiger abnehmen muß
und den Schritt deshalb nicht gehen kann oder will.
Nur deshalb bleibt Tonga durch Shader-Reduktion und teildeaktiviertes Speicherinterface
auf die Mittelklasse beschränkt.

Was schade ist, denn wie ich schon geschrieben habe ist Tonga gegenüber Hawaii
energieeffizienter und hat eine modernere Videoeinheit verbaut.

@ Krautmaster:
Sinnerfassendes Lesen scheint irgendwie nicht deine Sache zu sein.
Noch einmal nur für dich:
Ob AMD den Tonga Chip nun mit teildeaktiviertem 256 bit
oder aber mit 384 bit breitem Speicherinterface abnimmt:
AMD bezahlt dem Auftragsfertiger exakt das gleiche Geld.

Wirtschaftlich ist es für AMD schelcht wenn AMDs immerhin 359 mm² großer Tonga Chip
auf Karten eingestezt werden muß die sich preislich weit unterhalb von Hawaii mit 438 mm²
oder GTX 970 mit 398 mm² einordnen müssen.
Die 380X Karten liegen im Preis kaum oberhalb der GTX 960 die von einem nur 227 mm² kleinen Chip
befeuert werden. Deshalb verdient NVidia sehr viel mehr Geld pro Chip als AMD.

Als ich meine 5750 kaufte lag AMD deutlich vor NVidia:
40nm Fertigung, NVidia war noch bei 65nm.
Bei AMD ein sehr viel geringerer Verbrauch im Idle und immer noch ein geringerer Verbauch unter 3D Last.
Ich bekam bei AMD Leistungsbezogen etwas mehr als bei NVidia.
Dazu hatte ich bei AMD einen geringeren Stromverbrauch und einen erheblich geringeren Kühlungsbedarf,
so daß meine 5750 sogar passiv gekühlt werden konnte.
Das alles waren für mich damals gute Gründe zu AMD zu greifen.

Jetzt warte ich seit geraumer Zeit auf eine überzeugende Karte der Mittelklasse bis oberen Mittelklasse,
aber aus meiner Sicht kommt da derzeit nichts.
Tonga ist in etwa Fiji geteilt durch2. Diese beiden Chips sind die einzigen AMD GPUs
die mich derzeit einigermaßen überzeugen können. Vor allem Fiji als Nano.
So eine Version von Tonga würde mich eher reizen können als eine abgespeckte Tonga
die dann von den AMD Boardpartnern für mehr Leistung hochgetaktet wird und dadurch aus
dem "Sweet Spot" bei dem das Verhältnis von Leistung und Strombedarf optimal ist herausrutscht.

Gruß, JoeCool
 
Was du alles erwartest. Schon interessant. Wenn man immer wartet und wartet und wartet, dann braucht man keine neue Karte mehr. Weil bis dahin ist der PC eh so veraltet, dass ein neuer her muss.

Wenn man z.B. eine Grafikkarte besitzt wie eine ATI Radeon 5870. Dann ist es egal ob eine 380X jetzt ein 256bit Interface hat oder ein 384bit Interface. Die Karte so wie sie ist, ist zigmal schneller. Da greift dann auch kein P/L mehr so stark, wie wenn man von einer 7000er wechselt oder gar einer 200er Serie.

Also worüber muss man da jetzt zig Seiten drüber schreiben? Das das Speicherinterface nicht komplett ist? Die Karte läuft doch absolut rund oder? Also ist es doch alleine AMDs Entscheidung wegen der Beschneidung bzw. eher des Cuts. Uns als User muss es doch nur interessieren, das die Karte auch mit dem 256bit Interface sauber läuft. Solange es da keine Einschränkungen für uns gibt egal wie alt die Karte am Ende sein wird vor dem nächsten Tausch, ist doch alles ok.
 
@Nai: Vielen Dank für die wie immer sehr ausführliche und gute Erklärung.
 
Hallo Dark_Knight,

Wenn man immer wartet und wartet und wartet, dann braucht man keine neue Karte mehr. Weil bis dahin ist der PC eh so veraltet, dass ein neuer her muss.

glaubst du das wirklich?
Wer einen i7 oder einen i5 mit K im Namen aus der Sandy Bridge Generation hat,
ist was die Leistung für Games betriff, auch 4 Generationen später immer noch ausreichend ausgestattet.
Ich habe einen Haswell Xeon und werde damit auch in 1 oder 2 oder 3 Jahren
noch genügend Leistung für eine Graka der oberen Mittelklasse haben.

Meine 5750 ist derart veraltet und hat eine so limitierte Leistung daß jede Karte,
gleich ob nun GTX 960 oder 970 oder 380, 380x, 390, 390x erheblich mehr bringen.

Aber ich will jetzt keine Graka von NVidia die DX12 nicht voll unterstützt,
auch nicht was den performant nutzbaren Speicher betrift wie bei der 970er verschaukelt werden,
ich möchte auch keine veraltete 390 / 390x die Strom ohne Ende zieht.
Ich würde lieber eine 380 im tatsächlichen Vollausbau kaufen
oder eine 970er die echte 4GB Speicher hat.

Ich werde mit dem Neukauf weiter warten, auch bis es endlich GPUs aus kleinerer Fertigung als 28nm gibt.

Ich kann nur hoffen daß AMD endlich versteht daß die Zeiten
in denen ungehemmter Stromverbrauch toleriert wurde vorbei sind.
Denn davon hängen ja auch Kühlungsbedarf und Lautstärke ab.
Und daß AMD endlich Linux besser unterstützt.

Gruß, JoeCool
 
Zuletzt bearbeitet:
Ok dann viel Spaß beim Warten bis 2017. Kauf dir doch jetzt einfach eine 380(X) und dann kannst du diese immer noch in 2017 (Eher wird das wohl nichts werden mit vernünftigen neuen Mittelklasse Karten) tauschen.

Jetzt mit der alten Möhre weiter zu tuckern bringt dir selber nur Frust ein. Es wird eben niemals die perfekte Grafikkarte geben. Irgendwas wird immer von nVidia wie auch AMD nicht vernünftig umgesetzt werden. Von daher warten lohnt leider absolut nicht, wenn man eine so alte Grafikkarte wie du hast.
 
Krautmaster schrieb:
richtig. Die GTX 960 dürfte gerade wegen des SI einen sehr gute Marge liefern. Aber sind wir mal ehrlichm genau sowas fehlt AMD seit Jahren, ein Produkt dass ordentlich Gewinne einfährt.
Wenn man sich die Pakten der letzten Jahre anschaut dürfte Nvidia immer am längeren Hebel gesessen haben, höherer Verkaufspreis bei günstigerer Fertigung. Über die doppelte Marge. Es gibt zwar keinen Preiskampf, aber der Gewinner wäre heute klar.

Beide halten die Preise hoch.

Richtig, in einem Duopol gibt es keinen echten Preiswettbewrb mehr. Die Anbieter brauchen sich nicht einmal zu Mengen und Preisen absprechen. Mann nimmt einfach den Forecast für das nächste Jahr und schaut in die Preisliste des anderen. Nichts anderes machen die Betreiber von Tankstellen an der gleichen Straße auf gegenüberliegenden Seiten.

Ich finde es allerdings bedenklich das im Zweifelsfall selbst mittelmäßiger Kram von Nvidia von ihren Kunden wieder gut geredet werden bzw mit hauen und stechen verteidigt wird, siehe "die GTX 960 ist eine tolle Karte weil Nvidia so viel Marge damit macht".

In der Kriminalitätspsychologie spricht man dann von "Stockholm Syndrom" :-D
 
Zurück
Oben