News AMD Tonga: Grafikchip hat ungenutztes 384-Bit-Speicherinterface

Zotac2012 schrieb:
Aber wenn die Grafikkarte doch über ein 384Bit Speicherinterface verfügt und man das Künstlich auf 256Bit beschnitten hat, dann kann doch ein größeres Speicherinterface was schon vorhanden die Grafikkarte nicht teurer machen, oder sehe ich da was falsch. Und wenn dieses größere 386Bit Speicherinterface ja schon da ist, lässt sich das dann irgendwie freischalten?
Ja das siehst du falsch. Die Grafikkarte besteht ja nicht nur aus der GPU. Wenn du das breitere Speicherinterface nutzen willst, dann musst du auch noch 4 zusätzliche Speicherchips verbauen, was den Preis natürlich anhebt. Und irgendwie muss der Speicher auch mit der GPU verbunden werden. Mehr Leiterbahnen machen das PCB komplexer und teurer.
Beantwortet auch die 2. Frage. Freischalten bringt dir nichts wenn da kein Speicher dranhängt.

En3rg1eR1egel schrieb:
da lässt sich nix "freischalten"

selbst wenn es technisch möglich wäre, gibt es keinen sinn dahinter.
es wird exakt 0,0000% schneller
wird aber noch mehr strom verbrauchen.
Welch ein Blödsinn. Natürlich wäre die schneller. Die 380 verhungert sicher nicht bei dem bestehenden Speicherdurchsatz, aber mehr würde trotzdem was bringen. Eine Übertaktung des Speichers bringt ja auch was.
Der Grund warum AMD es bei 256bit belässt, ist der relativ kleine Nutzen, bei dabei resultierend höheren Kartenpreisen.
So drücken sie die Karte in ein deutlich attraktives Preisfenster, wo Nvidia wenig entgegen zu setzen hat.

Hito schrieb:
Du hast leider keine Ahnung was du da schreibst, tut mir leid.

a) RAM und Interface verbrauchen nur sehr geringe Mengen an Strom, mehr als 10W wäre schon sehr ungewöhnlich.
Bitte was? RAM und Interface verbrauchen ganz sicher mehr, wenn wir nicht gerade von einer 64bit DDR3 Karte reden.
Gerade bei den hohen Taktraten von GDDR5 ist das Speicherinterface nicht gerade zu vernachlässigen.

Sunjy Kamikaze schrieb:
Was is den an Rebrands so schlimm. Wenn ich die Effizienz etwas verbessere und die leistung kann ich das doch ohne Probleme weiterverwenden.
Wo soll die bessere Effizienz herkommen, wenn ich die gleiche GPU verwende?
Rebrands sind normal und wirtschaftlich nötig.
Nur AMD hat in letzter Zeit ziemlich wenig neue GPUs gebracht und hat daher ziemlich alte Kamellen im Programm.
Der Oland und Pitcairn sind technisch total veraltet, Bonaire und Hawaii auch leicht angestaubt und von den neuen GPUs Fiji und Tonga ist letzterer für AMD etwas missglückt, da nicht/kaum schneller und/oder billiger als Tahiti.
AMD setzt Tonga in einem Preisbereich ein wo Nvidia von unten mit dem GM206 ankommt. Letzterer ist erheblich kleiner und billiger zu fertigen und dazu kommt noch das simple Board (weniger Speicherchips, einfache Stromversorgung).
Im gesamten Programm ist zudem die Effizienz jetzt schon hinter Nvidia, denen man ja nachsagt ein komplett neues Programm in 16nm rauszubringen.
 
tek9 schrieb:
...
Aha deshalb verlieren die nvidia Chips auch bei steigender Auflösung schneller ihre Leistung als AMD Karten. Ja stimmt, wer auf dem 99 Euro FullHD Display aus dem Lebensmittel Discounter spielen will ist mit nvidia besser beraten. Besitzer von höher auflösenden Display sollten AMD eher in Erwägung ziehen...

Und das hat was genau mit der Effizienz zu tun? Und damit dass trotz vieler Recheneinheiten, auch in hohen Auflösungen, kein Vorsprung raus kommt, der in einem ähnlichen Verhältnis der Recheneinheiten zueinander steht?
Die Fury X schafft es (erst) in 4K leistungstechnisch zur 980Ti aufzuschließen, hat ~45% (!!!) mehr Recheneinheiten und eine neue sehr stromsparende Speichertechnik, verbraucht aber dennoch ~22% mehr Strom als eine 980Ti.
Dasselbe mit R9 390 und GTX970, auch wenn ich da selbst die 390 empfehle, hat diese ~54% mehr Recheneinheiten, liegt aber nicht annähernd in dieser Größenordnung vorn. Beim Stromverbrauch sind es ~62% zum Vorteil von Nvidia.
Es gibt nur einen einzigen Fall, wo die Mehrleistung unter höheren Auflösungen bezüglich der Effizienz einen nennenswerten Einfluss hat. Das ist das Duell zwischen GTX980 und R9 Nano, welche unter Full HD gleich schnell sind aber unter 4K dann etwas über 10% für die Nano stehen. Da verbraucht die Nano nur unwesentlich mehr und mit dem Vorsprung der hohen Auflösungen reicht es, um in der Effizienz minimal besser zu sein (allein unter FHD nicht). Das ist allerdings nur die Effizienz bezüglich des Stromverbrauchs, nicht bezüglich der Leistung/Recheneinheiten. Die 100% mehr Recheneinheiten kriegt man mit ~10% mehr Leistung wohl schlecht ausgeglichen.

tek9 schrieb:
Wenn ich mir die Beiträge von euch Fanboys so durchlese bekomme ich den Eindruck das Nvidia nicht die die effizienteren Grafikkarten baut, sondern ihre Käufer nur halb so klug sind daher und jedes Märchen glauben das auf der Homepage von nvidia steht...
Sorry, aber dein Beitrag war jetzt inhaltlich so schlecht und teilweise falsch, dass du es dir nicht leisten kannst, irgendwen als nur halb so klug zu bezeichnen.
Nochmal in kurz: Die Leistungsunterschiede in den Auflösungen von maximal 10-15% kannst du nicht hernehmen, um abzustreiten dass Nvidia die effizienteren Karten baut, wenn die in den Größenordnungen von 50-100% weniger Recheneinheiten und 20-60% weniger Strom verbrauchen. Das einzige, wo ich diesbezüglich noch mitgehen würde, wäre Leistung/Preis. Das ist aber kein Maß für die Effizienz.
 
Verstehen tut man AMDs Schritt es bei 256 Bit zu belassen schon, ist deutlich günstiger und die Nachteile wohl eher marginal (vielleicht 5% Performance).
384Bit waren sicher zu Zeiten vorgesehen als man nicht mit 7G GDDR5 gerechnet hat. Die SI sind heute nur so schmal möglich da der Takt auf Ram Seite ordentlich gestiegen ist. Da wollte AMD schon lang bei HBM sein.

Viele der AMD Karten haben in selbem Leistungsbereich wie Nvidia ein deutlich größeres SI, was die Karten auch teurer macht (siehe Hawaii). Das geht eben auf die Marge (heute) aber damals, vor Jahren, war die Entscheidung schlicht nachvollziehbar auf 384 Bit zu gehen da man nur raten konnte wie es mit dem VRAM weiter geht. Sicher war nur GDDR5.
 
D708 schrieb:
Ich kenne mich bei Grakas jetzt generell nur wenig aus. Aber ist die Speicherbandbreit doch keine Einbahnstraße. Also von der höheren die Geschwindigkeit mit der der Chip die Daten in den Speicher lädt, muss die Leistung doch profitieren. Tendenziell ist es doch begrüßenswert, wenn die Daten schneller in den Speicher kommen. Komme jetzt eher aus der CPU Ecke und versuche das so ein bisschen zu vergleichen. Ist das ganze nicht auch der Grund, warum die Fury, umso höher die Auflösung ist, näher an die Titan rückt. Bitte klärt mich einer auf.
Ist doch bei den CPUs genauso. Im Consumerbereich bringts auch bei kaum einer Anwendung was wenn du bei einem Haswell-E samt Quadchannel Speicherinterface den Takt von beispielweise 2133 auf 2666 erhöhst. Mehr als genug bringt dann nichts mehr. Du musst ja auch irgenwie Daten haben die gespeichert/geladen werden sollen.

Und das Fury in hohen Auflösungen an die Titan ranrückt liegt (hauptsächlich) nicht am Speicher. Auch AMD Karten mit deutlich geringerem Speicherdurchsatz, wie Tonga, gewinnen im Vergleich bei höheren Auflösungen.

Ob Nvidia jetzt bei höheren Auflösungen einbricht oder AMD bei niedrigen Auflösungen die Rechenleistung nicht auf die "Straße" bringt, darüber lässt sich jetzt vortrefflich streiten. :D
 
tek9 schrieb:
Du glaubst das nvidia in der Preisklasse mit einem 348 Bit Interface Geld verdient? Dann erkläre uns mal warum die 960 und ihre diversen Vorgänger, welche anfangs in dieser Preislage platziert werden, regelmäßig nur 128bit Interfaces spendiert bekommen? Irgendwo müssen die 50 Prozent Gewinnspanne bei nvidia her kommen

richtig. Die GTX 960 dürfte gerade wegen des SI einen sehr gute Marge liefern. Aber sind wir mal ehrlichm genau sowas fehlt AMD seit Jahren, ein Produkt dass ordentlich Gewinne einfährt.
Wenn man sich die Pakten der letzten Jahre anschaut dürfte Nvidia immer am längeren Hebel gesessen haben, höherer Verkaufspreis bei günstigerer Fertigung. Über die doppelte Marge. Es gibt zwar keinen Preiskampf, aber der Gewinner wäre heute klar.

Beide halten die Preise hoch.
 
Krautmaster

Du erzählst immer was von besseren Margen, machst das aber nur durch die DIE-Size aus.
Das speziell lustige ist, Maxwell ist die erste Generation, wo die GPUs eine spur kleiner sind, aber du redest gleich davon, als ob das ein NV-typische Geschichte wäre. Speziell was GM200 angeht, sieht man, dass das eigentlich nicht der Fall ist. Aber sowas kann man schnell aufstellen, wenn Maxwell reine Gamer GPUs sind.

Freu dich weiterhin, dass du für noch weniger "Die-Size" noch mehr Geld gezahlt hast als es früher schon der Fall war, als man die hohen Preise bei NV dadurch noch irgendwie rechtfertigen konnte.
 
Hopsekäse schrieb:
Damit hätten es die Fijii nie auf die aktuelle Effizienz geschafft (mal davon abgesehen, dass über 4000 Pins an der GPU auch eher schwierig zu managen wären).
Ich weiß nicht genau wie du das meinst, aber Fiji hat über 4000 Pins an der GPU. Das Problem wäre in diesem Fall aber eher, dass du 4000 Leistungen nicht in das PCB bringen kannst, auf dem Interposer ist das aber kein Problem.

Auch die Aussage über den Stromverbrauch der Leitungen finde ich fragwürdig. Die Änderung der Leitungslänge, oder Anzahl wird sich wohl eher im mW Bereich abspielen. Mir ist nichts bekannt, wo das nur Ansatzweise mal getestet wurde. Oder dass jemand mal behauptet hat, Karte X ist effizienter als Karte Y weil die Speicherchips näher an der GPU sind.

@oldmanhunting: Und ich bin davon überzeugt, dass AMD auch in der 384bit Version von Tonga Geld mit dem Chip verdient hätte, nur eben nicht so viel wie mit der 256bit Version. Und nun?
 
LOL, das Speicherinterface... der Tonga verhungert genauso wie der Fiji und schon zahlreiche andere AMD Chips am Frontend.
 
Sorry,aber ich muss nochmal fast dasselbe posten-Ok,ich habe in meinem PC-Gaming-Leben(seit V1-Natl.auch schon auf C64 Amiga,CPC...) immer auf das PLV geachtet..-Das ging ja leider erst richtig los,als man selbst aussuchem k.,v.wem die HW kam u.das wiederum erst mit den "offenen" nicht propritären Plattformen!
Für Tonga/Derivate wäre ein 384 SI absoluter Schwachsinn gewesen(aus P/L-technischer,wie auch aus rein Leistungstechnischer Sicht)
Mehr als 4GB bringen dem Chip nix und auch der Mehraufwand für ein PCB mit 384 Leiterbahnen w. Preistechnisch und auch vom Leistungsgewinn sehr kontraproduktiv gewesen!
Ich hoffe für AMD,dass Sie endlich wieder die Kurve kriegen,richtig Gas geben und NV mal wieder richtig parolie bieten!!!
Wie gesagt: Mir geht es nach dem PLV. Deshalb hab ich mir damals kurz nach Einführung der 970 diese geholt u.bin bisher echt glückl..(natl.war ich massiv angepisst!!) Aber da gab es leider noch keine 390(x)
Nun ja, sorry für das Gelabere.
Aber AMD wird uns wahrschl.hauptsächl.Aufgrund von fehlenden Mitteln wieder mit vielen REBRANDS beglücken!
FIJI war ja nicht so der Hit!
Aber wer weiss,viell.geht da ja noch ne grasse Geheimwaffe!
AMD wird sehr genau geprüft haben,ob Tonga von einem mehr als 256 Bit-Si profitiert! -Ausserdem spielen natl.auch Marketing-bzw. P/L-technische Aspekte eine grosse Rolle. AMD wird wohl genau gewusst haben,was Sie tun. Es wäre imho aber besser gewesen,das mit dem SI von Anfang an offenzulegen.
Wie gesagt,ich bin kein Fanboy!-Ich kaufe zu 80 % nach PLV und danach v.a. nach Lautstärke bzw. Kundenrezessionen!
Ich hoffe ajF,dass AMD endl.mal wieder nen richtig fetten Treffer landet.
Nochmals entschuldigung für meine "Ausschweifung"!
Alles Gute,schöne Feiertage u. nen guten Rutsch. theDudeabides
 
Zuletzt bearbeitet:
oldmanhunting schrieb:
Ja dann freuen wir uns auf HBM 2.0 und schimpfen weil die GPU's teurer werden wegen HBM 2.0. So ein hoher Datendurchsatz muß mir in meiner Mittelklasse GPU erst einmal einen spürbaren Vorteil bringen bevor der Mehrpreis akzeptiert werden kann.

Ich bin davon überzeugt, das NVidia mit so einem 384-Bit-Speicherinterface Geld verdient hätte und den nicht einfach so brach liegen und vergammeln läßt.

Hier zu behaupten, dass alle Käufer von NVidia GPU's nur halb so klug sind wie die Käufer von AMD GPU's ist nichts anderes als dummes AMD Fan Boy Gelaber und gehört hier auch nicht hin.

nVidia hätte 4GB GDDR5 an 256bit und 4 Steckplätze zu je 32bit für DDR3/4 gemacht. Erfahrung hinsichtlich solcher Konstellation hätten sie ja zu Genüge und so würden sie das Speicherinterface ausnützen. Nur einen Vorteil daraus würde man nicht ziehen. Das ist auch das, was schon mehrmals gesagt wurde.

Zuerst beschwerst du dich über HBM 2 in der Mittelklasse und das es dir "zu viel Bandbreite" ist, die den GPUs nichts bringt und dann meinst du, dass nVidia aus Antigua = 380X mehr machen könnte. Beweise oder Argumente bleiben aus, aber hauptsache man sagt "nVidia kanns besser".

Das ist meiner Meinung nach auch dummes nVidia-Fanboy-Gelaber und gehört in eine vernünftige Diskussion nicht hin.
 
Locuza schrieb:
Wieso verhungert Tonga am Frontend?
AMD Karten brauchen deutlich mehr CPU Power um ihre Leistung auf den Monitor zu bringen. Dafür skaliert ihr Backend besser als bei NVidia Karten was man schön bei höheren Auflösungen sieht.

Sind halt zwei unterschiedliche Konzepte von AMD und Nvidia. Und AMD hat imo etwas zu früh aufs den Zug Parallelität gesetzt. Da kommt der Durchbruch ja erst mit DX12. Nvidias super schnelles Fließband nutzt DX11 deutlich besser aus.
 
AMD Karten brauchen deutlich mehr CPU Power um ihre Leistung auf den Monitor zu bringen.

Ich bezweifle stark, dass das etwas mit den GPUs an sich zu tun hat. Denn sämtliche GPUs steuern sich ja mehr oder weniger gleich an: Der Treiber bzw. die CPU baut aus den OpenGL/DX-Calls Schlangen von GPU-Befehlen, die sie anschließend auf die GPU hochlädt und die dann von der GPU ausgeführt werden. Wieso sollten CPUs für das Bauen der Schlangen und für das Hochladen bei AMD-GPUs deutlich mehr Leistung als bei NVIDIA-GPUs benötigen?
 
Zuletzt bearbeitet:
Das kommt schon mal vor, wenn Leute Buzzword Bingo spielem ^^
 
Wenn du mir jetzt noch plausibel erklären kannst, wie front-und Backend mit einem cpulimit zusammenhängen, wär ich beeindruckt.
 
Nai schrieb:
Ich bezweifle stark, dass das etwas mit den GPUs an sich zu tun hat.
Dann erklär einfach warum AMD GPUs der letzten zwei Generationen mit mehr CPU Power stärker skalieren als die Nvidia Pendants. Und ohne Buzzwords. Dann wäre ich ebenfalls beeindruckt. ;)
 
Der m.E. wahrscheinlichste Grund dafür sind Treibergeschichten bzw Treiberoptimierungen. Denn die abstrakten Befehle der einzigen API-Schlange müssen ja *irgendwie* in die Hardware-Befehle für die GPU-Schlangen transformiert und nebenbei auch noch optimiert werden. Zum Beispiel kann ermittelt werden welche Befehle während einer asynchronen Kopieroperation ausgeführt werden dürfen. Oder wie man mehrere Compute-Calls auf die mehreren Compute-Schlangen, die eine GPU so hat, verteilen kann. Zudem fallen dann noch weitere diverse Probleme wie das Speichermanagement bzw. Swapping auf den GPUs an. Insgesamt sollte der Treiber hierbei vor sehr ähnlichen Problemen stehen, wie ein Compiler beim Erstellen und Optimieren des Maschinencodes - alles soeben genannte geht zum Beispiel in die Richtung Dependency-Analysis. Jedoch muss der Treiber diese Optimierungsprobleme möglichst performant zur Laufzeit lösen. Ich nehme an, dass ein Treiberprogrammierer in diesem Bereich sehr stark optimieren kann.
 
Zuletzt bearbeitet:
NVidia hat ja mal als Antwort auf Mantle seinen Treiber einer entsprechenden Optimierung zur Reduzierung des CPU Overhead unterzogen. Sowas fehlt dem AMD Treiber einfach... die setzen lieber auf Mantle und DX12.
 
Manche haben echt den Schuß nicht mehr gehört. Gerade Tonga hat ein starkes Frontend im Vergleich zu den anderen AMD-GPUs.
Tahiti hatte sicherlich nen zu schwaches Frontend, Fiji hatt das gleiche wie Tonga, bei doppelter Rechenleistung, das ist auch ziemlich knapp. Aber bei Tonga ist das ganz sicherlich kein großes Problem.
 
bensen schrieb:
Ist doch bei den CPUs genauso. Im Consumerbereich bringts auch bei kaum einer Anwendung was wenn du bei einem Haswell-E samt Quadchannel Speicherinterface den Takt von beispielweise 2133 auf 2666 erhöhst. Mehr als genug bringt dann nichts mehr. Du musst ja auch irgenwie Daten haben die gespeichert/geladen werden sollen.

Und das Fury in hohen Auflösungen an die Titan ranrückt liegt (hauptsächlich) nicht am Speicher. Auch AMD Karten mit deutlich geringerem Speicherdurchsatz, wie Tonga, gewinnen im Vergleich bei höheren Auflösungen.

Ob Nvidia jetzt bei höheren Auflösungen einbricht oder AMD bei niedrigen Auflösungen die Rechenleistung nicht auf die "Straße" bringt, darüber lässt sich jetzt vortrefflich streiten. :D

Naja also die die Speicherbandbreite bei DDR 4 ist schon nicht schlecht, wenn die höher ist. Du wirst in Games keine Frames mehr rauskitzeln, aber wenn du ein paar viele kleine Dateien verschiebst, macht sich das schnell bemerkbar. Deswegen meine Analogie zur CPU. Sobald die Datenmenge groß wird, viele kleine Dateien, bzw hohe Auflösungen und ne Menge geänderter Pixel pro Frame( oder Physik), profitiert man vom größeren Interface. Je schneller die Daten im Speicher sind, umso schneller sind sie wieder abrufbar, bearbeitbar.
Klar hierbei muss auch ich sagen, 4K Gaming ist sowieso nur so halb möglich, genauso 100Gbyte an Daten zu verschieben(ob das wirklich ins Limit des Speicherinterface rennt), aber Paulschal zu sagen, ist Murks egal, finde ich ein Bisschen dünn.
 
Zurück
Oben