News AMD Radeon: Offiziell: Fiji-GPU abgelichtet, Start am 16. Juni

Mehr Vermutung als alles anderes. Aber bei der Shaderanzahl wäre der Leistungssprung immens. Ich wünsche mir das zwar, vor allem auch für AMD, aber ich habe auch Zweifel daran. Dem gegenüber steht natürlich die CB-Rangliste. Sollte Fiji ~50% schneller als Hawaii sein, so würde sie ziemlich genau auf GM200-Niveau kommen. Mit der "HBM-Komponente" würde Fiji dann vor der Titan X liegen. Und DAS bezweifle ich einfach.
 
Zuletzt bearbeitet: (Link eingefügt)
@issenia

Ich vermute mal Stromverbrauch, würde dem aber widersprechen, denn HBM sorgt ja dafür dass die GPU einen größeren Anteil des Stroms verbrauchen darf, als bisher mit GDDR5, daher kann ich mir die 1.05Ghz schon durchaus vorstellen.

Viel interessanter finde ich den möglichen Übertaktungsspielraum von Fiji, denn da glänzt Maxwell ja ziemlich und man kann bei Titan X und GTX 980 ti locker mal eben 20-25% rausholen.
 
Wurden die hohen Taktrate wirklich mal "ernsthaft" gebencht. Denn ein hoher Chip Takt einer GM200 bringt auch nichts, wenn am Ende dann GDDR5 unter 4k limitiert.
 
Den Verbrauch sehe ich gar nicht mal als Problem an. Sicher gucken einige auf die Effizienz. Aber wenn ich +20% Verbrauch habe (ggü. 980Ti = 300W) und daraus +10% Leistung bekomme, finde ich das vollkommen ok. Beim Übertakten des GM200 geht die Effizienz ja auch relativ schnell flöten, sodass bei gleicher Leistung der gleiche Verbrauch auf der Uhr stehen würde. Außerdem hat Fiji vermutlich erstmal das Nachsehen bezüglich VRAM-Bestückung. Ich halte zwar von der 4/6/8/12GB-Diskussion nicht viel, aber größere Zahlen = größere Augen beim Kunden. Und wenn dann 250W noch 300W gegenüberstehen (ob da mehr Leistung hinter steckt, wird ja gern ignoriert), hat Fiji schon verloren.
 
Viel Übertaktungspotenzial wird Fiji ganz sicher nicht haben. Wahrscheinlich in etwa wie Hawaii, max. 1,2GHz.

Es gab übrigens das Gerücht, dass Hawaii XT doch kein Vollausbau war, ihr erinnert euch vielleicht. Jetzt vermutet man, dass die R9 390X doch nicht einfach eine 290X mit 8GB ist, sondern, dass da ein Hawaii Chip mit 3072 SPs eingesetzt wird, und er jetzt deshalb Grenada heißt :D
Die Gerüchteküche dreht langsam völlig durch ^^
 
zeedy schrieb:
Es gab übrigens das Gerücht, dass Hawaii XT doch kein Vollausbau war, ihr erinnert euch vielleicht. Jetzt vermutet man, dass die R9 390X doch nicht einfach eine 290X mit 8GB ist, sondern, dass da ein Hawaii Chip mit 3072 SPs eingesetzt wird, und er jetzt deshalb Grenada heißt :D

Oh davon hab ich gar nix mitbekommen. Aber wenn das Grenada wird, dann sieht die 390er/380er seeeehr gut aus :D
 
@zeedy: Echt? Davon höre/lese ich jetzt das erste Mal. Hast du einen entsprechenden Link? Diese krumme Zahl von 2816 finde ich für einen Vollausbau auch merkwürdig.
Hallo Grenada! Du bist gerade im Kreise der Fiji und Tonga XT aufgenommen worden. Du bist jetzt interessant! :lol:

EDIT: Und dann würde sich auch der mutmaßliche Preis von 500$(?) erklären.
 
Zuletzt bearbeitet:
Wenn Grenada ein Hawaii mit 3072 Shadern wird eventuell inkl. von Tongas Verbesserungen dann wird das Ding sehr interessant gegen die 970/980 - grade mit 8GB :evillol:

Aber lasst uns das abwarten bevor es hier wieder rund geht ;)
 
Was ich nicht verstehe, dass AMD seine Shader nicht besser optimiert bekommt. Nimmt man bei AMD und NVidia die gleiche Anzahl der Shader dann ist NVidia schneller und Kühler. Warum ist das so?
Um NVidia zu schlagen setzt AMD mehr Shader ein die mehr Strom verbrauchen, mehr Wärme produzieren und mehr Geld kosten und damit den Gewinn reduzieren.

Evtl. denke ich ja falsch aber anstatt immer wieder zu versuchen mit neuen Techniken den Markt zu erobern sollte man evtl. erst einmal an der Basis arbeiten. An dem Tag wo AMD mit einer kleineren GPU die schneller als NVidia ist, weniger verbraucht und Kühler bleibt ist es vorbei mit Vormacht Stellung von NVidia.

Da geht man hin und spart Strom und Platz mit HBM, setzt mehr Shader drauf, verpasst dem Teil noch eine Wakü damit es gekühlt werden kann nur um NVidia in einem Preissegment zu schlagen wo im GPU Markt eh der kleinste Umsatz gemacht wird. Zwischenzeitlich wollen die meisten Kunden aber eine bessere und bezahlbare Mittelklasse und gerade hier kommt nichts.
Dann darf man nicht vergessen, dass auch NVidia 2016 HBM einsetzten kann (wird) und dieser Vorteil ist wieder weg.
 
bin gespannt...habe immernoch die utopische vorstellung, dass die Karte so schnell ist wie meine beiden 980...dann würde ich aber ganz fix tauschen ^^
 
MikelMolto schrieb:
Was ich nicht verstehe, dass AMD seine Shader nicht besser optimiert bekommt. Nimmt man bei AMD und NVidia die gleiche Anzahl der Shader dann ist NVidia schneller und Kühler. Warum ist das so?
Um NVidia zu schlagen setzt AMD mehr Shader ein die mehr Strom verbrauchen, mehr Wärme produzieren und mehr Geld kosten und damit den Gewinn reduzieren.

Evtl. denke ich ja falsch aber anstatt immer wieder zu versuchen mit neuen Techniken den Markt zu erobern sollte man evtl. erst einmal an der Basis arbeiten. An dem Tag wo AMD mit einer kleineren GPU die schneller als NVidia ist, weniger verbraucht und Kühler bleibt ist es vorbei mit Vormacht Stellung von NVidia.

Da geht man hin und spart Strom und Platz mit HBM, setzt mehr Shader drauf, verpasst dem Teil noch eine Wakü damit es gekühlt werden kann nur um NVidia in einem Preissegment zu schlagen wo im GPU Markt eh der kleinste Umsatz gemacht wird. Zwischenzeitlich wollen die meisten Kunden aber eine bessere und bezahlbare Mittelklasse und gerade hier kommt nichts.
Dann darf man nicht vergessen, dass auch NVidia 2016 HBM einsetzten kann (wird) und dieser Vorteil ist wieder weg.

Vergleiche AMDs Chipgröße mit der von nV und du hast den Grund. AMDs Chipdesign ist z.T. deutlich kompakter und kleiner (ein Grund liegt in der bisherigen Fertigung bei TSMC wo sich nVidia meist mehr Waferfläche reservieren konnte und AMD so nahezu gleich viele Chips mit deutlich weniger Material herstellen lassen musste) und lässt sich dadurch nicht so einfach kühlen. Wenn man wie die Boardpartner auf Hawaii damals größtenteils unangepasste Kühler draufklatscht braucht man sich nicht zu wundern dass alles warm und laut wird!
 
OK, du warst schneller. ^^
Man darf das auch bei der Debatte, wer die schnellere/bessere/... GPU hat nicht vergessen: AMDs Chips sind deutlich kleiner und dennoch ähnlich leistungsfähig wie die Geforce-Chips. Da ist es nur logisch, dass das über einen höheren Verbrauch und mehr Abwärme erkauft wird. Wenn dann natürlich noch ineffiziente Kühler montiert werden, braucht man sich nicht zu wunder. :freak:
 
Also denke ich da falsch? Der Maxwell chip ist größer als der von Fiji?
Ich war eigentlich der Meinung, dass AMD in Fiji mehr Shader hat als NVidia in Maxwell und trotzdem nicht bedeutend schneller ist. Aus der Ansicht kam mein Gedanke, das die NVida Shader besser skalieren als die von AMD.
 
Ah das wusst ich bis jetzt auch nicht, Grenada Vollausbau.. klingt sehr spannend, sofern es stimmt.
Mann mann, ich kann einfach nicht mehr warten.. wie gerne würd ich jetzt bei AMD arbeiten nur um die Infos zu haben :D

Und AMD bringt es sehr wohl die Leistungskrone zu besitzen, denn das spricht sich dann auch rum und es sind mehr Leute gewillt eine AMD zu kaufen.
 
Das stimmt soweit schon: Fiji hat mehr Shader als GM200 ist aber dazu von der Fläche her kleiner. Folglich wird auf weniger Fläche mehr Abwärme erzeugt und (Vermutung) dadurch resultiert eine höhere TDP. Die 780Ti, die übrigens der eigentlichen Gegenspieler von Hawaii ist, hat übrigens 2.880 Shadereinheiten und somit mehr als Hawaii (2.816).

EDIT @Xanta: Das bringt dir auch nicht viel, weil du dich darüber ausschweigen müsstest. Und du würdest dich wohl noch mehr aufregen, bei einigen Kommentaren hier. ;)
 
Habt ihr das echt nicht mitbekommen? Der Die Shot von Hawaii wurde analysiert und man zählte eigentlich 48 CUs (Compute Units) zusammen, und nicht 44 wie bei der 290X. 48CUs sind halt 3072 SPs.
http://www.kitguru.net/components/g...aii-gpu-may-be-more-powerful-than-advertised/
Einfach Hawaii 3072 googeln.

MikelMolto schrieb:
Was ich nicht verstehe, dass AMD seine Shader nicht besser optimiert bekommt. Nimmt man bei AMD und NVidia die gleiche Anzahl der Shader dann ist NVidia schneller und Kühler. Warum ist das so?

Weil ein GCN Kern nicht mit einem CUDA Kern bzw die Architekturen von AMD und Nvidia nicht vergleichbar sind ;)
Zum Beispiel benötigt Nvidia separate FP64 Einheiten was bei GCN nicht der Fall ist. Die Berechnung bei doppelter Genauigkeit übernehmen die selben GCN Shader, diese arbeiten dann in Gruppen zusammen. Daher benötigt AMD viele GCN Kerne, und daher versagt Maxwell bei DP mehr oder weniger komplett.
Ein paar Beispiele:
Hawaii 2816 GCN Kerne @512 (!!!) bit SI @438 mm²
GK110 2880 CUDA @384bit @551 mm²
GM204 2048 CUDA Kerne @256bit SI @398 mm²
Tonga 2048 GCN @256/384bit @359 mm²
GM200 3072 CUDA @384bit @601 mm²
Fiji 4096 GCN @530-560 mm²

Wie man sieht, benötigen CUDA Kerne deutlich mehr Platz.
Die Effizienz von Maxwell hängt übrigens mit der sehr feinen Spannungsregelung und nicht unbedingt mit den angeblich effizienteren Kernen. Einfach mal die Reviews von Toms Hardware lesen. Bei voller/konstanter Shaderlast gönnt sich der GM204 deutlich(!) mehr Energie als in bisherigen Spielszenarien.
 
MikelMolto schrieb:
An dem Tag wo AMD mit einer kleineren GPU die schneller als NVidia ist, weniger verbraucht und Kühler bleibt ist es vorbei mit Vormacht Stellung von NVidia.

Nichtmal als AMD mit der HD 5000er Serie das deutlich überlegene Produkt hatte und über ein halbes Jahr vor Nvidia auf dem Markt war, mit den ersten DX11 fähigen Grafikkarten wohlgemerkt, hat das irgendetwas an Nvidias Vormachtstellung geändert. Selbst als Nvidias Antwort nur mit den heißen und lauten "Thermis" erfolgte hat das nichts geändert.

Marktanteile-Grafikchips-fuer-Desktop-Grafikkarten-2002-bis-Q3-2014.png

Und wie weiter unten erläutert wurde, CUDA Cores sind größer als GCN Cores, daher schafft es Nvidia auch mit weniger Shadern, gleich viel oder mehr Leistung als AMD zu erzeugen.
Interessanterweise haben die Nvidia Grafikkarten aber teils deutlich mehr Transistoren als AMD Karten. Die GTX 780 hat zb. gute 1 Milliarde Transistoren mehr als die R9 290X.
 
Einfach mal die Reviews von Toms Hardware lesen.

Für wirklich detaillierte Hardwaretests eh am besten, die messen den Stromverbrauch auch nicht aus der Steckdose :rolleyes:, sondern mit sau teuren/präzisen Messgeräten direkt an den jeweiligen Komponenten und schlüsseln das ganz anders auf, daher schau ich mir CB Tests eigentlich eh nur für das Performance Rating an und nicht den Verbrauch :D Lautstärke kann man dann wieder durchaus gebrauchen auf CB.
 
Depp_vom_Dienst schrieb:
Interessanterweise haben die Nvidia Grafikkarten aber teils deutlich mehr Transistoren als AMD Karten. Die GTX 780 hat zb. gute 1 Milliarde Transistoren mehr als die R9 290X.

Ist das etwa überraschend? Wenn ein Kern größer ist, dann besteht er idR auch aus mehr Transistoren (bei gleicher Fertigung). Dass der GK110, obwohl sehr viel größer, nicht einmal 1Mrd Transistoren mehr als Hawaii hat, liegt an AMDs Packdichte. Was das angeht ist AMD unerreicht, siehe auch Carrizo. Vorteil: Funktions- bzw Featurevielfalt, kleinerer Chip daher günstiger zu fertigen. Nachteil: Leckströme, Energiedichte, evtl niedrigere Taktraten.
Ergänzung ()

Naja Performance Ratings sind eh mit Vorsicht zu genießen, vor allem die von CB ;)
Ich bilde mir mein eigenes Rating indem ich mir verschiedene relevante Benchmarks anschauen. Ansonsten HT4U, dessen Rating besteht aus deutlich über 20 Spielen.
 
Zurück
Oben