News AMDs „Tonga“-GPU mit maximal 2.048 Shadern

Wirklich nur noch lauwarme Aufgüsse, die AMD mit der R9 Serie produziert auch wenn ich eine gesenkte TDP für sinnvoll erachte.Doch solange DX12 noch keine Marktreife erlangt hat, die dann wohl erst mit der R300 Serie Einzug erhalten wird, sehe ich überhaupt keinen einzigen Grund von meiner HD 7950 (bzw. R9 280) :D umzusteigen.

Ich war in den letzten 2 Jahren noch nie so zufrieden mit einer Grafikkarte, was wohl auch daran liegt, das der Markt ein wenig stagniert.Aber so schlimm empfinde ich das gar nicht. Es ist sogar zu begrüßen bei dem ganzen Elektronik Schrott der da im Laufe der Jahre anfällt.Habe sogar kurz überlegt, ob ich auf eine R9 270x umsteige mit 4GB VRAM aber den Gedanken habe ich schnell wieder verworfen.Ich hoffe die 7950 hält noch bis zum Erscheinen der ersten DX12 Karten durch.
 
Rückblickend bin ich eigentlich ganz froh, dass meine 7870 im März kaputt gegangen ist und mir mangels Ersatz der volle Kaufpreis erstattet wurde. Die 285 sollte auf jeden Fall zukunftssicherer sein.
 
Nitschi66 schrieb:
@herdware
Nee wäre gar nicht logisch, denn gcn 1.1 gibt es schon seit der 7790/260(x). Gcn 2.0 ist übrigens bei 290(x) zu finden. Ich frage mich ob die Karte mit den gcn1.1 Shdern überhaupt was reißen kann, auch was die Leistungsaufnahme angeht.

Nicht ganz richtig. Hawaii in den 290(X) ist ebenfalls nur GCN1.1. Genau wie Bonaire (und Tonga?). GCN2.0 gibt es meines Wissens noch nicht. Jedenfalls nicht bei dedizierten GPUs.

Dass einzelne neue GPUs in alte Kartengenerationen einsortiert werden und gleichzeitig alte Karten per Umbennenung in neue Generationen befördert werden, läuft schon länger so. Deshalb ist das alles ein undurchschaubares Durcheinander.

Eigentlich gehört Bonaire schon zur Refresh-Generation nach "Southern Islands" und hätte niemals in HD7000ern auftauchen dürfen. Wenn ich das richtig verstehe, müssten die unter dem Code-Namen "Sea Islands" gelaufen sein, im Gegensatz zu "Southern Island", zu dem z.B. Tahiti gehört und die die HD7000er-Karten-Generation bilden. Dummerweise bestand die ganze "Sea Islands"-Refresh-GPU-Generation zu dem Zeitpunkt überhaupt nur aus Bonaire (und vielleicht auch einigen APU-GPU-Einheiten?). Bonaire hätte eigentlich zusammen mit anderen GPUs seiner Generation (die es zu dem Zeitpunkt nicht gegeben hat) die HD8000er bilden müssen. Und die 200er-Generation hätte dann komplett aus einer ganz neuen GPU-Generation bestehen müssen, die es bis heute nicht gibt. ("Pirate Islands"/GCN2.0?)

Aber ganz ehrlich, ich steige selbst in der Theorie inzwischen nicht mehr durch, welche GPUs bei AMD jetzt welcher Generation angehören und in welche Kartengeneration sie eigentlich gehört hätten usw. Das ist ein heilloses Durcheinander. (Wer will, kann ja mal versuchen aus dieser Tabelle und den dazugehörigen, sehr umfangreichen "Untertabellen" schlau zu werden. Aber die wimmeln von doppelten Einträgen. Also GPUs die in mehreren verschiedenen Generationen eingetragen sind und Karten, die zu verschiedenen Generationen gleichzeitig gehören usw.)

Aber wenn man all das Chaos mal außen vor lässt und zähneknirschend akzeptiert, dass die derzeit aktuellen, als 200er bezeichneten Karten (die mit einem wilden Gemisch aus "Southern Island"/GCN 1.0- und "Sea Islands"/GCN1.1-GPUs bestückt sind) die aktuelle Karten-Generation bilden, wären die jetzt neu eingeführten Karten, die offenbar die 280 und 280X ersetzen sollen, eben doch logischerweise als 300er zu bezeichnen. Auch wenn die GPUs von der Architektur nicht ganz neu sind. Aber die jetzt noch als HD8000er zu bringen, wäre dann ja auch nur verwirrend. :)
 
Zuletzt bearbeitet:
@herdware
stimmt hast recht, wirkliche unterschiede finde ich auch keine und das mit GCN 2.0 war bei mir zu voreilig, da habe ich blind den ersten treffern bei Google vertraut.

@Topic
Egal ob nun GCN 1.1 oder 2.0, mit 1.1 hat man wohl einen Flaschenhals (frontend?) im GCN 1.0 eliminiert, was ja schonmal gut ist. Aber neben der leistungsaufnahme (die ja offensichtlich verbessert wurde -- siehe TDP) ist auch die größe des Chips und damit die kosten zu berücksichtigen, und die Verringerung des Speicherinterfaces hat ihn wohl kleiner gemacht.
 
Zuletzt bearbeitet:
Da DirectX 12 auch auf der XBox One laufen soll, müssten doch eigentlich alle GCN1.1 Karten DX12 kompatibel sein, oder?
 
der Maximalausbau mit 2048 Shadern könnte endlich ein würdiger Nachfolger für meine HD6970 werden. Hoffentlich kommt diese Variante auch zeitnah.

@TheDuffman: ja
 
Bin auch nicht grad begeistert, obwohl der Schritt logisch ist, aber auch wieder inkonsequent. Die 280er waren ja "umgelabelte" Karten, die 2x5er Karten werden jetzt wohl im Laufe der nächsten Monate die alten 270er und 280er ablösen und auf GCN 1.1 bringen.

Damit hätten wir dann endlich die "neue Generation" vom ....letzten Jahr (also Hawaii/Bonair Release 290/260)...quer durch die Bank.

Wenn die das allerdings über den ganzen Herbst strecken, wie lange wird dann wohl GCN2.0 auf sich warten lassen? Mitte 2015?
 
Wenn man das mit den Informationen aus der FirePro News von gestern zusammensetzt, kann man erkennen, dass die Chips ein 4-Faches Frontend haben. Tahiti hatte angeblich starke Probleme die massive Leistung der CUs auch auszulasten. Jetzt hat man von den Shadern her im Prinzip einen Thahiti Chip, der auch ausgelastet werden kann, zwei-drei kleine Verbesserungen und eine neue UVD erhalten hat sowie ein wenig beim Speicher beschnitten wurde.

Kein Wunder aber vermutlich ein sehr guter Chip.
 
promashup schrieb:
150W TDP? AMD, ich ziehe meinen Hut. Sollte sich dieser Wert bestätigen (bei Grakas entspricht die TDP i.d.R. dem tatsächlichen Verbrauch) wird Tonga der Mainstreamkarten-nVidia-Konkurrent werden. Bei ähnlicher Leistung einer 280X ist das ein wirklich großer Schritt, da nur 60% des Verbrauchs.

Naja bei AMD ist die TDP teilweise deutlich höher als der reale durchschnittliche Verbrauch. Beispiel 270X TDP 180W Verbrauch 130-140W, 280 TDP 200W Verbrauch 150-160W oder 280X bzw 290 beide mit 250W TDP Verbrauch knapp über 200W, so ~215W.
Quellen: Toms Hardware.
 
Bei Tomshardware zieht die 760, die in meinen Augen der direkte 280 Konkurrent ist, obwohl etwas langsamer (~7%), 157 Watt. Wenn die 280x (7950) jetzt von 179 Watt auf 150W TDP (also vermutlich 140 reell, unter der 7850) kommt, dann wäre das durchaus ein Sprung nach vorne. Insbesondere weil "große Karten" nicht so leicht Effizient zu machen sind wie "kleine".

Kleine Abfolge von Milchmädchenrechnungen:
Vergleich Stromverbrauch der 760 @ 145 Watt bei der 285: 760 zieht 8% mehr
Vergleich Stromverbrauch der 750 Ti (62 Watt) vs 285: 285 zieht 134% mehr
Vergleich Leistung der 750 Ti vs 285: 285 76% schneller

Das zeigt (in der Annahme von 145Watt, aber es könnten ja auch 120 werden), dass die 750 Ti weiterhin die Effizienteste Grafikkarte wäre, was aber aufgrund des "größenunterschieds" nicht verwunderlich ist.
 
Zuletzt bearbeitet:
TNM schrieb:
Wenn die das allerdings über den ganzen Herbst strecken, wie lange wird dann wohl GCN2.0 auf sich warten lassen? Mitte 2015?

Vermutlich länger, sollten AMD und Nvidia wirklich 20nm überspringen.
 
Der Chip hat neue Features, das wird definitiv GCN 2.0 sein - AMD nennt dies GCN Gen.3 und genau das wird auch im Carrizo verbaut beispielsweise. Es gibt keinen Tonga mit GCN 1.1, genausowenig wie es einen Tonga mit 384Bit Speicherinterface gibt, das ist alles Unfug.
 
ich weiss, das ist zwar etwas off-topic, aber ich überlege momentan stark mir eine (günstige, gebrauchte) 280x anzuschaffen und würde gerne von euch erfahren, ob ihr an meiner Stelle noch warten würdet?
 
robi-wan schrieb:
ich weiss, das ist zwar etwas off-topic, aber ich überlege momentan stark mir eine (günstige, gebrauchte) 280x anzuschaffen und würde gerne von euch erfahren, ob ihr an meiner Stelle noch warten würdet?

Ich würde ja noch abwarten, schon alleine weil die R9 280X dadurch auf dem Gebrauchtmarkt billiger werden dürfte als sie jetzt ist.

promashup schrieb:
150W TDP? AMD, ich ziehe meinen Hut. Sollte sich dieser Wert bestätigen (bei Grakas entspricht die TDP i.d.R. dem tatsächlichen Verbrauch) wird Tonga der Mainstreamkarten-nVidia-Konkurrent werden. Bei ähnlicher Leistung einer 280X ist das ein wirklich großer Schritt, da nur 60% des Verbrauchs.

Ja wenn das so kommt, dann ist die R9 285 bzw. R9 285X klar der Nachfolger meiner GTX 660 im PC.

Kann man mit der AMD Gaming Evolved App eigentlich auch Spiele oder auch am besten den Desktop aufzeichnen?
Denn da hatte mir zumindest Geforce Experience besser gefallen als MSI Afterburner.
 
Das man die Spiele aufnehmen kann ist ja dann schonmal gut zu wissen, nur das mit der Dekstop Aufnahme wäre dann noch ein Problem da ich bisher keine andere Freeware an die Qualität von Nvidia Experience bzw. Shadowplay bei der Desktopaufnahme drankam.

Ich gehe ja bisher davon aus das die R9 285 so gut ist wie R9 280X (wenn sich das nachher auch so bestätigen sollte), das wären ja von der GTX 660 ca. 45-50% mehr Leistung die mir erstmal reichen würden.

Laut CB sind es im Schnitt bei FHD 51% Mehrleistung https://www.computerbase.de/thema/grafikkarte/rangliste/
 
Mit vierfachem Frontend wird der Chip abgehen wie eine Rakete mit <150W. :)

Die GPU ist übrigens GCN 1.2 bzw. GCN 2.0:

Advanced Micro Devices, Inc. (AMD): Mantle and the Next-Gen Renderers With FirePro Graphic Core Next 2

WEDNESDAY, 13 AUGUST | 9:45 - 10:45 am

Mantle provides direct access to the hardware and leads way to the future of renderering. This talk shows how the new GCN2 cores and their advanced features can be exploited to enhance real-time rendering and compute tasks.
http://s2014.siggraph.org/attendees/exhibitor-tech-talks
 
Zurück
Oben