News Radeon R9 370X: Zweite Reinkarnation der Pitcairn-GPU bereits im Test

... Ne wie du das schilderst macht das echt keinen Sinn! Aber so meinte ich das ja auch garnicht!

Ich rede nicht davon einen Tonga XT zu beschneiden sondern ihn zu halbieren. Sprich neue Fertigungsmaske!
Mir gefällt halt einfach die Vorstellung von 8 CUs in einer Shader Engine, das klingt nach nem gut dimensioniertem front end.
 
Der G92b von AMD!:rolleyes:
 
Zuletzt bearbeitet:
Pintion

AMD hat offiziell mehrere Tape Outs von mehreren Chips in 14 nm bekannt gegeben.
Laut Gerüchten soll das komplette Line Up HBM bekommen, besonders weil AMD von Hynix bevorzugt werden soll. Selbst in 28nm kostet eine Maske ca 1 Millionen. Man würde mehrere Revision benötigen. Bist du der Meinung es würde sich auszahlen, damit der Chip etwas weniger verbraucht und free sync unterstützt ?
Was macht man mit den restlichen Chips die man eventuell auf Lager hat ?

Es kann gut sein dass Pitcairn der erste Chip ist der in 14nm ersetzt werden könnte. Also dafür ein Jahr zuvor einen neuen Chip und Millionen investieren um eventuell mehr Chips zu verkaufen, der dann teurer verkauft werden müsste als der alte Chip der von der Effizienz gar nicht mal wesentlich schlechter ist ?
NV kann die 950 nicht mal günstiger als AMD anbieten. Ich vermute dass die 950 die Performane der 370 hat und OC Versionen bei der 370X liegen könnte. Aber alles andere ist zu nahe an der 960.

Der Grund wieso der Chip solange genützt wird, liegt daran, dass wir noch 28nm haben. AMD will offensichtlich Geld sparen. Eigentlich hätte es ein neues Line Up geben sollen und das mit Tonga in 20 nm und das vermutlich bei GF und nicht bei TSMC, deshalb war es für AMD gar nicht so teuer diverse Chips in 20 zu streichen und auf den 14nm Finfet Prozess umzusteigen, dank Synopsys und der Lizenzierung des 14nm Finfet Prozesses von Samsung durch GF. Ich bin sehr zuversichtlich dass die nächsten Grafikkarten somit von GF kommen.
Tonga wäre von der Chipgröße in 20 nm der eigentliche pitcairn Nachfolger gewesen.
 
Zuletzt bearbeitet:
Was hat AMD die letzten 4 Jahre eigentlich gemacht wenn die immer und immer wieder alte Chips aufwärmen müssen statt mal was neues auf den Markt zu schmeißen?
 
Ich kann zwar kein Chinesisch, aber den Test halte ich für Fake. glaube kaum, dass AMD eine TreiberCD mit dem Aufdruck ATI beilegt...:rolleyes:

@Grundkurs
Die 290 und die Fury sind durchaus neue Karten. Damals war AMD halt sehr vorbildlich und hat in seine 7000er Reihe bereits alle Features integiert. Nun hat Nvidia nachgezigen, und alle meckern, dass AMD die kleinen Karten neu auflegt. Andererseits sind sie mit HBM Nvidia technisch bereits vorraus. Ich gehe auch mal stark davon aus, dass die 400er dann komplett neu sind.

PS: Meckerst du eigentlich auch bei VW rum, weil sie ihr letzter Golf ein technischer Rebrand ist?
http://www.handelsblatt.com/auto/te...chgiftige-aetzende-flusssaeure/8179804-2.html
 
Zuletzt bearbeitet:
Grundkurs schrieb:
Was hat AMD die letzten 4 Jahre eigentlich gemacht wenn die immer und immer wieder alte Chips aufwärmen müssen statt mal was neues auf den Markt zu schmeißen?

Warum was neues auf den markt werfen wenn man nicht muss? :D

amd hat nur rebrands gebracht und trotzdem sind die meisten karten jetz atraktiver als die nvidia karten

r9 390>gtx 970

r9 380>gtx 960

wenn man net ganz soviel geld ausgeben möchte dann geht ne r9 390x auch voll klar gegenüber ner gtx 980

und im highend segment können sie gut mithalten da muss sich jeder selbst entscheiden und unter der r9 380 hat ja nvidia nurnoch die gtx 750 ti zu bieten
 
[table="width: 800, class: grid, align: center"]
[tr]
[td]
[/td]
[td]
[/td]
[td]
[/td]
[td]
ALUs​
[/td]
[td]
GCN Version​
[/td]
[/tr]
[tr]
[td]
R7 340+350​
[/td]
[td]
R7 250​
[/td]
[td]
7730​
[/td]
[td]
384​
[/td]
[td]
1.0​
[/td]
[/tr]
[tr]
[td]
[/td]
[td]
R7 250E​
[/td]
[td]
7750​
[/td]
[td]
512​
[/td]
[td]
1.0​
[/td]
[/tr]
[tr]
[td][/td]
[td]
R7 250X​
[/td]
[td]
7770​
[/td]
[td]
640​
[/td]
[td]
1.0​
[/td]
[/tr]
[tr]
[td]
R7 360​
[/td]
[td]
R7 260​
[/td]
[td][/td]
[td]
768​
[/td]
[td]
1.1​
[/td]
[/tr]
[tr]
[td][/td]
[td]
R7 260X​
[/td]
[td]
7790​
[/td]
[td]
896​
[/td]
[td]
1.1​
[/td]
[/tr]
[tr]
[td]
R7 370​
[/td]
[td]
R7 265​
[/td]
[td]
7850​
[/td]
[td]
1024​
[/td]
[td]
1.0​
[/td]
[/tr]
[tr]
[td][/td]
[td]
R9 270+X​
[/td]
[td]
7870​
[/td]
[td]
1280​
[/td]
[td]
1.0​
[/td]
[/tr]
[tr]
[td][/td]
[td]
[/td]
[td]
7870​
[/td]
[td]
1536 (Boost Edition)​
[/td]
[td]
1.0​
[/td]
[/tr]
[tr]
[td]
[/td]
[td]
R9 280​
[/td]
[td]
7950​
[/td]
[td]
1792​
[/td]
[td]
1.0​
[/td]
[/tr]
[tr]
[td]
R9 380​
[/td]
[td]
R9 285​
[/td]
[td]
[/td]
[td]
1792​
[/td]
[td]
1.2​
[/td]
[/tr]
[tr]
[td]
[/td]
[td]
R9 280X​
[/td]
[td]
7970​
[/td]
[td]
2048​
[/td]
[td]
1.0​
[/td]
[/tr]
[tr]
[td]
R9 380X​
[/td]
[td]
[/td]
[td]
[/td]
[td]
2048​
[/td]
[td]
1.2​
[/td]
[/tr]
[tr]
[td]
R9 390​
[/td]
[td]
R9 290​
[/td]
[td][/td]
[td]
2560​
[/td]
[td]
1.1​
[/td]
[/tr]
[tr]
[td]
R9 390X​
[/td]
[td]
R9 290X​
[/td]
[td][/td]
[td]
2816​
[/td]
[td]
1.1​
[/td]
[/tr]
[tr]
[td]
R9 Fury​
[/td]
[td]
[/td]
[td][/td]
[td]
3584​
[/td]
[td]
1.2​
[/td]
[/tr]
[tr]
[td]
R9 Fury X​
[/td]
[td]
[/td]
[td][/td]
[td]
4096​
[/td]
[td]
1.2​
[/td]
[/tr]
[/table]
 
Zuletzt bearbeitet: (Feedback implementieret)
Mr.Kaijudo

Eigentlich ist die 7870 Boost ein eigener Chip nämlich Tahiti LE. Die sollte man eventuell getrennt aufschreiben.
 
Mr.Kaijudo schrieb:
[TABLE="class: grid, align: center"]
[TR]
[TD]
Rebrand 2​
[/TD]
[TD]
Rebrand 1​
[/TD]
[TD]
Original​
[/TD]
[TD]
ALUs​
[/TD]
[/TR]
[TR]
[TD]
R7 340+350​
[/TD]
[TD]
R7 250​
[/TD]
[TD]
7730​
[/TD]
[TD]
384 GCN 1.0
[/TD]
[/TR]
[TR]
[TD][/TD]
[TD]
R7 250E​
[/TD]
[TD]
7750​
[/TD]
[TD]
512 GCN 1.0
[/TD]
[/TR]
[TR]
[TD][/TD]
[TD]
R7 250X​
[/TD]
[TD]
7770​
[/TD]
[TD]
640 GCN 1.0
[/TD]
[/TR]
[TR]
[TD]

[/TD]
[TD]
R7 360
[/TD]
[TD="align: center"]R7 260
[/TD]
[TD]
768 GCN 1.0
[/TD]
[/TR]
[TR]
[TD][/TD]
[TD]
R7 260X​
[/TD]
[TD]
7790​
[/TD]
[TD]
896 GCN 1.1
[/TD]
[/TR]
[TR]
[TD]
R7 370​
[/TD]
[TD]
R7 265​
[/TD]
[TD]
7850​
[/TD]
[TD]
1024 GCN 1.0
[/TD]
[/TR]
[TR]
[TD][/TD]
[TD]
R9 270+X (1280)​
[/TD]
[TD]
7870​
[/TD]
[TD]
1280/1536 Normal/Boost Edition GCN 1.0
[/TD]
[/TR]
[TR]
[TD][/TD]
[TD]
R9 280
[/TD]
[TD]
7950
[/TD]
[TD]
1792 GCN 1.0​
[/TD]
[/TR]
[TR]
[TD]

[/TD]
[TD]
R9 380
[/TD]
[TD="align: center"]R9 285
[/TD]
[TD]
1792 GCN 1.2​
[/TD]
[/TR]
[TR]
[TD][/TD]
[TD]
R9 280X​
[/TD]
[TD]
7970​
[/TD]
[TD]
2048 GCN 1.0
[/TD]
[/TR]
[TR]
[TD]

[/TD]
[TD]
R9 390
[/TD]
[TD]
R9 290
[/TD]
[TD]
2560 GCN 1.1
[/TD]
[/TR]
[TR]
[TD]

[/TD]
[TD]
R9 390X
[/TD]
[TD]
R9 290X
[/TD]
[TD]
2816 GCN 1.1
[/TD]
[/TR]
[/TABLE]


Sollte doch so sein, oder nicht? Was soll das, die 380, 390 und 390X als 2. Rebrand zu bezeichnen?
 
Und die 250 ist kein Rebrand der 7730, sondern die Desktopversion der HD 8790M.
 
marco_f

hast du recht, ist mir gerade erst aufgefallen, dass da eine 7730 in der Liste vorkommt. Das war eine einfach weitere beschnittene 7750, somit passiert der Chip auf einem Cape Verde GPU.
http://www.tomshardware.com/reviews/radeon-hd-7730-cape-verde-review,3575.html
We're not surprised that the Radeon HD 7730 comes armed with a cut-down version of the Cape Verde GPU found in AMD's Radeon HD 7750 and 7770.

Die 250 basiert aber auf einen eigenen Chip der nur 384 shader hat, der den Namen Oland (Desktop) trägt und ursprünglich wie du beschreibst, eigentlich für Notebooks eingeführt wurde und gleich soviel ich mich erinnere für 3 Klassen eingesetzt wurde.

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Radeon-HD-8000M-Serie-1040709/
Die HD 8500M, Radeon HD 8600M sowie HD 8700M sind auch für lahmen DDR3-Speicher freigegeben und verfügen durch die Bank über 384 statt 640 Shader-Einheiten, das Speicher-Interface ist 64 oder 128 Bit breit.
 
UrlaubMitStalin schrieb:
Schon lustig, meien HD7850 ist quasie immernoch aktuell, da ist auch nen Pitcain drin.

edit: es sollte natürlich eien HD7850 sein, keine 8750.

es sollte außerdem "meine", "ein" und "eine" sein... ;) :p

Tja, das ist der Grund weshalb 2014 und 2015 für mich allgemein flach fallen, was Aufrüsten angeht. So krass langsam ist die 7950 auch nicht, als dass es mich pressiert :)
 
Stark, damit habe ich also weiterhin eine topaktuelle Grafikkarte.
 
man ey amd soll jetzt ma was machen das nvidia in zugzwang bringt.

ich überspring grade die 2 generation und so langsam wirds arschig.

ich kann mit den 2x gk110er bei 1386 mhz noch locker oben mit halten.

hätte amd ma attacke gemachte hätte nvdia keine verarsche 980 ti mit teil defeckt chips gebracht.
 
Also irgendwie habe ich oft den Eindruck, daß eine stattliche Anzahl der "Experten" denkt, eine neue Grafikkarte zu entwickeln sei wie Kuchen backen. "Oh nVidia hat aber einen großen Kuchen gebacken, nun muß AMD einfach nur einen größeren backen" -die Zutaten sind ja die gleichen...

Ist doch klar, daß sich immer nur an der Spitze was ändert und das regelmäßig bei beiden Wettbewerbern. Solange die bisherigen Karten leistungsmäßig weiterhin ihre Zielgruppe bedienen können, wäre es dumm, die einfach einzustampfen. So wird es auch weiterhin bleiben: An der Spitze kommt was neues dazu und am Ende fällt was weg.

Deswegen kann eine Spitzen-Graka von vor 3 Jahren heute immer noch obere Mittelklasse sein. Auch weil sich die Ansprüche der Games nur noch langsam steigern. Ich frage mich eh, was da noch groß kommen soll. Die Grafik ist heutzutage schon so gut, daß es eigentlich gar nicht viel mehr braucht.
 
Wir sind hier in einem Computer Forum und erwarten natürlich Fortschritt. Leistung von vor 3-4 Jahren interessiert mich einfach nicht.
Eine Spitzen-Graka von vor 3 Jahren hat damals schon zuviel Strom für die Leistung verbraucht und ist Heute einfach nicht mehr Zeitgemäß. Wenn ich mir Heute eine Neue GPU kaufe, dann nehme ich doch nichts, was es schon seit Jahren auf dem Markt gibt. Zumindest ich finde das Elend langweilig.

Wenn ich Neu kaufe will ich mehr Leistung, weniger Stromverbrauch und einen guten Preis, weil sonst kaufe ich nicht. Alten Abwasch, egal von welcher Firma können die behalten.
 
pipip schrieb:
Alles klar, weil die R7 370X nämlich eine High-End Karte ist. Falls du es noch nicht weißt, R7 Branding gehört noch zu Einsteiger.

R5 ist einsteiger ;).. R7 sind midclass chips für gelegenheitsspieler ohne grosse ansprüche
 
Weder AMD noch Nvidia haben groß Lust darauf, jetzt noch neue Chips auf Basis der uralten, veralteten 28nm-Technik zu entwickeln; also nimmt man halt das her, was es gibt. Die beiden Firmen müssen primär zwei Zwänge erfüllen:

1) Die großen Hersteller verlangen ständig nach "neuen" Modellen, aber für deren Marketing reicht es, den gleichen Chip (evtl. mit einem kleinen, neuen Feature) unter einem anderen Namen anpreisen zu können. Wenn AMD das nicht macht, macht es eben NV, und der OEM ist als Großkunde futsch... kann sich keiner der beiden auf Dauer leisten.
2) Die Fertiger (hier v.a. TSMC) bekommen die kleineren Prozesse einfach nicht marktreif. Wenn AMD und NV Grafikkarten verkaufen wollen, müssen es derzeit einfach 28nm-Chips sein; sie bekommen von TSMC einfach nichts anderes. (Unfähiges Pack ^^)

NV hat vorgelegt, neue Chips mit der alten Technik veröffentlicht, und dabei gezeigt, dass sie deutlich effizienter arbeiten können. AMD will sich das Geld sparen und bringt keine neuen Chips, die nicht schneller wären als die (guten!) alten, sondern wärmt diese einfach neu auf. Der Kompromiss ist die schlechtere Energie-Effizient bei verringerten Entwicklungskosten. Kann man so machen, verstehe ich.

Dass die bestehende Technik einfach ausgereizt ist, zeigt am besten der Fury-Chip: Das ist im wortwörtlich ja auch nur ein alter Tonga (oder halt 2 zusammen gepappt) -- welcher selbst auch schon wohl für den kleineren Prozess designed wurde, aber halt mangels Möglichkeit dann doch in 28nm gefertigt werden muss. Nur: Jetzt stoßen sie ans Limit, was geometrisch machbar ist. Größer als der Fury (oder sein NV-Gegenpart) können die Chips einfach nicht mehr werden, das ist nicht mehr herstellbar. AMD und NV arbeiten am Limit, was derzeit machbar ist, und müssen trotzdem ständig neue Produkte liefern... blöde Situation. Die würden sicherlich beide gerne neue, deutlich performantere Chips bringen, können es aber nicht.
 
Odysseus277 schrieb:
Dass die bestehende Technik einfach ausgereizt ist, zeigt am besten der Fury-Chip: Das ist im wortwörtlich ja auch nur ein alter Tonga (oder halt 2 zusammen gepappt) -- welcher selbst auch schon wohl für den kleineren Prozess designed wurde, aber halt mangels Möglichkeit dann doch in 28nm gefertigt werden muss. Nur: Jetzt stoßen sie ans Limit, was geometrisch machbar ist. Größer als der Fury (oder sein NV-Gegenpart) können die Chips einfach nicht mehr werden, das ist nicht mehr herstellbar. AMD und NV arbeiten am Limit, was derzeit machbar ist, und müssen trotzdem ständig neue Produkte liefern... blöde Situation. Die würden sicherlich beide gerne neue, deutlich performantere Chips bringen, können es aber nicht.

Es gibt einen Entwicklungszwang, nämlich UHD und höhere Auflösungen, nicht gesprochen von besseren Bildqualitäten: OLED und Quantenpunkt, etc.
Mehr Bildpunkte verlangen größere Grafikleistung nicht nur bei Spielen, und das energieeffizenter denn je. Als vor ca. 10 Jahren Windows Vista erschien, waren alleine mit Aero einige Grakas schon überfordert und Full HD gab's nur in Ansätzen.
Meiner Meinung nach, solange die Auflösung des menschlichen Auges nicht überschritten wird und die VR (Brillen, durchsichtige OLED-Fenster, und was auch immer noch erfunden wird) nicht natürlicher Teil des alltäglichen Lebens sein werden, hat die Graka-Entwicklung eine ziemlich sichere Zukunft. Also mindestens 20 Jahre, oder mehr, höchstens nicht in der heutigen Form.
Was schon heute sichtbar ist, dass viel in die Entwicklung von APUs investiert wird, weil es Ziel ist, die Leistung so zu steigern, dass die Ausmaße, Stromverbrauch und Verzögerungen immer kleiner werden. Die Tablet- bzw. Smartphone-Branche verlangt es sowieso, aber heute haben nicht nur untere Mittelklasse-Mainboards APUs, wo die Prozessor- bzw. Grafikleistung die Supermaschinen vor 10 Jahren hinter sich weisen.
Die Fury X und Abkömmlinge weisen diese Tendenz auf. HBM hat nicht nur kleinere Latenzen, sondern mit dem neuen Interposer auch kleinere Ausmaße. Es ist nur Zeitfrage, dass APUs erscheinen, wo die Grafikleistung den heutigen Top-Graka entspricht und die Prozessorleistung entsprechend hoch ist.
 
Zurück
Oben