News AMD Radeon: R9 390X mit Hawaii und 8 GB GDDR5, Fiji mit neuem Namen

Pilstrinker schrieb:
Suggestiv?

Eine ganz simple Frage, man liest ja soviel darüber, es gibt offenbar Probleme bei einigen Käufern. Andere wiederum scheinen zufrieden oder reden sich die Zufriedenheit zumindest ein.
Ich habe keine Probleme und kenne auch nicht einen, der diese hätte. Da ist auch nichts eingeredet. Es gibt Games mit akuten Drops, wie Shadows of Mordor. Die treten aber auch bei 980 und 290x auf.
Wer nun nicht differenziert, führt framedrops oder Ruckler auf die 3,5 MB zurück, wo sie doch durch die Engine entstehen.
Spannend ist wie oft die 3,5 MB "Kritiker" Fehler sehen, ohne selbst eine 970 zu besitzen ;) Da passt das "sich einreden" besser.
 
Es gibt auch heute Systeme die kein DDR Interleaving nutzen.
Nocheinmal: Ich kenne kein modernes System, wo ein Speicher mit mehreren Kanalen nicht interleaved wäre, bzw. es nicht die Möglichkeit gibt ihn interleaved einzustellen. Evtl. kannst du ja nachhelfen?

Das muss ich auch nicht. Es nennt sich Dual Command Interface und ist in der selben Quelle beschrieben die du schon mehrfach selber verlinkt hast zu HBM. Ist allerdings vollig irrelevant fur die von dir gewählte Beweisfuhrung.
Könntest du bitte *endlich* einmal aufhören, ständig HBM-Features außerhalb ihres Zusammenhangs zu verwenden? Dual-Command-Interface bezieht sich darauf, wie der Memory-Controller auf der "physikalischen Ebene" die Speicherzellen innerhalb eines HBM-Channels addressiert. Die Addressierung innerhalb eines Kanals hat ungefähr mal wieder gar nichts damit zu tun, dass man eine Lastbalancierung zwischen den einzelnen Kanälen benotigt.

Ein Scheinargument nennt man das.
:lol:
Du bist schon seit 2 Threads dabei die ganze zeit zu schreien "aber Single-Cell-Refresh", "aber Dual-Command-Interface", aber . . . Begründungen liefern kannst du aber nie fur deine Aussagen bzw. Argumente, abgesehen davon dass alle HBM-Features in den Quellen stehen und der Zahl 42 entsprechen. Wenn man dich zu sehr unter Druck setzt fängst du an auzuweichen, andere anzugiften oder auszureißen und zu schmollen. Soetwas sind Scheinargumente. . . .

Du schuldest nach wie vor ein Argument warum HBM keine verschiedenen Takte auf unterschiedlichen Speichern ermoglicht.
Das war einmal wieder nicht meine Aussage. Meine Aussage war, dass ein unterschiedliches takten der Kanäle bei GPUs aus Performancegründen keinen großen Sinn ergibt, weil sie dank des interleaved Layouts sowieso immer in etwa gleich belastet werden, bzw. bei unterschiedlicher Taktung immer der langsamste Kanal das gesamte Interface limitieren wurde. Oder alternative Begründung: Falls du, so wie von dir vorgeschlagen, ein Layout wählst, wo die Kanäle sehr unterschiedlich belastet werden, mag zwar ein unterschiedliches takten der Kanäle Sinn ergeben. In diesem Fall jedoch ist die Lastbalancierung durch dein Speicherlayout bereits deutlich suboptimal, weshalb das Speicherlayout aus Performancegründen selbst keinen Sinn ergibt. Damit ergibt auch das unterschiedliche Takten von Kanälen keinen großen Sinn.
 
Zuletzt bearbeitet:
@Pilstrinker
Ich denke doch auch mal, dass die zufriedenen 970erUser -gibt es die überhaupt?^^- sich alles schön reden(muessen) & eine objektive Schilderung da fehl am Platz ist. Man will sich ja nicht eingestehen, welchen Krüppel & dürftige Frames inklusive Frametimes man sich da angelacht hat ...Mein Gott, unglaublich!^^
Jetzt aber besser back 2 topic ... :D


edit:
Manche wissen es einfach nicht besser...
Wissen ist relativ & mMn ist spüren doch entscheidend. Ggf. glättet GSync da auch noch ein wenig. Ist mir jedoch latte, denn entscheidend ist für mich das eigene Empfinden & da gibt es nix zu klagen ... :)
 
Zuletzt bearbeitet:
Spannend ist wie oft die 3,5 MB "Kritiker" Fehler sehen, ohne selbst eine 970 zu besitzen

Die Auswirkungen sind in einigen Spielen mess- und spürbar und treten bspw. bei der GTX 980 nicht auf.

Das reicht schon.

Nicht jeder, der zufrieden mit seiner GTX 970 ist, muss sich das einreden. Manche wissen es einfach nicht besser, und es gibt natürlich auch wirklich zufriedene und überzeugte Käufer.

Denen sei es gegönnt.

Ändert aber nichts an der ursächlichen Problematik.
 
Zuletzt bearbeitet:
Speicherproblematik hin oder her - für den aufgerufenen Preis ist es nichtsdestotrotz eine Top-Karte.
Da kann man lamentieren und sich über NVidias Verhalten aufregen wie man will, an der Tatsache ändert das eigentlich alles nichts.
Die (wenigen) Fälle wo es tatsächlich spürbare Probleme geben mag, sind vermutlich verkraftbar.

Die 290x war bei Release preislich auf Höhe der 980 (die natürlich erst ein 1/2 bis 3/4 Jahr später kam) angesiedelt, bei Veröffentlichung der 980/970 etwa zwischen den beiden.
Auch ein AMD Liebhaber kann sich doch über die 970er freuen, der damalige Preis von guten €440,- oder mehr für eine 290x ist danach nochmals um über €100,- gesunken. Erst seitdem stellen die Karten überhaupt nur mögliche Empfehlungen dar - sie waren nämlich vorher für das gebotene schlicht zu teuer.
Erst seit der Veröffentlichung der 970 gibt es überhaupt wieder im Preisbereich bis €350,- richtig gute Grafikleistung geboten. Das Teil verkauft sich nicht umsonst so gut, auch völlig zu Recht meiner Meinung nach.

Was den Rebrand, Refresh oder Re-was auch immer anbelangt:
Für einen Chip der im Dezember 2013 rauskam (gut... die Referenz Modelle waren leider auch ne Zumutung), schlägt sich die 290x auch weiterhin nicht allzu übel. Allerdings wenn man sieht (siehe Referenzmodelle und ihre Temp.Probleme) wie grenzwertig die schon ewig betrieben werden, dann wäre eine "Neuauflage" als 390x -auch mit 8GB VRAM- schon ziemlich dürftig.

Edit:
Möchte allerdings auch hinzufügen, dass solche Beschneidungen der Hardware (v.a. im Vergleich zum teuren Schwestermodell) schon sauber kommuniziert gehören - sprich, keinesfalls sollte man das gutheißen.
 
Zuletzt bearbeitet:
Möchte allerdings auch hinzufügen, dass solche Beschneidungen der Hardware (v.a. im Vergleich zum teuren Schwestermodell) schon sauber kommuniziert gehören - sprich, keinesfalls sollte man das gutheißen.
Pfff, fand ich sehr gut, da es mir zum Weltruhm verholfen hat :)
 
Armandex0 schrieb:
Speicherproblematik hin oder her -
Nochmals, außer davon zu lesen in der Hochphase des Skandals, hat sich das Thema komplett erledigt und ist nach meiner Erfahrung irrelevant in der Praxis.W3 belegt 2,6 GB VRAM maxed bei mir auf 1440p. Shadows of Mordor läuft mit 6 GB Texturenpaket. GTA V spiele ich auf nominell mehr als belegten 3,5 GB VRAM - und es läuft superb.

Über was reden wir hier als isolierte und inszenierte Beispiele und auf Youtube erkennbare Beispiele des heavey modded Skyrim, ein singuläres Beispiel, was ja total Massenmarkt ist ;)
 
Laphonso schrieb:
Nochmals, außer davon zu lesen in der Hochphase des Skandals, hat sich das Thema [für mich] komplett erledigt und ist nach meiner Erfahrung irrelevant in der Praxis.W3 belegt 2,6 GB VRAM maxed bei mir auf 1440p. Shadows of Mordor läuft mit 6 GB Texturenpaket. GTA V spiele ich auf nominell mehr als belegten 3,5 GB VRAM - und es läuft superb.

Fixed ;)

Auch ich sage inzwischen nicht viel gegen die 970. Ich warte einfach auf die 380-390X und richte danach meine Kaufempfehlungen aus. Aktuell gebe ich allgemein ungern eine Empfehlung aus - die 290er brauchen zu viel / sind mit den meisten Kühlern unbrauchbar, die 970 finde ich persönlich zu 'gefährlich' i.d. Zukunft - die 980 hat zu wenig Speicher und ist zu teuer relativ gesehen. Aktuell ist viel Leistung im 300-400€ Segment. Aber irgendwie ist bei jeder Option ein Haken dabei. :/
 
Armandex0 schrieb:
Was den Rebrand, Refresh oder Re-was auch immer anbelangt:
Für einen Chip der im Dezember 2013 rauskam (gut... die Referenz Modelle waren leider auch ne Zumutung), schlägt sich die 290x auch weiterhin nicht allzu übel. Allerdings wenn man sieht (siehe Referenzmodelle und ihre Temp.Probleme) wie grenzwertig die schon ewig betrieben werden, dann wäre eine "Neuauflage" als 390x -auch mit 8GB VRAM- schon ziemlich dürftig.

Ja, ganz meine Meinung. Wenn man die Temperatur-Probleme mti einer Wakü erschlägt, dann kann man sich das Treiben mit der Maxwell-2 und 300er Serie gelassen ansehen. Spannend wird es erst ab 2016 mit HBM2, 14/16nm-Prozess und die Features von Artic Islands.
 
Nai schrieb:
Das war einmal wieder nicht meine Aussage. Meine Aussage war, dass ein unterschiedliches takten der Kanäle bei GPUs aus Performancegründen keinen großen Sinn ergibt, weil sie dank des interleaved Layouts sowieso immer in etwa gleich belastet werden, bzw. bei unterschiedlicher Taktung immer der langsamste Kanal das gesamte Interface limitieren wurde. Oder alternative Begründung: Falls du, so wie von dir vorgeschlagen, ein Layout wählst, wo die Kanäle sehr unterschiedlich belastet werden, mag zwar ein unterschiedliches takten der Kanäle Sinn ergeben. In diesem Fall jedoch ist die Lastbalancierung durch dein Speicherlayout bereits deutlich suboptimal, weshalb das Speicherlayout aus Performancegründen selbst keinen Sinn ergibt. Damit ergibt auch das unterschiedliche Takten von Kanälen keinen großen Sinn.
Ok dann versuch ich das Pferd mal anders herum aufzuzäumen:
Das von mir Fett markierte und unterstrichene ist falsch, selbst bei jetzt schon verwendeten Speichern.
Beweis:
http://www.design-reuse.com/articles/22578/threading-dram-power-performance-improvement.html
The tRC limitation is generally hidden by using a technique called bank interleaving. However the timing limitation can come in to picture due to the following condition.

tRC >= number of banks cycled * tRRD
[...]
To make things worse, the DDR protocol puts another limitation for DRAM is tFAW timing. It restricts access of more than 4 banks in a rolling time window - tFAW.
B. Impact on DRAM Performance

The DDR3 column granularity is 64 Bytes, it means that minimum data accessed with DDR3 memory is 64 bytes through a read or write operation. But some classes of applications do not require such a high granularity and faces performance penalty. On top of this, DRAM timing parameters like tRRD, tFAW etc are also an overhead on the available bandwidth. These restrictions have tremendous effect on DQ bandwidth as shown in Table-II. This table shows the DQ bandwidth loss due to tRRD and tFAW restrictions for different speed grades of DDR3 using datasheet specified standard IDD7 patterns. The total losses are in the range of 25% to 50%.

All DRAM timing restrictions are limited to a single memory module and not across memory modules. So if memory module is split in two or more module channels on the same module substrate and accessed separately, then the access granularity can be reduced and timing restrictions can be minimized. This technique of dividing same memory module in two or more independent module channels is referred as module threading.

Wir sprechen bei Interleaving also von diesen Werten tRC und tFaw - können wir uns darauf einigen? Falls ja zeige ich dir die Spezifikationen dafür bei HBM, falls nein möchte ich hier nicht zu lange posts mit Zitaten füllen, sondern du kannst mir dann mitteilen ob andere Werte für Interleaving zuständig sind deiner Meinung nach.
 
Für mein begrenztes Verständnis steht in dem zitierten Artikel eigentlich prinzipiell genau das, was Nai gesagt hatte...
nun würd mich auch allmählich interessieren ob es das bei HBM nicht gibt?

Sofern HBM keine Möglichkeit der Speicherverschränkung hätte, wäre ja die ganze tolle Bandbreite plötzlich "für die Katz" und man müsste ständig für mehr Bandbreite -also das Interface am Grafikchip- sorgen wenn man dann doch mal mehr Speicher verbauen möchte?
 
Zuletzt bearbeitet:
@DmC:
Ich habe einen LG UM95 34 Zöller. 600€ aus irgend nem Messe/-Vorführbestand. Hätte aber auch die regulären 700€ gerne bezahlt, den behalt ich mindestens 5 Jahre. Vorher hatte ich einen LG UM65 in 29 Zoll mit 2560x1080. Wollte mal 21:9 probieren und kam auf den Geschmack. Aber 1080 ist etwas zu flach, finde ich. Vor allem bei Textverarbeitung etc.
Aber rund 5MP in 3,4k und 8MP in 4k ist bezüglich der Performance ein deutlicher Unterschied.
Mein Kumpel hat einen 4k-Moni (eher zum arbeiten) und wir haben mal testweise meinen mal angeschlossen.
Mit seiner GTX980 gehen die FPS mit der "geringeren" Auflösung in allen Games deutlich hoch.
Jetzt bereut er den Kauf und will auch nen 3440x1440 statt einer zweiten 980... Kostet ja auch dasselbe!
Zum Arbeiten ist 4k super, nutze ich am Working-PC selber, aber zum spielen sehe ich die 21:9er als die neue Macht.
Wenn du nur spielst, kann ich dir den LG UM65 für 250-300€ sehr empfehlen.

Ich finde, ein Monitor sollte nicht so immense Folgekosten für GraKa und CPU nach sich ziehen. :freak:
Und bei 4K geht halt derzeit nur ein fetter Rechner. in "3,4k" gehts dagegen noch.:cool_alt:
Meine 7950@1200MHZ gefeuert den 34" indes noch erstaunlich gut! Wird aber dennoch Zeit für Ersatz...
Daher sitze ich bezüglich der neuen AMD 380X etwas auf glühenden Kohlen... :grr:
Ergänzung ()

Daedal schrieb:
Warum sollte dies der Fall sein? Ein Refresh des Chips ist wahrscheinlich, dafür war genug Zeit vorhanden. Daher ist ein Rebrand 1:1 wenig wahrscheinlich. Der Chip wird auch nicht Hawaii heissen.
Exakt. Ein rebrand kostet nie und nimmer soviel Zeit. Da MUSS ordentlich was hinterstecken. Der Artikel hier ist imo nichts weiter, als das Bashing eines NV-Fanboys... Weil nicht mal von HBM die Rede ist. Das alles könnte höchstens auf die 380X zutreffen, wenn überhaupt...
 
Ich hoffe, Fiji tauscht das $ und mit einem P in nvidias Augen.
 
Tappy schrieb:
An sich wird es eher ein Refresh als ein Rebrand.
Alle kommenden Karten werden den Standard GCN 1.2 wie die R9 285 haben.
Oder sogar 1.3, wir werden es sehen.
Eine R9 280(x) mit gcn 1.0 wäre schon extrem dumm von AMD, wenn die als 370 oder so ähnliches kommen würde..
Da verpasst man schon einige Features..
Endlich mal einer, der selber denken kann! Genauso ist es nämlich. Erstaunlich, wie alle immer durch gehaltlose "news" in Panik/Gemecker verfallen, oder? Hehe:cool_alt: Dabei deuten alle relevanten Fakten auf eine sehr attraktive neue GraKa-Generation hin!
 
Matzegr schrieb:
Es gibt noch die GTX 660 OEM Version mit 1152 ALUs.
OEM =/= Retail
Die OEM-Karten kommen eh nur in Billig-PCs zum Einsatz, spielen für uns also keinerlei Rolle. Somit hat es die Karte praktisch auch nicht gegeben.

pipip schrieb:
Ich sage mal eines zu dem ganzen. 700 GTX Serie war ein Reband, waren die selben Chips, da ist es völlig wurst, ob die Shader Anzahl etwas anders war, die Performance war quasi identisch. 670 GTX = 760 GTX; 680 GTX = 770 GTX ...
Wenn du nach der Performance gehst gibt es Rebrandings schon immer und in jeder Generation. Schon vor 15 Jahren war die aktuelle Mittelklasse so schnell wie der HighEnd Vorgänger.

Tonga (285) würde ich übrigens mit der 750 vergleichen. Beide wurden herabgestuft. Da Tonga fortschrittlicher als Hawaii ist würde ich ihn als TongaXT auch nicht wirklich als Rebrand ansehen, sondern dorthin wo er eigentlich hingehört (sofern er dann noch zeitgemäß ist). Mehr als unglücklich ist AMDs Produktpolitik aber trotzdem.

zeedy schrieb:
- wahnsinnige 4096 Kerne, hätte nie gedacht, dass es sowas noch in 28nm geben würde
Wieso? Es wären auch 8192 sicherlich möglich. Die 4096 haben aber ihren Preis (in Watt). Daran wird auch HBM nichts entscheidendes ändern.
 
Das war einmal wieder nicht meine Aussage. Meine Aussage war, dass ein unterschiedliches takten der Kanäle bei GPUs aus Performancegründen keinen großen Sinn ergibt, weil sie dank des interleaved Layouts sowieso immer in etwa gleich belastet werden.
Da ist in der Tat etwas ungünstig formuliert, aber nicht wegen deiner verlinkten Quelle. . . Es gibt sehr seltene Ausnahmefälle wo die Kanäle trotz bzw. wegen Interleaving beim Zugriff mit einem großen Zweierpotenzer Stride ungleichmäßig belastet werden, siehe vorletzter Post von mir. Deswegen muss man wie bereits erwähnt das Interleaving unter Umständen beim Programmieren berücksichtigen, weshalb es auch im AMD Programming Guide erwähnt ist. Bei sequentiellen oder chaotischen Zugriffen, wie sie bei der Rastergraphik auftreten, spielt der Nachteil aber keine Rolle.

The tRC limitation is generally hidden by using a technique called bank interleaving. However the timing limitation can come in to picture due to the following condition.
Der Speicher ist ebenfalls auf einer Granularität interleavt, so dass er auf die Speicherbänke innerhalb eines Channels nicht sequentiell abgebildet wird. Die Ursache hierfür ist, dass eine Bank nur einen Zugriff zu einer Zeit abarbeiten kann. Durch das parallele Abfragen mehrerer Bänke kann durch das Interleaving die Zugriffszeit auf eine Bank in den meisten Fällen überbrückt werden. Die Voraussetzung dafür ist jedoch, dass der angeforderte Speicher auf mehrere Bänke verteilt vorliegt, was in den meisten Fällen durch das Bank-Interleaving der Fall sein sollte. Das hat aber nichts mit dem Interleaving bezüglich Channels zu tun. Dementsprechend handelt das Paper auch über eine sogenannte Modul-Threading-Technik, die einen DIMM in zwei weitgehend voneinander unabhängige Module aufteilt, wodurch sie auch die Zahl der Bänke verdoppelt. Durch das Aufteilen bzw. das Verdoppeln können bei chaotischen Zugriffen unter anderem die Zugriffszeiten bzw. die Timingrestriktionen besser überbrückt werden, daher auch die Timing-Überlegungen. Interleaving bezüglich Channels kommt in dem gesamten Paper nicht vor, also mal wieder eine Off-Topic-Quelle.

Wir sprechen bei Interleaving also von diesen Werten tRC und tFaw - können wir uns darauf einigen? Falls ja zeige ich dir die Spezifikationen dafür bei HBM, falls nein möchte ich hier nicht zu lange posts mit Zitaten füllen, sondern du kannst mir dann mitteilen ob andere Werte für Interleaving zuständig sind deiner Meinung nach.
Die Timings haben mit dem Interleaving bezüglich Channels nichts zu tun. Die Granularität des Interleavings wird durch die Addressüberestzungen von virtuellen Addressen nach physikalischen Addressen bzw. die Zuweisung von physikalischen Addressen auf die einzelnen Kanäle durch die MMU und die MCU bestimmt. Dementsprechend kommt das Interleaving auch gar nicht im Standard vor (Standard kennt nur Kanäle, Bänke, Rows, Columns), weil es eben die Aufgabe der GPU ist dementsprechend dafür zu sorgen. Deshalb hat auch das Dual-Command-Interface weiterhin nichts mit dem Interleaving zu tun. . . .
 
Zuletzt bearbeitet:
@tappy & @johnniedelta:

Welche Features erwartet Ihr denn mit GCN 1.3, egal ob das nun mit den 300er oder erst mit Artic Islands kommt?
 
Zuletzt bearbeitet:
johnniedelta schrieb:
Exakt. Ein rebrand kostet nie und nimmer soviel Zeit. Da MUSS ordentlich was hinterstecken.

Allein schon wegen FreeSync und anderer Neuerungen ist es eigentlich ausgeschlossen, dass nur gerebranded wird. 3dcenter hat das hier ganz gut und übersichtlich zusammengefasst: http://www.3dcenter.org/news/was-wi...tx-12-vsr-freesync-und-hdmi-20-bieten-koennen

Mein Tipp: Hawaii wird einen Refresh bekommen (Grenada? Oder ist der Name nicht mehr aktuell?) und als 390(X) kommen, der Rest mit dem recht aktuellen Tonga und Bonaire. Dann kämen alle mit angepassten Taktraten/Verbrauch, Hardware-Dx12- und FreeSnyc-Kompatibilität und bis auf Bonair können auch alle VSR; Tahiti und Pitcairn sind raus, da mit GCN 1.0 veraltet. Alles andere wäre imo absoluter Blödsinn.
 
Zuletzt bearbeitet: (Dx12 Klarstellung)
DrToxic schrieb:
Dann kämen alle mit angepassten Taktraten/Verbrauch, Dx12- und FreeSnyc-Kompatibilität

Alle DX11-fähigen GPUs sollen laut MS auch DX12 beherrschen. Man könnte also auch seine alte HD5870 behalten und dennoch in den Genuß kommen, dafür braucht es keine R300. Ansonsten stimme ich dir in Allem zu.
Ergänzung ()

@Faust:
geht in erster Linie wohl um Freesync. Aber solche Fragen stellst du am besten Leuten wie Nai, ich bin auch nicht vom Fach...
 
Zuletzt bearbeitet:
Zurück
Oben