News Aus Hawaii wird Grenada: Spezifikationen der Radeon R9 390X und R9 390

SSJ schrieb:
Man kann von der erwarten, dass der Chip effizienter sein wird als ein 2 Jahre alter Chip, also mehr Leistung bei weniger Stromverbrauch.
Jedoch wird die Karte sicherlich mind. 650€ kosten, also Enthusiasten als Zielgruppe haben.

Stromverbrauch ist zweitrangig, da NV mit Ihrer Titanx und 980ti auch am Maximum operieren.

Aber da NV mit 980ti preislich fast schon wenig draufgeschlagen hat, ist AMD in Zugzwang mit der Fury X.
Die Pro die ich meine kämpft eher mit der 980 normal.
Da könnten 550€ realistisch scheinen.
 
Irgendwann werden schon die richtigen Karten auf den Markt kommen.
....der war gut! Man könnte meinen er warte auf einen weiteren Kracher von nVidia wie seinerzeit die GTX480 - die Graka die den Namen Thermi aber so wirklich verdient hatte!
Ineffizient, laut und Stromhungrig waren die Schlagzeilen!
https://www.computerbase.de/2010-03/test-nvidia-geforce-gtx-480/2/

Sonst, Topic - auch von meiner Seite Ernüchterung!
Ich befürchte hier wird die R9 290(x) auch durch die hohe Stromaufnahme, Lautstärke, Temperatur und zumindest am Anfang durch einen unverschämten Preis auffallen!
Aber warten wir es ab.....
 
Wer sich solcherlei Mogelpackungen zulegt der ist selber schuld, dass gilt so wohl für Nvidia als auch AMD. Ich brauche weder Speicherkrüppel noch Rebrands für 300-350 €.

Also heißt es warten bis 2016. dann ist meine 7870 immerhin 4 Jahre alt.
 
Lunke schrieb:
Tun sie leider nicht, wenn man mehr als einen Monitor angeschlossen hat. Dann brauchen AMD Grafikkarten im Idle teils das 4-fache.
:watt: Dann hab ich wohl entweder eine Sonderedition von AMD, oder deine Behauptung stimmt so nicht.
Vielleicht war das mal, die jetzigen GPU´s brauchen mit einem zweitem Monitor nur 3-4W mehr.
Ich hab nämlich eine AMD (R9 280X) und zwei Monitore momentan im Betrieb.


Lunke schrieb:
Ich persönlich habe auch nichts gegen einen höheren Stromverbrauch, solange dieser durch irgendwas gerechtfertigt ist.
Niedriger Preis

Lunke schrieb:
Ich sehe keinen Grund, warum eine AMD 54W bei mehreren Monitoren brauchen muss, wenn Nvidia das auch mit nur 13W schafft.
Ich hab zwar keine 4 Monitore (und aktive DP Adapter) da um das nachzuprüfen, trotzdem glaube ich nicht, dass die Differenz das so groß ausfällt. Da würde ich eher die Einstellungen (Energiespareinstellungen,...) verdächtigen.
Allein schon das Deaktivieren der Hardwarebeschleunigung kann hier helfen, dann schaltet sich die GPU wegen eines einfachen Videos nicht in den 3D Modus (und langweilt sich da), sondern die CPU ist dann halt 5% mehr ausgelastet.
Aber das intressiert eine effiziente Intel CPU heutzutage doch nicht mehr.


Lunke schrieb:
An alle, die hier auf einen niedrigeren Stromverbrauch hoffen
Sind bei AMD eh falsch
Es wäre zwar zu begrüßen, wenn die AMD GPU´s (und CPU´s) mal um einiges effizienter werden, aber der niedrigere Preis holt das doch wieder raus. Ein Normal-Nutzer wird wohl nie in den Bereich kommen, indem sich der höhere Anschaffungspreis einer Nvidia GPU aufgrund des Stromverbrauchs rentiert.
Bis dahin ist die GPU eh schon längst durch ein neueres, schnelleres und effizienteres (kleiner Fertigung) Modell ausgetauscht.
 
Das eine AMD mit mehreren Monitoren mehr als NVidias verkaufen ist aber schon lange bekannt :)
 
Tappy schrieb:
Stromverbrauch ist zweitrangig, da NV mit Ihrer Titanx und 980ti auch am Maximum operieren.

Aber da NV mit 980ti preislich fast schon wenig draufgeschlagen hat, ist AMD in Zugzwang mit der Fury X.
Die Pro die ich meine kämpft eher mit der 980 normal.
Da könnten 550€ realistisch scheinen.

Ne, nie im Leben wird die nur 550€ kosten....die UVP für die R390X bewegt sich schon um die 500€.
Wer wird dann so dumm sein und eine R390X kaufen, wenn er für wenig Aufpreis gleich eine Fiji bekommen kann?
 
@Lumi25

Der Blick liegt ja auch auf 2016. Das hier ist ja nur, damit man "irgendetwas Neues" zu bieten hat und Nvidia nicht den ganzen Markt überlässt. Man ist ja nicht nur sich selbst verpflichtet. Es gibt ja weit mehr als einen Hersteller, der AMD-only Karten baut. Die können ja nicht einfach ein Jahr "nichts" verkaufen und abwarten (so hat Volker[?!] ja berichtet, dass auf der Computex jede Menge dicke Luft war).
Das hier scheint so eine Art "Notfallprogramm" zu sein. Ich denke aber, wer zu den - teilweise krass billigen - Preisen der 290(x) nicht zugeschlagen hat, wird auch keine 390(x) mit ein paar MHz mehr einstecken wollen.
Das wird auch AMD wissen und deswegen stand ja auch auf PCGH in der Gerüchteecke (mittlerweile mit anderen News überschrieben):

So richtig stolz scheint AMD auf Fiji und der restlichen 300er-Serie aber nicht zu sein, so war zumindest der Eindruck auf dem Financial Analyst Day. Der Umsatz mit Desktop-Grafikkarten soll im zweiten Halbjahr nur um etwa 5 Prozent zunehmen, bei ohnehin schon schlechten Absätzen erscheint das nicht viel. Fiji dürfte so nur eine Überbrückungslösung sein, um für dieses Jahr irgendetwas Neues im High-End-Portfolio zu haben.
 
@SSJ
Di glaubst ernsthaft, die 390x kostet 500€?
 
MichaG schrieb:
Die Differenzen belaufen sich somit nach derzeitigem Kenntnisstand alleine auf einen höheren GPU- und Speichertakt sowie einer Verdoppelung des GDDR5-Speichers auf 8 GByte. Dennoch erhielten die GPUs den neuen Codenamen Grenada.

Bei Tahiti gab es die Entwicklung von XT zu XT2 zu XTL. Die vorgenommenen Änderungen am Die haben dabei nicht zu einem neuen Namen für die GPU geführt. Und in den üblichen Darstellungen von GPU-Z und Co. hat sich dabei an der Oberfläche außer ein paar Taktzahlen garnichts getan.
Eine Überarbeitung der Comput-Units wäre zwar eine echte Überraschung, aber auch außerhalb dieses Bereichs gibt es ja reichlich Verbesserrungspotential, das, wenn realisiert, eine neue Namensgebung rechtfertigen würde. Und wieder würde man bei GPU-Z und Co. nichts davon zu sehen bekommen...


Lunke schrieb:
=> AMD Community interessiert sich überwiegend nicht für den Stromverbrauch, welche Motivation sollte AMD also haben, sich da Mühe zu geben?

Bis man mit Kepler eine effizientere GPU-Generation als die kontemporären GPUs von AMD hatte, hat sich die Nvidia-Community auch nicht im geringsten um den Stromverbrauch geschert. Trotzdem hat sich Nvidia der Sache angenommen - wieso soll das bei AMD nicht möglich sein?


Im übrigen wäre es schön, wenn manche Leute hier lernten bei DirectX zwischen API-Level und Feature-Level zu unterscheiden. Dann müßte man bei ihren Beiträgen nicht rätseln, was denn nun gerade gemeint ist.
 
Zuletzt bearbeitet von einem Moderator:
Toll, wenn ich ne 290X um gut 5% übertakte, komme ich auf die gleiche Leistung.
Mir ist noch nicht ganz klar, wo der Witz ist bei Grenada...

Indes ist die 380X mit Antigua-GPU ohnehin kommerziell wichtiger, und Tonga war/ist eine effizientere und modernere GPU als Hawaii. Im Vollausbau kommt Tonga sicher gut, und nichts spräche gegen 6GB GDDR5.

Hoffe, da kommen am Dienstag Infos...

Aber was heisst hier, die 390er stehen schon beim Händler?!
 
AMD macht eigentlich nichts anders als NV mit der 700 GTX Serie. Nur dass unterhalb der FuryX auch eine normale Fury gibt und diese nicht den Namen R9 390X trägt.
Stattdessen gibt es jetzt über der R9 390 eine neue Klasse und das erinnert stark an die HD6000 Serie. Da wurde auch wegen der 6870 und 5870 stark diskutiert, da war aber die 6870 sogar minimal langsamer als die 5870.

Interessant ist aber, was auch noch im Detail steckt. Eventuell gibt es kleinere "Verbesserungen" und eventuell gibt es auch neue Treiber, wie im Thread mal erwähnt.

alt
http://www.3dmark.com/aot/31276

neu
http://www.3dmark.com/aot/32328

Man sieht unter DX12 ändert sich nichts, aber unter DX11. Wie die AMD Karten unter DX12 gegen Maxwell schlägt, wird man vermutlich erst sehen.
Persönlich freuen würde ich mi
 
Zuletzt bearbeitet:
Darknesss schrieb:
Dann hab ich wohl entweder eine Sonderedition von AMD, oder deine Behauptung stimmt so nicht.
Vielleicht war das mal, die jetzigen GPU´s brauchen mit einem zweitem Monitor nur 3-4W mehr.
Ich hab nämlich eine AMD (R9 280X) und zwei Monitore momentan im Betrieb.

Schau dir einfach mal den letzten Test von CB an: https://www.computerbase.de/2015-06.../9/#diagramm-leistungsaufnahme-gesamtsystem_4 (und auf +23 Einträge klicken)
Schon bei zwei Monitoren fällt der große Abstand von Nvidia und AMD auf. Eine AMD Radeon R9 280X braucht hier ganze 115W, aber mit nur einem Monitor bräuchte sie 79W. Differnez von 36W.
Bei Nvidia sieht es wesentlich besser als. z.B. die Nvidia GeForce GTX 780 Ti braucht 77W bei zwei Monitoren, mit einem sind es 76W. Differenz von 1W.
Das deckt sich auch mit dem, was so ziemlich alle anderen Hardware-Protale bei ihren Messungen rausbekommen.

Warum das bei deiner 280X nicht so ist, hmm. In der Tat interessant.
Was mit jetzt spontan einfallen würde, dass du zwei absolut identische Monitore hast. (Auflösung, Taktung usw.), oder dass du deine 280X im CCC übertaktet hast. Es gibt nämlich einen "Bug" bzw. "Feature" (such's dir selber aus :p ), wenn man die Grafikkarte im CCC übertaktet, dass sie dann auch bei mehreren Monitoren in den niedrigsten Energie-Zustand geht. Mit dem Nachteil, dass das Bild dann meist anfängt zu flackern, da es eigentlich nicht vorgesehen war, dass die Grafikkarte bei mehreren Monitoren in den niedrigsten Energie-Zustand geht (deshalb habe ich es vorhin auch "Bug" genannt)
 
Wenn man zweimal den gleichen (wirklich gleichen) Monitor hat, takten auch die AMD-Karten runter.

Edit: http://ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index15.php

Anmerkung der Redaktion: In diesem Falle haben wir abermals einen dritten identischen Monitor simuliert (Anschluss des gleichen Monitors mit anderer Anschlussstelle). Dabei reagiert auch AMDs Catalyst Control Center mit dem Hinweis auf einen weiteren erkannten Monitor. Doch die Taktraten blieben auch hier auf Idle-Niveau. AMD gibt weiterhin keine klaren Informationen zu den Anschlusskonstellationen heraus. Bislang bestätigte man uns lediglich die niedrigen Taktraten mit zwei identischen Monitoren beziehungsweise ähnlichen Monitoren mit gleicher Auflösung und gleichen Timings.
 
Zuletzt bearbeitet: (Ergänzung mit Link)
johnniedelta schrieb:
Im Vollausbau kommt Tonga sicher gut, und nichts spräche gegen 6GB GDDR5.

Gegen 6GB spricht das 256bittige Speicherinterface.
Und der Vollausbau scheint AMD ja Probleme zu bereiten, da er selbst nach 9 Monaten immer noch nur in der M295X zur Verfügung steht.
 
Leute, wartet bis Dienstag, dann gibt es die absolute Gewissheit. Btw. VRAM gibt es nicht (mehr).
 
Zurück
Oben