News SK Hynix: AMD Radeon R9 Fury X mit 4 GByte HBM angekündigt

@Flare

naja, seien Argumentation ist auch etwas gaga. Wegen der Größe macht man das GDDR5 SI schon lange nicht mehr breiter, 384 Bit reichen ja bereits für 12Gb (je nach Chips halt) und ich meine sogar 24 GB im Quadro Umfeld.

Klar, die Spiele zeigen ja auch gut dass vielleicht in 90% der Fälle heute 2GB ausreichen wenn das Game halbwegs intelligent mit Texturen umgeht. GTA 5 bricht aber zB ganz schön ein wenn zu wenig VRam da ist. Selbst bei mir bremst da eher der 2Gb große VRam als die HD6950 aus.
 
Enigma schrieb:
Ich hatte meine HD4870 damals auch nur mit 512MB RAM gekauft. Das war kein Showstopper, da viele Engines noch auf Konsolen optimiert waren und der Speicher optimal genutzt wurde. Klar man konnte die Texturen noch ein oder zwei Level höher schrauben, aber der WOW-Effekt hat gefehlt.

ich hatte auch 512MB bei meiner HD4850 und hab mir danach in Arsch gebissen nicht ne 1GB Karte gekauft zu haben.
 
Speichermanagement hin oder her, sie wird eher zum VRAM Krüppel als eine 8 oder 12GB GDDR5 Karte, und sowas kauft man nicht. Siehe z.B. HD4870 mit 512MB....
 
Diablokiller999 schrieb:
Könnten ja den Nvidia machen und noch zusätzlich lähmen DDR3 Speicher verbauen damit die 8GB auf die Packung klatschen können :D


das geht net, denn NIVIDIA hat drauf Patent angemeldet :D, mit dem namen "FakeRAM on GPU"
 
Cool Master schrieb:
Wieso nicht? Was spricht gegen 8 Chips mit 1 GB? Die Chips sind ja kleiner als herkömmliche ergo sollte es doch kein Problem sein. Macht man die Platine halt etwas länger...

Weil die HBM-Chips nicht auf der Platine sondern rund um den GPU-Die angebracht sind. Da wars wohl zu aufwändig/technisch noch nich möglich in der ersten Generation den brauchbar anzubinden und auch noch die Abwärme zu bewältigen.
 
nur ein Mensch schrieb:
Die Frage ist doch einzig und alleine, wie performt HBM Speicher und das neue Speichermanagement, welches mit HBM Einzug halten soll.

sehe das auch so, ob die bandbreite die menge dann ersetzen kann wird die grosse frage. dennoch wird es am verkaufserfolg mehr oder minder abbremsen da man auf die packung eben nur 4 schreiben kann und KEINE 12 GB :)
 
Enigma schrieb:
Ich denke Fijii wird eine Vernunftskarte, da viele Spiele nur in utopischen Settings so viel Speicher brauchen. Die 6-8GB Karten sind derzeit noch Nischenprodukte und wird sich für die nächsten 2 Jahre nicht wirklich lohnen...
Made my day...eine 600 Euro "Vernunftkarte"....und nochmal jemand der sein CoD auf FullHD mit 30 fps spielen möchte, kauft sich nicht so eine Karte. Gekauft wird das Dingen doch von den Leuten die in 4K spielen, extreme Mods nutzen, rum Prollen oder einfach für die nächsten Jahre Ruhe haben wollen. Für allesamt sind 4GB RAM zu wenig. Vernunft wäre die Karte dann, wenn sie den Platz der 390X eingenommen hätte und so um die 450 Euro kosten würde. So ist es ein Witz.
 
Ich sag nur eins. Schaut euch Witcher 3 in 4k an. Das braucht da gerade so 3gb und sieht sehr gut aus! AMD sagt das man sogar noch im Triber viel optimieren kann. Deshalb werkeln die auch noch so lange.

Ihr werdet sehen mit neuem Treiber und dx12 werden selbst die 290x 280x noch mal gut zulegen und AMD wäre sein ungerechtes Image wegen Schlechter Treiber Weg!
 
Volker schrieb:
Es sind die ersten Informationen überhaupt. Also gaaanz offiziell. Ihr beschwert euch doch immer das es sonst nur Gerüchte sind. Jetzt ist es schwarz auf weiß - und eben nicht von AMD zuerst sondern von Hynix und das sechs stunden vorher. Also für mich ist das in die Parade fahren, wenn AMD selbst noch nicht einen Ton dazu gesagt hat. Aber wie üblich, egal wie man es macht, es ist falsch^^
So war das nicht gemeint, hier hat niemand was falsch gemacht. Wie gesagt: Hat mich selbst ja doch auch interessiert und ich hab's gelesen ;)

Ich hab einfach nur noch selten so einen (Gerüchte-)Trubel um eine neue Grafikkarte erlebt wie jetzt bei der Fury X(T). Wahrscheinlich bin ich auch nur etwas ungeduldig auf den kompletten cb-Test, weil auch, wenn es eine nun offizielle Bestätigung ist, so ist die darin enthaltene Info eben nicht wirklich neu. Und AMD schiebt den Release ja nun auch schon ne Weile vor sich her.

Meine 280X ist zwar nagelneu und locker schnell genug für meine Full-HD-Games... aber ne Fury X(T) für UHD-Downsampling wäre schon schick :D :evillol:
 
Ich bin ja gespannt wie sich Fury in so Worst Case Spielen wie in Shadow of Mordor schlagen wird.
Da ist man auch in 1080p mit Ultra Texturen locker über 4GB VRAM Belegung. In 4K werden selbst die 6GB Knapp.

Ich geh jede Wette ein dass das in einer Woche kommende Batman Spiel ähnliche Anforderungen haben wird und wer garantiert das im Herbst/Winter/nächstes Jahr kommende Spiele nicht ähnlich viel VRAM brauchen werden. Stichwort Konsolenports :freak:

Ich bin ein Käufer in den Preisregionen in welcher sich Fury X und 980 Ti bewegen und ich will nicht durch Mangelnden Vram in dieser Preisklasse eingeschränkt sein. Eigentlich Genug Power haben, aber dann nicht alles auf max. stellen können weil man sonst Nachladeruckler hat, das geht gar nicht!

Könnte natürlich sein das AMD ne Möglichkeit via Treiber gefunden hat in den entsprechenden Spielen den VRAM Verbrauch unter 4GB zu halten ohne Nachladeruckler, dann wäre das ganze nicht so gravierend.
Dann ist man allerdings in höchstem Maße von den AMD Treiber abhängig. Während ich da bei Stabilitätsfragen keine Probleme sehe ist AMD in Sachen "Game Ready Treiber" leider deutlich schlechter/langsamer als Nvidia.

Mal schauen was am Abend so kommen wird.
 
Ich weiß auch nicht, hier wird so unglaublich viel diskutiert über den Sinn von nur 4GB HBM Speicher. Auch wenn ich nichts genaues weiß, aber für mich sieht es eindeutig nach einer Notlösung aus, ich denke nicht dass AMD die 4GB HBM verbaut haben, weil sie 8GB HBM für unnötig halten, sondern weil es einfach noch nicht geht. Und die Karte erst zu releasen, wenn 8GB HBM verfügbar sind, wäre wohl einfach zu spät geworden, und die ganzen Partner wären durchgedreht, weil sie nichts zu verkaufen hätten. Eine reine Relable/Refresh-Serie ohne Fury wäre sicherlich in der Luft zerrissen worden...

Also mir geht es gerade nicht darum, ob 4GB ausreichen oder nicht, ich bin einfach nur der Meinung, dass AMD aufgrund von zu hohem Druck leider ein Produkt (wieder mal) zu früh auf den Markt bringen muss. Ähnlich wie es auch bei den Phenom I oder Bulldozer CPUs und ihrem MultiThreading war.
 
Dwyane schrieb:
Tja blöd gelaufen für AMD :D

Schade das es nur 4GB sind, für mich ist das definitiv zu wenig.

Wieso blöd gelaufen für AMD? Nvidia krüppel noch mit altem GDDR rum, klar müssen die 100000GB verbauen, damit der DAU meint, das wäre besser.

4GB HBM > 40GB GDDR

Oder bist du einer der Idioten, die gerne 32GB DDR3 auf ihrer GPU hätten? LOL!
 
@ampre: Ja, Witcher 3 ist halt ein gut gemachtes Spiel und eine der wenigen Ausnahmen. Generell kann man aber sagen, dass die Spiele verschwenderischer werden mit dem VRAM.
 
zeromaster schrieb:
Keine Ahnung, was den klassischen "AMD-Fanboy" bei der Thematik auf die Palme gebracht hat.

Mich, wie auch jeden anderen Käufer, der für sein Geld arbeiten muss, sollte aber aufregen, dass die zugesagten technischen Spezifikationen nicht den realen entsprachen, dass Nvidia sich sehr lange bedeckt gehalten hat und dann lediglich 2 sich widersprechenden Notlügen (eigentlich mittlerweile 5. die gtx 970 kriegt ein "Feature" welches aber bei den besseren Modellen 980gtx, ti und titan x, außen vor gelassen wurde) aus der Affäre gezogen hat, wofür Nvidia von vielen auch noch für diese Verarsche gefeiert wurde.

Ich persönlich hoffe, dass irgendein Distributor einen nicht geschalteten USB1.0 Port dran dengelt und einen 4GB USB Stick dazulegt... schon sind es 8GB... oder so...
 
viel eher ob es geschicktes Treiber Handling ermöglicht den VRam Verbrauch zu senken, ... wird man aber nicht heute sehn sondern eher in 2-3 Jahren. Ein Testen ist heute aus den Gesichtspunkten fast unmöglich, zumal keiner weiß ob die Engines VRam Schleudern werden oder nicht. Wenn jetzt die nächste Mittelklasse 6 und 8 GB bieten kann das halt durchaus sein -> also die R9 390X hat ja demnächst 8GB und Nvidia GTX 980 Nachfolge mit Sicherheit auch 6 oder 8GB. Selbst die R9 380 / GTX 970 Nachfolge könnte ggf mit 6 oder 8 Gb daherkommen.

Da auch noch eine Fiji mit 8Gb kommen wird kann es easy möglich sein dass Spiele schon "bald" im High / Ultra Setting gegen 6 GB streben. Soll man da auf die Fiji 4GB etwa Rücksicht nehmen?

Die Zahl der >4 Karten nimmt demnächst signifikant zu. GTX 980 TI, GTX TITAN X, R9 390 /390X, R9 290X 8GB, Fiji 8GB...
Bis heute macht es kaum Sinn bei Engines über 4 GB rauszufahren. Wird sich ändern. Nicht von heut auf morgen aber auch nicht erst in 5 Jahren.
 
Zuletzt bearbeitet:
GrooveXT schrieb:
Vernunft wäre die Karte dann, wenn sie den Platz der 390X eingenommen hätte und so um die 450 Euro kosten würde.

Vllt wird sie das ja, und die 390er kosten dann 200~300€. Wenn man schon keine Qualität hat, dann unterbietet man eben Preistechnisch alles andere. Wäre aber auch wieder zu schön um wahr zu sein :(
 
digitalangel18 schrieb:
Speichermanagement hin oder her, sie wird eher zum VRAM Krüppel als eine 8 oder 12GB GDDR5 Karte, und sowas kauft man nicht. Siehe z.B. HD4870 mit 512MB....
Dann hätte man also die letzten 12 Monate niemals eine 290X 4GB / 970 3,5 + 0,5 oder eine 980 4GB empfehlen dürfen, sondern ausschließlich 290X 8GB Modelle. Aber hui kaum kommt Titan X mit 12GB oder eine 980Ti mit 6GB sind 4GB schon einfach schnell Speicherkrüppel....
 
Zuletzt bearbeitet:
w0mbat schrieb:
Wieso blöd gelaufen für AMD? Nvidia krüppel noch mit altem GDDR rum, klar müssen die 100000GB verbauen, damit der DAU meint, das wäre besser.

4GB HBM > 40GB GDDR

Oder bist du einer der Idioten, die gerne 32GB DDR3 auf ihrer GPU hätten? LOL!

Das Blöd gelaufen bezog sich auf die Meldung von Hynix bevor AMD es selbst offiziell machen konnte.

Aber danke das du mich als Idiot titulierst!
 
Zurück
Oben