News Radeon R9 Fury X2: Fiji-GPU im Doppelpack verpasst das Jahr 2015

Wundern tut mich das nicht.
AMD verpasst viel wenn der Tag lang ist.
 
Demnach planen Samsung und SK Hynix den Start der Massenproduktion der zweiten Generation des HBM-Speichers (HBM2) innerhalb des ersten Quartals 2016. Zu den Abnehmern werde dann unter anderem Nvidia mit der für 2016 angekündigten GPU-Architektur Pascal zählen. Auch AMD plant neue GPUs mit „HBM2“.
Würde ja irgendwie schon passen den Speicher auf die X2 zu drücken.
2×4GB ist doch Käse bei so einer Potenten Lösung.
Würde mich echt nicht wundern wenn AMD da doch den Weg von HBM2 für die X2 einschlägt.
Mit nem Preis von 1500 Euro+ könnte man auch Lieferengpässen aus dem Weg gehen
 
Zuletzt bearbeitet:
Mracpad schrieb:
Naja, WENN denn ein Entwickler DX12 SFR integriert und WENN dann in einem Spiel eine glatte 50/50 Arbeitsteilung zwischen 2 Karten möglich ist ja dann
Perfekte VRAM-Ausnutzung, wie sie eine SingleGPU hat, was man ja suggeriert, wenn man 4GB+4GB=8GB angibt, würde ja bedeuten, dass keine Textur doppelt vorkommt. Aber wie macht man das, wenn eine Textur sowohl in der oberen, als auch in der unteren Bildhälfte vorkommt. Die muss ja dann doch wieder in beiden VRAMs gelagert sein.
Also allein durch solche Vorkommnisse ist eine 100%ige Effizienz schon unmöglich.

Aber naja, es ist Marketing, und es funktioniert auch, wie man in schon einigen Posts in diesem Forum gelesen hat. Außerhalb dieses Forums ist es dann sicherlich noch weit wirkungsvoller.
 
Zuletzt bearbeitet:
Finde eine Fury mit HBM2 = 8GB viel wichtiger für AMD als eine Fury X2. So eine Fury X2 wird teurer sein als 2 Furys und somit bei über 1000 Euro landen. Die Anzahl der Leute, die sich so eine GPU kaufen ist (aus meiner Sicht) zwar vorhanden aber begrenzt. Selbst eine Titan verkauft sich besser weil single GPU.
 
Necareor schrieb:
@Herdware:
Ohje, das hab ich ja noch gar nicht gesehen. Sowas kenne ich eigentlich nur von unseriösen Verkäufern, die ihre DualGPU-Grafikkarten immer so beworben haben. Dass es direkt von AMD kommt, ist heftig.

Das ist nichts neues, beide Hersteller geben das seit jeher so an. Nvidia ist da btw. noch viel krasser drauf, bei der Titan Z wird auf dem Datenblatt einfach mal alles verdoppelt.
 
oldmanhunting schrieb:
Finde eine Fury mit HBM2 = 8GB viel wichtiger für AMD als eine Fury X2. So eine Fury X2 wird teurer sein als 2 Furys und somit bei über 1000 Euro landen. Die Anzahl der Leute, die sich so eine GPU kaufen ist (aus meiner Sicht) zwar vorhanden aber begrenzt. Selbst eine Titan verkauft sich besser weil single GPU.

Knapp 899 Euro würdest du dan wahrscheinlich erstmal nur für ne Single Karte Zahlen mit 8GB HBM.
Bei 4GB hat AMD schon 699Euro beanschlagt.
Die ersten Produkte werden AMD und NV sich erstmal richtig teuer bezahlen lassen(vergolden).
 
Zuletzt bearbeitet:
der_henk schrieb:
Das ist nichts neues, beide Hersteller geben das seit jeher so an. Nvidia ist da btw. noch viel krasser drauf, bei der Titan Z wird auf dem Datenblatt einfach mal alles verdoppelt.
Krass! 768bit Speicheranbindung mit 672GB/sec. Ist das dreist... Bei der RAM-Kapazität würde ich sagen, dass das ja wenigstens noch körperlich vorhanden ist, aber die Übertragungsrate ist einfach falsch. Texturen oder andere Daten werden mit maximal 336GB/s übertragen, mehr geht einfach nicht. Das ist dann also eine glatte Lüge, ohne Interpretations-Spielraum.
 
AMD könnte die X2 als erste Wahl für VR paltzieren, also eine GPU pro Auge, damit würde auch die 4GB nicht mehr so ins Gewicht fallen. Solange die VRs aber noch nciht released sind wird das schwer. Für "normales" Gaming ino auch unsinnig die Karte. Und nicht nur die, durch die Bank alles Multi GPU Karten. Mal sehen.
 
HBM ist dabei bezogen auf Dual-GPU-Karten zugleich Segen und Fluch für AMD. Dank des in die GPU-Paketes integrierten Speichers kann eine Dual-Fury-Karte ausgesprochen kompakt sein und mit einem AiO-Wasserkühler auch sehr elegant gekühlt werden.
Das ist genau der Vorteil warum AMD leichter eine bringen kann. Bei NV ist alles noch ein wenig mehr am Limit vom Platz her.

Schade das es technisch unmöglich ist das AMD 8GB HBM Vram für jede GPU zur Verfügung stellt. Das würe mal ein kleiner Teilsieg über NV den es ja seit big Maxwell nicht mehr so oft zu sehen gibt.
 
Dann hat Cooler Master ja endlich genug Zeit, seinem OEM mal bei den Pumpen auf die Sprünge zu helfen. Aktuell verseucht AVC immer noch alle Modellreihen mit schwankender Qualität und bösen Ausreißern. Das betrifft nicht nur die Fury X, sondern zieht auch unschuldige Kunden wie Gigabyte in Mitleidenschaft, die sich diesen Ersatz-Mist haben aufschwatzen lassen. AMD wäre gut beraten, sich einen anderen Man-in-the-middle zu besorgen, um an Kühlertechnik zu kommen oder es besser gleich selbst in die Hand zu nehmen. Diese ellenlangen Befehlsketten sind doch albern.
 
@Visualist:
8GB HBM2 geht natürlich, aber das ist kein wirklicher Sieg mehr, denn Nvidia wird das auch machen. 8GB HBM pro Chip auf einer Fury X2, und das am besten sofort, wäre wirklich ein kleiner Sieg für AMD.
 
edenjung schrieb:
Mit directX 12 werden die speicher addiert. das heißt aus 2x4 werden 1x8gb. ABer nur unter directx 12.

falsch ;)

Im besten Fall hast du bei SFR 4 GB pro Teilbild. Der VRam Verbrauch steigt aber nicht linear mit Auflösung an. in 4K müsste also jede GPU zb 1920x2160 berechnen, eine Auflösung deutlich höher als FHD. ca 4,14 M Pixel, also in etwa mehr wie heute die 1440p Auflösung heute.

Bei >1440p werden 4 GB für sich auch recht schnell voll sein, klar, nicht so schnell wie in den 4K aber 4GB sind heute teils schon in Auflösungen <1440p eng.

2 Einzeln berechnete Bilder wie bei SFR halbieren den Speicherverbrauch also nicht, eine 8Gb karte wäre nach wie vor klar im Vorteil. Und bis SFR mal wirklich brauchbar kommt (falls überhaupt) dürfen viele schon die nächste GPU verbaut haben.
 
Zuletzt bearbeitet:
Wo bleibt die News, dass die von Nvidia "in Kürze" angekündigte Dual-GPU Lösung sich auf 2016 verspätet?
Einfach nur furchtbar wie man in letzter Zeit mit News in eine Richtung hetzt/Meinungsmache betreibt.

CB Artikel: Dual-GPU-Karte mit 2 × GM200 kurz vor Präsentation
https://www.computerbase.de/2015-09/nvidia-dual-gpu-karte-mit-2x-gm200-kurz-vor-praesentation/
-> 28.09.2015 10:13 <-

Demnach soll eine Dual-GPU-Karte mit zwei GM200-GPUs bereits in Kürze erscheinen.
Wo bleibt die News, dass es sich hierbei offenbar nicht um eine Zeitspanne von "in Kürze" handelt?
Oder neutral gesehen: Wo bleibt der Hinweis in dieser News, dass sich die Konkurrenz ebenfalls verspätet? Wo bleibt das subjektive?

mfg,
Max
 
Zuletzt bearbeitet:
Diese Beschwerde kommt doch alle 6 Monate von dir... und jedes Mal kann es nicht mehr schlimmer werden :o

Außerdem waren es bei Nvidia nur Gerüchte, bei AMD eine Ankündigung. Steht sogar in deinem eigenen Link:
Das zumindest besagt die Gerüchteküche, sodass es aktuell noch unklar ist, ob dies auch so eintreffen wird.
Soll CB jetzt eine News rausbringen, weil Nvidia die Karte nicht released hat, obwohl es dazu Gerüchte gab?
 
Zuletzt bearbeitet:
eben, typisch selektive Denkweise von max_1234 ...

Das zumindest besagt die Gerüchteküche, sodass es aktuell noch unklar ist, ob dies auch so eintreffen wird. War es diesbezüglich bislang noch sehr ruhig, kamen entsprechende Gerüchte erst in den letzten Tagen auf. Demnach soll eine Dual-GPU-Karte mit zwei GM200-GPUs bereits in Kürze erscheinen. Einige Journalisten wurden angeblich bereits mit den für Artikel notwendigen Informationen versorgt.

Aus der Dual GM200 News... 1:1 vergleichen mit ner quasi fertigen, offiziellen Dual Fiji Karte die schon mehrfach abgelichtet und offiziell präsentiert wurde (und dabei für Herbst 2015 angekündigt) ^^

So einfach ist es halt doch nicht... frag mich allerdings wieso er hier noch mitliest, bei Nvidiabase... wenn die eh nur Grütze posten und gekauft sind (genau wie die ganzen Foren Member).

@ Topic

nur verständlich dass AMD die Karte erst Q1 2016 bringt... gerade dann wenn die einzelnen Fiji Karten vielleicht mehr Marge bringen und gut weggehen, bzw so gut, dass man mit der Produktion nachkommt.

Mich würde interessieren wie weit HBM 2.0 ist - wenn es da auch Ende 2016 wird wäre das schlecht für AMD, je nach dem ob man die Midrange Arctic Island Karten mit GDDR5 oder HBM konzipiert hat. Auch würde ne weitere High End Karte mit 4 GB wohl schlecht aussehen. Selbst High-Midrange wäre mit 4GB HBM kritisch.

Erst HBM 2.0 bringt notwendige Flexibilität.
 
Zuletzt bearbeitet:
Also Ende Q1/2016 scharre ich schon ungeduldig mit den Füßen weil ich für Ende Q2/2016 erste 14nm Chips erwarte.
Auch wenn das noch nicht High End sein wird, so investiert man doch mit dem 14nm vor Augen nicht mehr in einen 28nm Prozess von 2011, oder?
 
feris schrieb:
...so investiert man doch mit dem 14nm vor Augen nicht mehr in einen 28nm Prozess von 2011, oder?

kommt drauf an. Die Fat Chips Ende der jeweiligen Fertigung halten sich meist recht gut da die Folgefertigung ja nicht in die vollen geht direkt ab Start. In 16nm dürfte man erstmal kleine wirtschaftliche Chips sehen, vielleicht auch bei hohem Takt (wie die GTX680 damals). Ergo wenig OC Spielraum und dann kanns schnell passieren dass z.B. eine OC 980 TI gleich auf oder vor dem Next Gen Chip liegt - eben je nachdem wie knapp dieser ausgelegt wurde.

Aber ja, es kann sein dass Nvidia / AMD mit 16nm direkt 100% Mehrleistung raushauen oder aber auch nur 30%. Da man sich die 16nm wohl wieder über Jahre einteilt rechne ich eher mit weniger.

Edit:
Gut, wirklich Potential sehe ich weder für ne Dual GM200 noch für ne Dual Fiji. Einfach weils ne Dual Karte ist. Dank des kleinen HBMPackage bietet sich das natürlich bei letzterer besonders an.
 
Zuletzt bearbeitet:
Rockhound schrieb:
Wie sieht es eigentlich mit Mikrorucklern bei SLI und/oder Crossfire aus? Ist das immer noch so? Hilft da auch kein G-Sync/Freesync?

Naja es geht. Hab mal aus Spaß 2x r9 390 gekauft. Rohleistung der beiden lag über der Fury. Haben nen Freesync Monitor, daher muss ich aktuell bei Amd bleiben.
Also solange das Spiel Crossfire unterstützt, Farcry 4, läuft es gut. Habe keine microlags gemerkt, hab allerdings auch nicht die Frametimes überprüft. Problematisch wirds erst bei Spielen, wo es nicht Sauber geht oder zum Beispiel bei CROME. Man hat eher mit andern Schwierigkeiten zu kämpfen, Blitzlichtgewitter im Menü bei Farcry 4. lange Rede, kurzer Sinn, Crossfire kann man nur machen, wenn ein Profil angelegt worden ist, ansonsten benutzt man so oder so nur eine Graka. Bin daher zu einer Fury gewechselt. Zocke sowieso nur in 1440p und hoffe daher, dass sie die nächsten 2 Jahre packt.
 
feris schrieb:
Auch wenn das noch nicht High End sein wird, so investiert man doch mit dem 14nm vor Augen nicht mehr in einen 28nm Prozess von 2011, oder?

Wenn Du nicht gerade 'Enthusiast' bist und Geld für Dich keine Rolle spielt, dann schlägst Du natürlich bei der X2 zu und schaust, was sie kann, um sie dann ca. 3 Monate später wieder abzustoßen, um ein Early-Adaptor der nächsten GPU-Generation zu sein.

Im anderen Fall interessiert Dich die X2 nicht und Du kaufst erst wieder bei der nächsten GPU-Generation.
 
Zurück
Oben