News Radeon R9 Fury X2: Fiji-GPU im Doppelpack verpasst das Jahr 2015

feris schrieb:
Also Ende Q1/2016 scharre ich schon ungeduldig mit den Füßen weil ich für Ende Q2/2016 erste 14nm Chips erwarte.
Auch wenn das noch nicht High End sein wird, so investiert man doch mit dem 14nm vor Augen nicht mehr in einen 28nm Prozess von 2011, oder?

Kommt immer auf die Gebotene Leistung an. Hab generell keine hohe Meinung von Dual Graphics Systemen, aber zu glauben, das 14nm so viel besser sein wird, halte ich für träumereien. Die hauen ja nicht direkt alles raus, was möglich ist. Ich persönlich gehe davon aus, das es wie bei ivy To Haswell wird. Gleiche Leistung bei besserer Effizienz. Rechnet mit gleichen Schritten(Leistungstchnisch),wie zwischen 700 Serie und 900( 200 vs 300).
Haltet diesen Hypetrain auf.
 
Da Fiji mehr oder weniger zwei Tonga Chips mit einem gemeinsamen Speicherinterface darstellt, bekommt man mit Gemini quasi vier Chips auf einer Karte :-D

Mal schauen was Gemini kosten wird. Ggf sind 4x 380X günstiger.....
 
Mir ist das eigentlich auch wurscht ob AMD oder NVida eine X2 bringen, weil ich kaufe so etwas nicht. Ich will eine single GPU haben mit der ich sorglos in 4K zocken kann.
 
oldmanhunting schrieb:
Mir ist das eigentlich auch wurscht ob AMD oder NVida eine X2 bringen, weil ich kaufe so etwas nicht. Ich will eine single GPU haben mit der ich sorglos in 4K zocken kann.

Als Eyefinity User kann ich dir sagen das durchgehend 4K mit allen Reglern rechts noch sehr lange eine Domäne von SLI Setups sein wird.

Es hat 10 Jahre gedauert bis die standard Auflösung nicht mehr 1024x768 sondern 1920x1080 wurde.

Mit 4K wird es genauso lange dauern. Da die shrinks in der Fertigung sogar später als früher kommen wird nichts aus 4K vor den frühen 2020ern...
 
Mit 2x4GB ist die Karte ohnehin eine reine Machbarkeitsstudie an möglicher GPU Power, wie schon alle anderen Dual-GPU Lösungen vorher. Aber vllt überrascht man ja doch noch mit 8GB pro Chip.

Würd eine solch teuer Karte "kurz" vor Release der 14nm Karten dennoch nicht kaufen. Würde wohl nur extreme Enthusiasten reizen...was selbstredend natürlich genau das Klientel für eine solche Karte wäre ^^
 
r4yn3 schrieb:
Mit 2x4GB ist die Karte ohnehin eine reine Machbarkeitsstudie an möglicher GPU Power, wie schon alle anderen Dual-GPU Lösungen vorher. Aber vllt überrascht man ja doch noch mit 8GB pro Chip.

hier seh ich ein Problem bei HBM. Man ist festgenagelt, einmal den Interposer bestücken lassen ist man unflexibel. Bisherige GPU waren da dank GDDR5 deutlich flexibler, auch in der Resteverwertung.
 
Ist mir bewusst. Jedoch gehts um die Verwertung der Fiji Dies. Und nicht um das gesamte Package. Ist natürlich Auslegungssache, was man verwerten möchte.

Obendrein gabs mal Folien, auf denen 8-Hi Stacks genannt wurden, mit denen sich 8GB realisieren ließen.

Aber angesichts bisheriger Dual GPU Lösungen, wird man den Aufwand sicher nicht betreiben, solche Versionen zu bringen.
 
Ich frage mich diesbezüglich momentan etwas, wie lange die Computergraphik in Spielen überhaupt noch einen merklichen Nutzen von mehr DRAM auf der GPU haben wird. Ich meine, zu 99 \% der Zeit sind die Texel einer Textur beim Zeichnen kleiner als ein einziger Pixel, die Textur muss also für das Zeichnen verkleinert werden. Größere Texturauflösung bringt dementsprechend nur noch kaum mehr Bildqualität. Analog verhält es sich bei 3D-Modellen und ihren Polygonen. Meistens sind die Polygone kleiner als ein Pixel, dh man muss einen LOD verwenden oder es kommt zu Aliasing. Man kann eventuell noch den DRAM durch Varietät, SFX, Physik oder ähnlichem verbraten, um die Bildqualität zu erhöhen. Aber das wird auch nur begrenzt lange sinnvoll weiter gehen.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Nai schrieb:
Ich frage mich diesbezüglich momentan etwas, wie lange die Computergraphik in Spielen überhaupt noch einen merklichen Nutzen von mehr DRAM auf der GPU haben wird.

interessantes Statement, heißt 4-8 GB sind auch bei 4K eher schon oberes Limit? Battlefront zeigt ja gut wie sehr viel besser gute Texturen aussehen können dank diesem Scanning. Das is schon sehr nah an der perfekten Texturauflösung.

@r4yn3

selber Gedanke ;)
 
@Krautmaster
Es ist nicht oberes Limit in dem Sinne, dass man mit weiterem DRAM die Graphikqualität nicht verbessern könnte. Wir sind nur seit geraumer Zeit an einem Punkt angelant, wo viel mehr DRAM nur noch sehr wenig mehr Graphikqualität bietet. Vergleiche nur mal Crysis oder meinetwegen sogar Doom 3 mit einem beliebigen modernen AAA-Spiel. Obwohl sich der DRAM-Verbrauch von modernen Spielen verglichen mit Crysis verzehnfacht oder mit Doom 3 sogar verhundertfacht hat sehen sie nur kaum besser aus.
 
Ich finde leider die Grafik nicht mehr, aber es wird mit dem Speicherverbrauch einen ähnlichen Verlauf haben, wie der benötigte Rechenaufwand von Rasterisierung im Vergleich zu Raytracing.

Irgendwann ist man mal an einem Punkt, wo man vergleichsweise viel mehr "reinpumpen" muss, um die Grafik etwas zu verbessern.

Und wenn man z.B. Mordors Schatten nimmt, wo das HD Pack nur unwesentlich schärfer aussieht. Oder Spiele einfach den Speicher vollaufen lassen (weil er halt da ist), dann denke ich sind die Zeiten in denen sich mit normalen Texturmapping die Grafik verbessern lässt vorbei.
 
Wenn sie evtl sogar ein halbes Jahr später kommt als eigentlich geplant, würde ich ja AMD glatt raten sie mit HBM2 zu bestücken und noch ein paar Monate dran zu hängen^^... Für das Geld würden sich einige wahrs. eher ne TItan X kaufen als 2x 4GB HBM1 und die Dual GPU Probleme Inkl...
 
@ Rayne
Man kann sich soetwas sehr anschaulich am Beispiel einer Flüssigkeitssimulation überlegen: Um die Auflösung der Flüssigkeit zu verdoppeln (also z.B. von 1 m auf 50 cm) benötigt man den 8fachen Speicherpaltzbedarf (n^3) und die 16fache Rechenzeit (n^4). Will man nun die Auflösung von 1 m auf 1 cm erhöhen benötigt man deshalb den 1 000 000 fachen Speicherplatzbedarf und die 100 000 000 fache Rechenzeit. Dementsprechend bewegt man sich allgemein bei der Echtzeit-Computergraphik immer mehr auf eine Wand zu: Man ist optisch gesehen schon nahe an der Wirklichkeit dran - das was einem aber noch zur Wirklichkeit fehlt ist so aufwändig zu berechnen und deshalb auch in scheinbar unreichbarer Ferne, da Moore vorher höchstwahrscheinlich sterben wird.
 
Das dürfte kein großer Verlust für AMD sein, die Karte erst im Januar zu bringen.
Die letzte Dual-GPU die sich halbwegs gut verkauft hatte war Nvidias GTX 690.
Alle anderen erinnern von den verkauften Stückzahlen eher an Machbarkeitsstudien.

Dazu kommt, dass immer weniger Games SLI/Crossfire unterstützen, so dass es von sich aus immer unattraktiver wird.


Viel mehr Sorgen mache ich mir da eher um das restliche Programm von AMD. Die Rebrands/Refresh werden von den Kunden nicht gut angenommen, wie man am Marktanteil sehen kann. Damit muss AMD aber noch mindestens 2 Quartale durchhalten bis die neue Series kommt.
 
Zuletzt bearbeitet von einem Moderator:
@Nai

Naja, "nah dran" ist schon relativ. Ich finde es gibt genug Games die zwar vereinzelt gute Texturen bieten, gerade aber bei Weitsicht diese in extremen Matsch verwandeln. ACU ist wirklich kein Speichersparer und bietet ansehnliche Texturen - sobald man aber mal 20m in die Ferne klotzt sieht man oft Matsch.
Der Vorteil des großen VRam ist diese Texturen ja auch bis in größere Entfernungen laden zu können oder eben weniger oft nachladen zu müssen, oder lieg ich da falsch? =)

Ich will sagen... selbst 8 oder 16GB sind in FHD vermutlich noch in visuelle Qualität umsetzbar.
Battlefront ist schon wirklich gut bei was Texturen angeht.




Gerade wenn man nun VSR mit 4K in 1440 p oder so anschauen würde ist die Auflösung des Bildschirms wirklich fast ausgereizt. Aber auch in BF nehmen die Texturen in der Distanz etwas ab.

Edit: Wobei da halt Beleuchtung und Physik einfach recht statisch sind.
 
Zuletzt bearbeitet:
Ja mag sein dass man auch 16GB Vram noch in Bildqualität umsetzen könnte. Der Punkt ist aber der, dass es sich optisch immer weniger auswirkt. Noch kritischer wird es wohl, wenn man dann die Zeit miteinrechnet, um wieviel es länger dauert höher aufgelöste Texturen zu erstellen, also in Punkto Kosten.

Man könnte wohl auch in Mordors Schatten 8K Texturen reinballern. Der Look, oder die Optik bleibt aber die selbe. Ein Mordors Schatten mit Photogrammetrie...ja, dass wär ein anderes Kaliber.

Mal schaun, vllt kann sich ja Photogrammetrie "bald" durchsetzen, in verschiedenen Engines. Und vllt erlaubt es ja auch einfacher höher aufgelöste Texturen zu erstellen.
 
Richtig, Photogrammetrie is das Zauberwort, was das kann zeigt BF ja gut. Da muss man wohl direkt hoffen dass sich das durchsetzt + dann etwas bessere Effekte als in Battlefront, das ist doch sehr Flach gehalten was das angeht.

Vielleicht wäre anstelle von OpenSource Treibern mal ne OpenSource Texturplattform gut :P an denen sich dann die Entwickler bedienen können.
 
Zurück
Oben