News AMD Fiji: Weitere Details zur Radeon R9 Fury X, Fury und Nano

Hier steht ein bisschen was über das fehlende HDMI 2.0 Feature
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35770-amd-radeon-r9-fury-x-im-detail-vorgestellt.html

"Der Unified Video Decoder (UVD) ist auf dem gleichen Stand wie bei den aktuellen "Carrizo"-APUs und kommt somit auch mit H.265 HVEC zurecht. Der Eyefinity Display Controller ist für die Ansteuerung von bis zu sechs Displays verantwortlich.In diesem ist auch die fehlende Unterstützung von HDMI 2.0 begründet"

"Laut AMD war man nicht in der Lage, den Display-Controller in der GPU neu zu designen und musste daher auf HDMI 1.4a verbleiben. Eine genaue Begründung dazu konnte man uns nicht nennen. Laut AMD seien vor allem Fernseher mit HDMI-2.0-Eingang nicht sonderlich weit verbreitet und daher sehe man noch keinen Bedarf, einen entsprechenden Anschluss anzubieten. "
 
Laggy.NET schrieb:
Ich versteh nicht, dass man bei GCN 1.0 schon so fortschrittlich war, aber jetzt wieder keine Lust hat.

Sie haben kein Geld mehr! Und versuchen jetzt mit der Brechstange, das Ruder wieder herum zu reißen.
Wenn man 33% mehr Rechenkerne, 50% mehr Bandbreite und eine Wasserkühlung braucht, um auf das Niveau von Maxwell zu kommen, dann finde ich das nicht sehr überzeugend, was AMD da abliefert.
 
Die Rechenkerne und Bandbreite sind doch egal wenns schlussendlich das selbe kostet. Und die Wasserkühlung fällt wohl eher unter "weil wir es können", der Strombedarf scheint nicht höher zu sein.

Es ist nur schade das AMD das derzeit nicht auf die kleineren Chips übertragen kann, aber die Fury Nano dürfte schon sehr interessant werden.
 
Na das war aber ein echt bescheidenes Jahr für GPUs. Hatte von AMD und NVIDIA mehr erwartet. Das umblabeln von AMD ist aber echt schon fast nicht mehr zu toppen. Einfach nur peinlich. Allerdings ist NVIDIA auch nicht besser. Fast nur veralteter Schrott und zu langsam.
Naja so wirklich interessant werden eh erst die nächsten Generationen. Noch sind die Titan/980ti und auch die kommende Fury zu langsam für ernsthaftes 4K Gaming. Da braucht es momentan noch 2 Gpus. 700-1000€ für ne GPU gebe ich erst dann aus wenn die so gut wie alle Spiele in 4K und alles auf Ultra ohne Mucken macht.
Dann sind hoffentlich auch die passenden Monitore zu kaufen, sprich 4K, 144Hz, IPS oder PVA Display, eine Sync Technologie und mindestens 32".
Dann ist auch DDR4 günstiger und es lohnt sich aufzurüsten. Mit dem Zeug momentan ist das irgendwie Perlen vor die Säue geworfen und nichts halbes und nichts ganzes.
 
Für alle die es interessiert, hier gibt es einen genaueren Einblick wie der Interposer zwischen den HBM stacks und der GPU aufgebaut ist und welcher Aufwand dahinter steckt.

Der Artikel erwähnt ebenfalls dass HBM stacks und GPU nicht exakt gleichhoch sind, damit dürfte das Umrüsten von Fury X mit aktuellen Aftermarket Luftkühlern ala Morhpeus, Mk26 etc. wohl leider nicht klappen :/
 
venom667 schrieb:
Na das war aber ein echt bescheidenes Jahr für GPUs. Hatte von AMD und NVIDIA mehr erwartet. Das umblabeln von AMD ist aber echt schon fast nicht mehr zu toppen. Einfach nur peinlich. Allerdings ist NVIDIA auch nicht besser. Fast nur veralteter Schrott und zu langsam.
Naja so wirklich interessant werden eh erst die nächsten Generationen. Noch sind die Titan/980ti und auch die kommende Fury zu langsam für ernsthaftes 4K Gaming. Da braucht es momentan noch 2 Gpus. 700-1000€ für ne GPU gebe ich erst dann aus wenn die so gut wie alle Spiele in 4K und alles auf Ultra ohne Mucken macht.
Dann sind hoffentlich auch die passenden Monitore zu kaufen, sprich 4K, 144Hz, IPS oder PVA Display, eine Sync Technologie und mindestens 32".
Dann ist auch DDR4 günstiger und es lohnt sich aufzurüsten. Mit dem Zeug momentan ist das irgendwie Perlen vor die Säue geworfen und nichts halbes und nichts ganzes.

genau das mach ich in frühstens 5 jahren. jetzt brauche ich nur eine starke graka um alles in fhd auf max und bisschen VSR. da kommt eine fury (X) sehr passend. so kann ich überall 50-60 fps durchgehend haben :) dafür braucht man keine sync technology und auch keinen neuen monitor. hab erst kürzlich einen guten dell 1920x1200 gratis bekommen :D
 
AMD empfiehlt nicht den Kühler von der Karte zu entfernen. Die Verbindung zwischen dem GPU-Package und dem Kühler sei extrem empfindlich und ließe sich nur schwer in den Originalzustand zurückversetzen. AMD warnt außerdem vor eventuellen Beschädigungen am Speicher, der GPU und dem Interposer. Auch zum ausführlichen Artikel werden wir also nicht mit eigenen Bildern zum PCB aufwarten können.

Das ist natürlich blöd für jemand wie mich mit separater Wakü. :-/
 
kisser schrieb:
Sie haben kein Geld mehr! Und versuchen jetzt mit der Brechstange, das Ruder wieder herum zu reißen.
Wenn man 33% mehr Rechenkerne, 50% mehr Bandbreite und eine Wasserkühlung braucht, um auf das Niveau von Maxwell zu kommen, dann finde ich das nicht sehr überzeugend, was AMD da abliefert.

Ach wie trollig. 33% mehr Rechenwerke...bist du so ein Noob, die Rechenwerke verschiedener Architekturen miteinander zu vergleichen? GM200 ist aber dennoch größer, ohne DP Units... Meinst du nicht dass das ein Indiz dafür ist, dass CUDA Kerne mit den compute shadern von GCN doch nicht vergleichbar sind?
Man könnte auch sagen, dass Nvidia DP Leistung streichen muss, um auf das Niveau von Fiji zu kommen ;)

Wenn die Fury X in etwa so viel Energie aufnehmen soll wie eine 390X (typical board power 275W), und diese bereits von Sapphire und co erfolgreich gekühlt werden, dann denke ich, dass Fiji mit seiner VIEL größeren Fläche eine Wakü nun wirklich nicht "braucht".

Jedoch hat man sich bei AMD entschieden, dass das Flaggschiff einer Serie nicht unbedingt von einer knappen Stromversorgung (Titan X 6+8pin) oder von zu hoher Temperatur (84°C Titan X, 102°C Speicher) gedrosselt werden sollte.
2x 8pin, ~50°C warm und viel leiser als die Titan X, oh ja was für ein Fail von AMD :rolleyes:
 
kisser schrieb:
versuchen jetzt mit der Brechstange...
Wenn man 33% mehr Rechenkerne, 50% mehr Bandbreite und eine Wasserkühlung braucht...

Brechstange?

Wegen 10% höherer TDP als bei der TitanX, wird die Wasserkühlung wohl kaum unbedingt nötig sein.
50% mehr Brandbreite, die weniger Strom benötigt würde ich auch nicht unbedingt als Brechstang bezeichnen.
Zu den Rechenkernen, man kann schlecht GCN mit Maxwell vergleichen. Am Ende hat der AMD Chip 11% mehr Transistoren, wobei davon sicherlich die ein oder anderen Transistoren für die 1:2 DP:SP Fähigkeit drauf gehen.
Am Ende ist Fiji ähnlich dimensioniert wie GM200, also nix mit Brechstange.

R1c3 schrieb:
Für alle die es interessiert, hier gibt es einen genaueren Einblick wie der Interposer zwischen den HBM stacks und der GPU aufgebaut ist und welcher Aufwand dahinter steckt.

Kleiner Fehler dort:

Insgesamt befinden sich im Package von "Fiji" 22 Dies. 4 x 4 fallen dabei alleine auf den HBM.

Auf HBM entfallen 4x5 Dies. Ein HBM Stack besteht aus einem Base Die + 4 DRAM Dies.
4x5 HBM + GPU + Interposer = 22.
 
Krautmaster schrieb:
Das ist natürlich blöd für jemand wie mich mit separater Wakü. :-/

Weißt du schon ob es von Fiji keine Wasserkühler Version von einem Dritt hersteller gibt ?

Naja, kann durchaus blöd werden bei der 14nm Generation. Die wird vllt noch sensibler. Interessant dass man sogar erfährt dass der HBM Speicher in "20" nm (Hynix) gefertigt wird.
 
max_1234 schrieb:
Mit nem 4k TV hast du allein schon 30-50ms Input Lag.
Außer er war nicht im Super Duper Summer Sale, aber dann hat er auch nen DP Anschluss.

Kuck mal wieviele 4k Fernseher bei Geizhals mit nem Input Lag von unter/bis 5ms gelistet sind: http://geizhals.eu/?cat=tvlcd&xf=3952_LCD~33_46~126_4K+Ultra+HD~120_5#xf_top
5 Stück von 1324!

mfg,
Max

Ich verstehe auch nicht warum welche hier Rumheulen wegen HDMI 1.4 für die Gamer gibts Displayport und da es Gamer sind natürlich haben sie auch einen PC monitor, wer Zockt schon am TV wegen Input lag und wenn sie es tun reichen 30herz aus bzw hdmi1.4 weil sie eh den unterschied nicht bemerken würden !
Und an die Filmfans diese haben natürlich einen Htpc mit ner Stromsparsamen multimedia Graka bzw tauschen sobald es eine mit Hdmi 2.0 gibt oder nutzen eine onboard/apu am besten ohne lüfter passiv...

PS: und ob 4k auf 24"-32"zoll was bringt ja natürlich schonmal paar aktuelle handys in der hand gehabt , oder schonmal 4m vor 60" 4k tv gestanden und danach 4k auf 26" -32" bei 40 cm abstand gesehen .... ich hoffe es Klingelt !
 
Krautmaster schrieb:
Das ist natürlich blöd für jemand wie mich mit separater Wakü. :-/
Oh nein wie schade :-/ nachdem du in fast jedem Thread erwähnt hast, dass 4GB zu wenig sind, du großen Wert auf Übertaktbarkeit legst und nun auch noch hdmi2.0 super wichtig ist, schien es ja, als hättest du dich schon für die Fury X entschieden.
 
Tönni schrieb:
Ich verstehe auch nicht warum welche hier Rumheulen wegen HDMI 1.4 für die Gamer gibts Displayport und da es Gamer sind natürlich haben sie auch einen PC monitor, wer Zockt schon am TV wegen Input lag und wenn sie es tun reichen 30herz aus bzw hdmi1.4 weil sie eh den unterschied nicht bemerken würden !
Das heißt am 60" TV merkt man den Unterschied zwischen 60Hz und 30Hz nicht, aber an nem 30" Display schon?
Übrigens haben mittlerweile auch etliche TVs Gaming Modi eingebaut für niedrigen Input Lag.

Und an die Filmfans diese haben natürlich einen Htpc mit ner Stromsparsamen multimedia Graka bzw tauschen sobald es eine mit Hdmi 2.0 gibt oder nutzen eine onboard/apu am besten ohne lüfter passiv...
Das heißt ich habe entweder eine starke Gaming GPU oder eine zum Filme schauen, aber ich kann nicht beides in einem haben? Wozu braucht Fiji dann HEVC Dekodierung?
Wie mans nimmt ist es momentan komplett bescheuert. Bei NVidia bekommst du HDMI 2.0 aber dafür ohne HEVC Decoder und bei AMD ist es genau anders rum. Zwar würde ich mich immer noch für NVidia entscheiden, weil man HEVC zur Not auch mit ner starken CPU in Software dekodieren kann, aber optimal geht anders.

PS: und ob 4k auf 24"-32"zoll was bringt ja natürlich schonmal paar aktuelle handys in der hand gehabt , oder schonmal 4m vor 60" 4k tv gestanden und danach 4k auf 26" -32" bei 40 cm abstand gesehen .... ich hoffe es Klingelt !
Also ich weiß ja nicht welche Adleraugen du hast, aber mir reichen eigentlich 200dpi und spätestens ab 320dpi sehe ich bei meinem Handydisplay keinen Unterschied mehr zu höheren Auflösungen, selbst wenn ich explizit darauf achte. Da ich von meinem PC Display mehr als doppelt so weit entfernt bin wie von meinem Handy bei Verwendung bin ich also mit einer Schärfe von 80 bis 140 dpi ganz gut bedient.
Und jemand, der 30Hz Ruckeln auf einem 60" TV nicht wahrnimmt, ist denke ich auch nicht unbedingt in der Lage während des Zockens zwischen 4k und FHD auf einem 24" Display zu unterscheiden, oder doch?
Bevor Apple mit der Pixelkeule gekommen ist, haben sich selbst die iPhone Lemminge mit 160dpi begnügt ... ein wunderschönes Beispiel für funktionierendes Marketing.
 
@Volker

Fiji: Offizielle Hersteller-Benchmarks gegen die GTX 980 Ti (Update)
Überraschend hat uns AMD jetzt doch noch erlaubt, die herstellereigenen, also nicht (!) von uns erstellten Benchmarks zur Radeon R9 Fury zu veröffentlichen.

von pcgh. Dann dürftet ihr jetzt auch denke ich ;-)
 
Kein HDMI 2.0 aber mit 4k-Gaming werben? Find ich fast schon unverschämt^^

Tönni schrieb:
Ich verstehe auch nicht warum welche hier Rumheulen wegen HDMI 1.4 für die Gamer gibts Displayport und da es Gamer sind natürlich haben sie auch einen PC monitor, wer Zockt schon am TV wegen Input lag und wenn sie es tun reichen 30herz aus bzw hdmi1.4 weil sie eh den unterschied nicht bemerken würden !...

Wenn du den Unterschied zwischen 30 FPS und 60 FPS nich merkst, (von mir aus auch mit 1 Sekunde Input-Lag) dann solltest du mal zum Arzt gehen ;) Das ist im direkten Vergleich doch Daumenkino zu Realität.

Es soll im übrigen auch noch PC-Gamer geben die Spiele gern im großen Format spielen. Bei irgendwelchen MP-Shootern, in denen es eh nicht auf die Grafik ankommt sondern auf den Wettbewerb ist das natürlich nichts so, aber die braucht man dann auch nicht in 4k. Ich denke da vor allem an Rennspiele und Simulationen aber gerne auch an entspannte offline Grafik-"Shooter" wie FarCry, TombRaider oder Crysis.

Dazu kommt leider nach wie vor, dass Bildschirme in 4k-tauglichen Größen (mMn 32"+) bisher ausschließlich als Fernseher in erschwinglichen Preisklassen zu finden sind, und hier ist DP in 99% der Fälle natürlich nicht vorhanden.


Schade, ich hatte insgeheim gehofft dass AMD endlich nachzieht - gerne auch bei der 300er Generation - damit endlich mal was billigeres/kleineres als ne 960 in den Heimkino/Office PC kann.
Was hindert die daran? Ist der HDMI-Controller etwa fest im Chip integriert?

LG KeyKon
 
Zuletzt bearbeitet:
Ich schätze, wenn es genau umgekehrt wäre, sprich nvidia hätte kein HDMI 2.0 und kein DX 12_1, sondern nur HDMI 1.4 / DX 12_0 würde der Tenor lauten das man beides noch nicht braucht, weil wer spielt schon auf dem Fernseher.

Aber wehe AMD fehlt es, da wird gleich ein Totschlagargument daraus konstruiert.

@SimsP
Was spricht denn gegen 4K bei 24"? Bei entsprechender Skalierung gibt es ein knackig scharfes Bild.
PS: https://www.computerbase.de/forum/t...anteil-erreichen.1426138/page-4#post-16711133
 
Zuletzt bearbeitet:
KeyKon schrieb:
Ist der HDMI-Controller etwa fest im Chip integriert?

So wie es meines Wissens nach aussieht ja! AMD hat darauf gesetzt (bzw. setzt auch aktuell wohl noch darauf) dass sich DP als Standard durch setzt. Ich könnte mir auch durchaus vorstellen, dass AMD mit den Konsolen da durchaus auf lange Sicht am längeren Hebel sitzt...


MfG tb
 
pipip schrieb:
Weißt du schon ob es von Fiji keine Wasserkühler Version von einem Dritt hersteller gibt ?

Naja, kann durchaus blöd werden bei der 14nm Generation. Die wird vllt noch sensibler. Interessant dass man sogar erfährt dass der HBM Speicher in "20" nm (Hynix) gefertigt wird.

klar... wirds sicher geben. Irgendwann. Auch so wird der Kühler tauschbar sein, vielleicht nicht so easy aber es wird gehen und insgesamt kann der auch kleiner ausfallen. Vielleicht bekommt das Package auch irgendwann nen Heatspreader.
Ergänzung ()

PiPaPa schrieb:
Aber wehe AMD fehlt es, da wird gleich ein Totschlagargument daraus konstruiert.

generelles Totschlag Argument les ich hier kaum wo raus, es sind eben nur Einzelne die ihre High End Karte auch gern an den 4K TV hängen würden (vollkommen egal ob nur für Desktopbetrieb, Filme, Diashow oder wirkliches Gaming...). In den nächsten 1-2 Jahren werde ich von meinem 4 Jahre alten 55" LG auch auf ein größeres 4K Modell umsteigen. Zocken hab ich bisher nicht aufm TV vor, das ist in 4k auf 40" am Rechner groß genug ^^, aber auch ich kann mir durchaus vorstellen von HDMI 2.0 Gebrauch zu machen. 30hz hab ich grad am 4K TFT am Rechner da DP1.2 an der HD6950 nicht mehr ausspuckt in 4k als 30hz.

Es sind wie bei DVI eben einzelne Käufer für die das Fehlen von HDMI 2.0 / DVI ein Totschlag Argument ist, das wäre andersrum genauso. Verübeln kann man das auch kaum.... Bisher waren meist die AMD Karten was Features und Anschlüsse angeht besser ausgestattet.
 
Zuletzt bearbeitet:
Matzegr schrieb:

Ja genau. Was glaubst du denn, warum AMD auf HBM wechslen musste? Die GCN-Architektur ist am Ende, weil sie viel zu ineffizient ist und von ihrer theoretischen Rohleistung nicht genug in der Praxis ankommt. Eine 290x/390x hat schon ein 512Bit Speicher-Interface, noch breiter konnte man das nicht machen. Jetzt vergleiche mal eine 290x von den theoretischen Leistungsdaten her mal mit einem GM200. Die sind sich da sehr ähnlich, aber in der Praxis ist der Maxwell deutlich schneller.
Also hat AMD, um da mitzuhalten, einfach weitere Rechenwerke angeflanscht und musste zwangsweise auf HBM wechseln.

Matzegr schrieb:
Brechstange?
Wegen 10% höherer TDP als bei der TitanX, wird die Wasserkühlung wohl kaum unbedingt nötig sein.

Papier ist geduldig. Ich gehe davon aus, dass es in der Praxis deutlich mehr als 10% sein werden. Ich schätze, dass die Fury mehr als 300W verbrauchen wird. Die Übertaktbarkeit wird auch eher bescheiden ausfallen, das sieht man ja an den R200er/300er Chips.
Ergänzung ()

SimsP schrieb:
Zwar würde ich mich immer noch für NVidia entscheiden, weil man HEVC zur Not auch mit ner starken CPU in Software dekodieren kann, aber optimal geht anders.

http://www.heise.de/download/lav-filters-lavfilters-1189718.html

Unterstützt CUDA für HEVC-Decoding. Mehr als 20% CPU-Last auf meinem ollen C2Q 9400 mit GTX 750ti braucht das nicht mehr, um das von CB in den Tests genutze 4k Sintel Video einwandfrei zu decodieren.
 
Zurück
Oben