News AMD Radeon R9: Fury X kostet 649 US-Dollar und ist ab 24. Juni erhältlich

eRacoon schrieb:
Und hey wer bitte kauft sich solche Karten um damit auf 1080p zu zocken, also ich finde es von AMD zwar schön mal neue Technik einzusetzen aber hier definitiv aufs falsche Pferd gesetzt zu haben.

Das wäre dann ich. 1920x1080, momentan mit 2 x 290X, um soweit möglich alle Games auf maximalen Details mit ~144 fps spielen zu können.
 
Ich finde interessant wie HBM Tod geredet wird.

Habe ich was verpasst? Wurde irgendwo getestet wie sich HBM im wirklichen Leben verhält? Vielleicht reichen 4GB ja...
Hatte ich früher immer nen Facepalm wenn ich leuten zuhören durfte, die Grafikkarten ausschließlich danach verglichen haben welche mehr Speicher hatte :freak:

Dachte eigentlich hier geht man das ganze etwas anders an...
 
ThatGerman schrieb:
Das wäre dann ich. 1920x1080, momentan mit 2 x 290X, um soweit möglich alle Games auf maximalen Details mit ~144 fps spielen zu können.
Oder einfach Downsampling zu betreiben wie bei mir. 2,5K oder 4K auf 24 Zoll da braucht kein Schwein AA etc, weil es an der Bildquali nichts mehr ändert.
 
hrafnagaldr schrieb:
Irgendwie kann ich Leute, die ne GTX 980 gegen ne GTX 980 Ti tauschen ohnehin nicht ernst nehmen. Aber was an der Featurepalette stört Dich an der Fury denn?

Mit "Features" beziehe ich mich auf Gameworks, Treiberunterstützung und die negativ Berichte zu einzelnen Spielen in der Vergangenheit (in Kombination mit AMD Grafiklösungen). Wechseln kann ich später immernoch.

Und das Upgrade von 980 auf 980ti erfolgt nur wegen des VRAM's, eine Titan X ist mir zu teuer, die Ti ist noch im Bereich "geht schon in Ordnung". Außerdem ziehe ich die Regler in Spielen gerne ohne nachdenken zu müssen nach rechts :).

Zudem muss ich meine Signatur hier nur geringfügig verändern xD.
 
Zuletzt bearbeitet:
Sontin schrieb:
AMD verwurstelt hier 20 bis 36 Monate alte Chips in einer neuen Produktlinie. Davon kann keiner HDMI 2.0, unterstützt nicht das Feature Level 12_1 sowie Tiled Ressources tier 3 und zwei können nicht mal FL12_0, Freesync sowie VSR.
Dinge, die die Konkurrenz seit 9 Monate liefert. Und gegenüber der GTX960 fehlt auch ein neuzeitlicher Video-Dekoder.

Es gibt überhaupt kein Fortschritt nach 20 Monate zu Hawaii. Keinen. Und das wird hier als gut verkauft. Wozu überhaupt neue Karte entwickeln, wenn man das alte Zeug doch unendlich um labeln kann.

Am Ende verliert der Kunde, da der fortschrittlichere Konkurrent einfach nicht unter Druck gesetzt wird. 450€ für altes Zeug, wenn eine GTX980 50€ mehr kostet? Viel Glück damit.

Wow seit September 2014 sind schon 20 Monate vergangen? Sachen gibts...
Zudem hatte ich dich jetzt nicht gerade als AMD Fanboy in Erinnerung der zur Kepler Zeit auf dem höheren Featurelevel der Radeons und der stagnation der Geforce Karten (bis hin zur 750Ti) auf dem 11_0er Featurelevel rumritt.
Zudem interessiert mich welche deiner Quellen sagt was für einen Video Decoder die Fury Karten haben werden.
 
Sontin schrieb:
Davon kann keiner HDMI 2.0, unterstützt nicht das Feature Level 12_1 sowie Tiled Ressources tier 3 und zwei können nicht mal FL12_0, Freesync sowie VSR.
Dinge, die die Konkurrenz seit 9 Monate liefert. Und gegenüber der GTX960 fehlt auch ein neuzeitlicher Video-Dekoder.

HDMI2.0 fehlt ... richtig, aber es gibt ja noch die DP1.2 Ports (Vermutlich kein 1.3)

Ansonsten fehlt GCN1.0 für FL12_0 lediglich die von dir erwähnten Tiled Ressources Tier 2 (1 wird unterstützt) und für FL12_1 fehlt lediglich Rasterizer-ordered Views.

Schön das du hervorhebst, dass NVIDIA in einem Punkt Tier 3 unterstützt und anmerkst, dass es die Konkurrenz nicht tut. Du vergisst dabei zu erwähnen, dass ansonsten 'nur' Tier 2 unterstützt wird und AMD die Anforderungen mit Tier 3 übertrifft und keinerlei Einschränkungen in HW hat.
Es mag nun Marketingtechnisch besser aussehen, dass NVIDIA FL12_0/1 erreicht ... aber im Prinzip kann jede AMD Karte ab GCN1.0 schon mehr als gefordert und verfehlt die Anforderungen für beide FL nur knapp.

VSR ist doch ab GCN1.1 verfügbar und Freesync ebenfalls. Auf der einen Seite meckerst du, dass nicht alle Features wirklich flächendeckend sind und auf der anderen Seite zählst du ne einzelne Karte mit einem Feature auf?!
 
dgschrei schrieb:
Und heute ist das nicht viel anders nur ist das heute nicht die DDR, sondern China wo die neu entstehenden Chipschmieden das gleiche machen, was wir schon von Magnetschwebebahnen, MRT-Geräten usw. kennen. Es wird einfach komplett geklaut.

Durch Kopieren ist eigentlich noch niemand besser geworden als das Original. Genauso wie man in China das große Kopieren beobachten kann, kann man dort auch beobachten, dass ab einer gewissen Größe eben nicht mehr kopiert, sondern selber entwickelt wird. Erst in Teilen und dann (nahezu) vollständig. Industriespionage gibt es natürlich trotzdem und hilfreich ist sie auch, aber blinde Kopiererei ist fast immer nur Starthilfe.

Ich möchte das nicht verteidigen oder beschönigen. Dieses Phänomen ist ein großes Problem, aber besonders die Wahrnehmung der chinesischen Industrie als große Kopiermaschine, ist, besonders im Hightech Bereich, weit von der Realität entfernt.
 
3DC, hat Benches einer koreanischen Seite (mittlerweile off!) veröffentlicht...Fury ist dabei alles andere als ne 5K Karte...ob das stimmt, sei dahingestellt...sieht aber plausibel aus.
 
Wie einige übertreiben...
Die R9 285 ist fast genauso frisch wie eine 960, klar das man daraus einen Rebrand fertigt. Alle beziehen die gar nicht mit ein, obwohl Tonga deutlich jünger als Haiti ist. Klar die anderen sind kaum interessant oder wie R9 290 angeblich so schlecht. Dann noch der Vergleich 960 4GB mit der Fury 4GB. :eek: Eine 960 ist dermaßen lächerlich angebunden und dazu schwach, das 4 GB wie bei der Titan die 12 GB, nie angesprochen werden. Das erklärt bei Nvidia auch die angeblichen Superverbräuche, niedrige Anbindung plus weglassen von Leistung in gewissen Bereichen ;)

Die Fury ist eine tolle Karte, klar für die extremen Leute hier total uninteressant, jedoch gibt es aus meiner Sicht bisher keine passende 4K Grafikkarte, die im Singlebetrieb läuft. Jede Nvidia ist zu lahm dafür, die schnellste Fury noch unbekannt. Für FullHD und Downsampling hole ich mir die irgendwann als Ersatz.

Bin trotzdem noch auf die Nano gespannt, was die schafft. So schön klein und hoffentlich mit ordentlich Dampf :)
 
Mc_Luebke schrieb:
Morre's law kannste mittlerweile vergessen. Die Hardware Limits der bisherigen Werkstoffe sind erreicht (Takt stagniert, Leckströme). Parallelisierung kann das nicht beliebig kompensieren. An GPUs sieht man was passiert, wenn man gnadenlos parallelisiert. Die Leistungsaufnahme von Grafikkarten ist unfassbar explodiert in den letzten 10 Jahren.

Was hat Moore's Law bitte mit der Leistung zu tun? Moore's Law bezieht sich einzig und allein auf die Anzahl der Transistoren pro Flächeneinheit.
@ampre und nein, Moore's Law ist noch nicht tot. Es ist zwar ein Ende absehbar, aber bisher klappt das mit der Verdopplung noch ganz gut und kann dementsprechend nicht für irgendwelche Entschuldigungen herhalten.

Und Sontin hat insoweit recht, dass gerade das fehlende HDMI 2.0 und der fehlende HEVC/h265 Decoder AMD in den Rebrands richtig weh tun werden. Vor allem bei den Low-End Karten. Wenn die unausweichlichen Maxwell -Lowend Karten kommen (also < 960) dann steht auf Nvidia Seite 4K h264 Unterstützung für HTPCs und bei AMD FHD + h264.
Und das wirklich traurige daran ist, dass das Features sind, für die es gelangt hätte den uncore zu redesignen an den eigentlichen Shaderblöcken usw hätte man nichts, aber auch gar nichts ändern müssen, aber stattdessen überlässt man Nvidia hier das Feld.
Wer kauft denn jetzt noch eine Karte für seinen HTPC die nicht nativ h265 kann, wenn absehbar ist, dass das in den nächsten 1-2 Jahren großflächig wichtig wird? Und das sind die Karten über die normalerweise der Gewinn gefahren wird. Fury, Titan und co sind nur Prahlerei fürs Marketing mehr nicht.
 
Wadenbeisser schrieb:
Wow seit September 2014 sind schon 20 Monate vergangen? Sachen gibts...
Zudem hatte ich dich jetzt nicht gerade als AMD Fanboy in Erinnerung der zur Kepler Zeit auf dem höheren Featurelevel der Radeons und der stagnation der Geforce Karten (bis hin zur 750Ti) auf dem 11_0er Featurelevel rumritt.
Zudem interessiert mich welche deiner Quellen sagt was für einen Video Decoder die Fury Karten haben werden.

Zumindest hat Heise in dieser Hinsicht bestätigt bekommen (von AMD höchstselbst freilich), daß die Fury-Karten nicht nur auf HDMI 2.0 verzichten müssen, sondern auch auf HDCP 2.2. Das ist für eine explizit für 4K angekündigte Karte dann schon ungünstig. Die Ausgabe via HDMI bleibt damit auf 30 Hz beschränkt, 4K Blurays lassen sich nicht abspielen und zukünftiges 4K-Streaming ist damit wohl auch nicht möglich.

Hinzu kommt ein Punkt der Nvidia und AMD gleichermaßen betrifft. Bereits heute reichen die teuersten Karten nur knapp aus, um anspruchvolle Titel in voller Grafikpracht auf den (4K-) Bildschirm zu bringen. Teilweise ist auch hier schon der Verzicht auf die höchsten Einstellungen für einen flüssige Darstellung notwendig. Reserven gibt es nicht, also wirklich gar nicht und bereits in näherer Zukunft werden diese heute sauteuren Karten schlichtweg nicht mehr für solch hohe Ansprüche ausreichen. Das soll sich auch erst im nächsten Jahr ändern, wenn die zweite Generation von HBM auf dem Plan steht, die dann wirklich nochmals einen Sprung bringen soll.

Mit dieser Perspektive ist es für viele Interessenten sicherlich schwierig zu rechtfertigen, heute so viel Geld in Hardware zu investieren, die quasi die Garantie eingebaut hat, "morgen" bereits veraltet zu sein. Das Gesagte gilt ausdrücklich auch für Nvidia, der Verzicht von AMD auf essentielle 4K-Features macht es in diesem Fall nur noch schlimmer.
 
Danke für die Aufklärung, noch schlimmer als gedacht und entsprechend völlig unbedeutend ;)
Von dieser Form der Anlagestrategie halte ich trotzdem nichts, zumindest nicht für kleine Private Anleger aber das gehört hier nicht her ;)
 
4K ist eben noch zu jung!
 
PolarSun schrieb:
Nun, da wollen wir aber dann fair seinen:

HDMI2.0 können alle Grafikkarten der 9x0-Serie, jedoch nicht durchgängig HDCP2.2. Das kann nämlich nur der GM206 und damit nur die 960er.

Selbst mit der aktuellen 980Ti oder sogar Titan X ist es also nichts mit 4k-BluRays. ;)
 
PolarSun
Die 960GTX ist die einzige Karte die HDCP 2.2 unterstützt und mit 200 Euro der 2GB Version auch sicherlich keine Einsteigerkarte.
 
dgschrei schrieb:
Was hat Moore's Law bitte mit der Leistung zu tun? Moore's Law bezieht sich einzig und allein auf die Anzahl der Transistoren pro Flächeneinheit.
@ampre und nein, Moore's Law ist noch nicht tot. Es ist zwar ein Ende absehbar, aber bisher klappt das mit der Verdopplung noch ganz gut und kann dementsprechend nicht für irgendwelche Entschuldigungen herhalten.

Moore's Law hat ziemlich viel mit der Leistung zu tun. Und die Anzahl der Transistoren pro Fläche ist nun mal vom Produktionsprozess abhängig. Und spätestens beim Wechsel zu EUV wird es nun mal richtig teuer und aufwändig. Schon jetzt muss man zu Tricks bei der Belichtung greifen.
Bisher klappt das noch ganz gut, aber die Forschung der nächsten Lithographieprozesse läuft nicht erst seit ein paar Jahren und eine Einschätzung der kommenden Produktionsprozesse ist daher ganz gut möglich.
Hab Jahre lang mit jemandem in einem Büro gesessen, der an der Herstellung von EUV Masken für #hier_großen_Chiphersteller_einfügen# geforscht hat. Das war nicht erst letztes Jahr, sondern ist schon knapp 10 Jahre her.
 
PolarSun schrieb:
Fullquote entfernt.

Das fehlen von HDMI 2.0 ist sicherlich unschön aber wieviele Geräte betrifft das? Abgesehen davon halte ich die DisplayPort Schnittstelle für den deutlich besseren Schnittstellenstandard im PC Segment weil er in meinen Augen flexibler, leistungsfähiger und durch den Entfall der Lizenz Gebühren billiger ist.
Die HDCP Geschichte wäre lediglich für die 4K Video Geschichte relevant und das letzte was ich dazu laß war das für 4K Blurays noch nicht einmal ein einheitlicher HDCP Standard existieren würde. Mir wäre es auch neu wenn es inzwischen einen definitiven Datenträger Standard für 4K Filme geben würde. Entweder waren das Filme im 4K Format auf nem normalen Blu-Ray Medium mit entsprechend hoher Kompression oder entsprechend kurze Demo Videos.
Was derzeit am Markt erhältlich ist ist eher mit der heißen Nadel gestrickt und von einem Standard noch recht weit entfernt.
Ob HDCP 2.2 dafür überhaupt relevant sein wird muss sich erst noch zeigen und vor allem auch vom Anzeigegerät unterstützt werden. Bei wievielen der erhältlichen 4k Fernseher und Monitore ist das der Fall?
 
Zuletzt bearbeitet von einem Moderator:
PolarSun schrieb:
Zumindest hat Heise in dieser Hinsicht bestätigt bekommen (von AMD höchstselbst freilich), daß die Fury-Karten nicht nur auf HDMI 2.0 verzichten müssen, sondern auch auf HDCP 2.2. Das ist für eine explizit für 4K angekündigte Karte dann schon ungünstig. Die Ausgabe via HDMI bleibt damit auf 30 Hz beschränkt, 4K Blurays lassen sich nicht abspielen und zukünftiges 4K-Streaming ist damit wohl auch nicht möglich.

Wie viele 4k-Bluray-Player gibt es schon, wie viele 4k-Blurays? Wer hat einen richtigen 4k-TV im Wohnzimmer mit HDMI2? Ich kenne niemanden.

Am PC kannst du Displayport für >30 Hz nehmen. Das sollte ein ordentlicher 4k-Monitor ohnehin haben.

Bis 4k bei Grafikkarten halbwegs relevant ist und ins Wohnzimmer Einzug gehalten hat, werden noch ein paar Jahre vergehen. Bis dahin dürfte es auch von AMD eine schöne Mittelklasse-Grafikkarte fürs Wohnzimmer geben, mit HDMI2 oder Nachfolger.

An der Stelle sei auch noch einmal auf die Steam Hardware-Umfrage verwiesen:
http://store.steampowered.com/hwsurvey
Ganze 0,27% verwenden eine Auflösung größer 1440p.

Den fehlenden H265-Decoder halte ich für gravierender, weil das auch bei 1080p etwas bringt. Aber bis das eine relevante Verbreitung gefunden hat wird es auch noch etwas dauern.
 
ersthaft jetzt, nur HDMI 1.4? =/ wozu dann überhaupt nen HDMI Port verbauen?

Edit: Das zeigt doch gut wie "alt" Fiji schon ist.... nicht umsonst gabs schon im Frühjahr wohl fertige Karten in Einsatz nur lässt vermutlich HBM und der wichtige Treiber auf sich warten. Ich mein... es wäre ja auch fatal gewesen zu launchen und gegen die GTX 980 Ti und TITAN X zu verlieren weil der DX11 Treiber ein Strich durch die Rechnung macht oder beide nicht wirklich geschlagen werden können.

Eventuell ist Fiji auch schon fast so alt wie Hawaii (Tapeout usw), ursprünglich vielleicht gar in kleinerer Fertigung geplant und vielleicht wurde früher mit fertigem HBM gerechnet. Zudem muss man sich den Weg bis <28nm ja einteilen.

Edit: Die korrekten Specs von Fiji sind ja seit Nov 2014 auf dem Tisch
http://www.overclock3d.net/articles/gpu_displays/amd_r9_390x_fiji_gpu_specs_leaked/1

Damals war schon bekannt das AIO + 4GB HBM, aber man hat lange auf 20nm spekuliert.

Fiji als Codename steht seit Anfang / Mitte 2013.
 
Zuletzt bearbeitet:
Zurück
Oben