News AMD Fiji: Weitere Details zur Radeon R9 Fury X, Fury und Nano

zeedy schrieb:
...
Edit: die HDMI 2.0 Diskussion ist auch witzig. Plötzlich hat jeder sonen TV oder was? Wahnsinn :D
Interessanterweise ist diese HDMI-TV Diskssion in den meisten Foren vorhanden... aber noch interessanterweise erst seit Gestern / Heute
Da wurde wohl das neue Script hochgeladen und über Nacht von den Forenten auswendig gelernt... zumindest wirkt diese Nummer extrem nach viralem, zentral gesteuertem, (Negativ-) Marketing!
 
Pappschuber schrieb:
Auf einem TV ist das mit dem Input Lag kein Problem, wenn man das richtige Gerät anschafft. Aktuelle UHD-TVs von Samsung (also 2015er JU-Modelle) haben im Game Mode einen Input Lag von ca. 25 ms. Das reicht vollkommen zum Spielen, einige (UHD- oder QHD-) Monitore haben auch nicht weniger. Wenn man nicht gerade mit Maus und Tastatur einen schnellen Shooter spielt, kann man auch mit mehr leben.

/Sign

Zudem kommt noch, das die heutige Technik nicht ausreicht um Shooter mit 4k zu spielen, denn da sind auch die 60Hz noch zu wenig. Da fehlen Anschlüsse+ Standarts und noch wichtiger, die Hardware die Shooter mit 100+ Fps darstellen kann.

Und für MICH ist der fehlende Hdmi 2.0 Anschluss ein K.O. Kriterium für die Fury.

PiPaPa schrieb:
Das einzige lächerliche was ich hier sehe ist, das einige suggerieren müssen irgendeine relevante Zielgruppe (4k Fernseher bei 60Hz) zu sein, was sie aber nicht sind.
Die Allerwenigsten besitzen einen 4K Fernseher, und davon gibt es nur eine absolute Minderheit im Promillebereich, welche ihren PC daran anschließen und dann auch noch darauf spielen...

Öhm, wer sonst, ich habe schon öfter geschreiben, das es z.Z. kaum 4k Monitore gibt die zudem noch Sau teuer sind.

Schau dich einfach mal um und du wirst relaiv schnell auf die Idee kommen, dich bei UHD-TVs umzusehen. Es gibt m.M.n. nur einen brauchbaren 4k Monitor und das ist der 39 Zoll Monitor von Philips und da passt der Preis auch. UND es gibt keinen Größeren Monitor mit 4k.

Und einige haben es ja schon geschrieben, 4k bei unter 30 Zoll da muss man mit eine Lupe vor dem Bildschirm sitzen damit man die Buttons erkennen kann. Wie schon geschrieben, bei meinem 49 Zöller sind die Buttons schon verdammt klein auch wenn ich die auf max. skaliere.

Wer heute 4k möchte kommt um UHD-TVs nicht herum. Gamer sind gerade im Aufbruch zu 2K, 4k ist dann einfach noch zu teuer.
 
Zuletzt bearbeitet:
Hab meinen anderen post angepasst, hab da was verwechselt.

Ich warte erstmal weitere Tests ab, Fury wäre für mich nur was, wenn Sie bei gleichem Preis schneller wäre. Da mir die 980 Ti eigentlich zu teuer ist (trotzdem mittlerweile sehr gern hätte).
 
Pizza! schrieb:
2 Seiten mit Benchmarks und beide zeigen 390X Leistung knapp bei der GTX 980 ( der Rest was hier stand war mist, versehen)

Hoffen wir mal es kommt noch anders, es liegt an den Treibern oder was auch immer. Nvidia braucht mehr Druck, mehr Preisdruck.

Das Problem bei den Benchmarks ist, dass nur in 2560x1440 gemessen wurde meines Wissens nach. Da war die 290X auch schon relativ stark. In FHD wird die 980 wohl schneller sein leider. Zumal man auch sagen muss, dass immer mit der Referenz 980 verglichen wird, ohne das OC-Potenzial zu berücksichtigen und da geht bei der 980 ja einiges.

Hoffentlich kann AMD da wirklich noch was über den Treiber machen. Preisdruck kann NV immer gebrauchen, da könnte ruhig alles ~50€ runtergehen.
 
@ PiPaPa & Zeedy

hört mal, ich stimm euch absolut zu dass fehlendes HDMI 2.0 zb ne Kleinigkeit ist die für die Minderheit von Relevanz ist. Es sind alles Kleinigkeiten... es geht nur etwas gegen den Strich wenn man

4GB, fehlendes HDMI 2.0, fehlendes DVI, DX12_0 ...

hier für allgemein gültig als nichtig und "egal" erklärt, sich aber in anderen Posts über die DP Schwäche von den Nvidia GM200 Karten auslässt, letztere aber wohl für nen noch viel kleineren Teil von Relevanz ist.
Deswegen, schön mal an die eigene Nase fassen bevor man jemand Parteilichkeit unterstellt. Apropos Parteilichkeit, deswegen auch mein absichtlich etwas provozierende THG Posting bezüglich Stromverbrauch, weil es in letzter Zeit ja schon recht Mode geworden ist CB irgendwelche Unterstellungen hinsichtlich der Neutralität zu machen.

Ich sag ja nicht das erste mal dass mich der Last Verbrauch ziemlich genau 0 interessiert, aber offensichtlich wesentlich mehr Käufer als die DP Leistung. (was ich ganz und gar nicht verübeln kann)

Fury X ist mit Sicherheit erstmal eine schöne Karte, die wegen dem Preis ohnehin nur für vielleicht 5% der Gamer interessant ist. Es ist einfach etwas schade wenn man dann durch Dinge wie fehlendes DVI, HDMI 2.0 weiter den kleinen Markt einschränkt. Und glaubt mir, das schränkt wesentlich mehr ein als nen DP Verhältnis von 1/32 bei der GM200...
 
Zuletzt bearbeitet:
Pappschuber schrieb:
Ich suche hier nicht krampfhaft nach einem Argument. Auch rede ich hier nichts schlecht. Ich habe lediglich die Abwesenheit von HDMI 2.0 kritisiert, da ich erwartet habe, dass es, weil aktueller Standard, mit an Board ist. Das werde ich wohl auch noch dürfen.

Bist ja nicht der einzige und bei dir ist es auch nicht so übertrieben wie bei anderen Usern. Jedoch war das davor lustigerweise nie ein Argument und plötzlich spielt jeder auf nem 4k Fernseher :freak:

Pappschuber schrieb:
Das mit dem Tellerrand bezieht sich auf die Leute, die hier "krampfhaft" behaupten man bräuchte weder HDMI 2.0 für 4K/UHD bei 60 Hz, noch überhaupt einen TV für einen PC. Am PC will ich nicht mit 30 Hz das OS navigieren.

Da geb ich dir recht, aber wenn man wie ich 144 Hz hat, dann sind auch 60 Hz noch zu wenig :D
Jedoch ist es Fakt, dass die meisten an einem Monitor und nicht an einem Fernseher spielen und jetzt schau dir mal die ganzen Posts zu der Pro TV Fraktion an, etwas übertrieben findest du nicht? Zumal die ja auch auf ne GTX 980 Ti ausweichen können, wenn sie meinen am TV spielen zu müssen.


Pappschuber schrieb:
Auf einem TV ist das mit dem Input Lag kein Problem, wenn man das richtige Gerät anschafft. Aktuelle UHD-TVs von Samsung (also 2015er JU-Modelle) haben im Game Mode einen Input Lag von ca. 25 ms. Das reicht vollkommen zum Spielen, einige (UHD- oder QHD-) Monitore haben auch nicht weniger. Wenn man nicht gerade mit Maus und Tastatur einen schnellen Shooter spielt, kann man auch mit mehr leben.

Dann würde ich mir ehrlich gesagt eher ein Sony Modell holen ;-)
Jedoch finde ich 25 ms als viel, also für schnelle Spiele oder generell für Onlinespiele nicht zu gebrauchen...
Von daher muss man nicht übertrieben drauf rumhacken.

Pappschuber schrieb:
Aber klar, "Minderheiten" haben natürlich die Klappe zu halten.

Wieso nicht, reicht ja wenn man in der Politik von ihnen tyrannisiert wird ;-)

SimsP schrieb:
Jetzt die Frage, wann macht 4K Sinn? Bei nem 24" Display wo ich dann mit dem Elektronenmikroskop nach Pixeln suchen darf? Eher kaum. 4K macht Sinn wenn man große Displays hat und da dürfte 55" schon eher das Minimum sein.

Und wer sagt, dass es kein Sinn macht, du? :freak:
Klar macht auch 4k auf einem 24 Zoll Monitor Sinn, Stichwort Skalierung oder was meinst du wie Apple das macht ;-)
Bzw welche Auflösung hat denn dein Smartphone? Deiner Ansicht nach wäre ja maximal 320*240 das höchste der Gefühle bei der Displaydiagonale...
 
Scr1p schrieb:
Ich kotze gleich... immer nur neue Gerüchte und Kram, die sollen das Teil jetzt endlich auf den Markt kippen, sie machen sowieso stündlich Verlust und verlieren Marktanteile ans grüne Lager. Wozu das ganze...

Kommt mal in die pötte AMD !


Seh ich 1:1 auch so ...
 
Computerbase@ Bitte testet auch, ob man die AIO in eine bestehende Wakü integrieren kann. Ob es möglich ist die Schläuche zu demontieren, ohne das man es "zerstören" muss. Aus den Bildern geht das nicht klar hervor, sieht aber sehr nach industriell gefertigt und geklebt aus, wird wohl Bombenfest sitzen :heul:

Srefanius@ Danke für den Link, sieht aus als ob die Krone an AMD geht.

Krautmaster@ welchen Vorteil siehst du bei HDMI 2.0 gegenüber - ich selbst nutze nur - DP 1.2 (3)
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Aha, und als nvidia DX11.1 nicht unterstützt hat gehörte es auch zum Pflichtprogramm? Ach nein...

Du meinst DX10.1
Natürlich gehörte es zum Pflichtprogramm, aber nVidia hat ja scheinbar alles in Bewegung gesetzt, um es vom Markt fern zu halten. Siehe Assassins Creed Patch, der auf AMD Karten relativ große performancevorteile brachte, aber dann wieder zurückgezogen wurde.
Frechheit. Allgemein schien DX10.1 einiges an Performance rauszuholen. Hätte Nvidia es unterstützt, hätte jeder davon Profitiert.

Nun ist es umgekehrt, AMD hat keine 12_1 Unterstützung und das wird wohl auch dafür sorgen, dass uns etwaige Vorteile wohl längere Zeit vorenthalten bleiben, weil die Entwickler mit den Konsolen und den AMD GPUs Feature level 12_0 als gemeinsamen Nenner wählen werden.
Einen "Vorteil" hat es aber, dass diesmal Nvidia alleine mit FL 12_1 dasteht . Nvidia schleußt sich viel öfter bei den Entwicklern ein, als AMD. Nvidia kann deshalb Gameworks auf FL12_1 auslegen, was wohl dazu führen könnte, dass AMD Karten mit Gameworks noch stärker ausgebremst werden.

Ich ahne böses :/
aber erstmal abwarten. Dauert ja noch, bis es dann wirklich soweit ist.

Aber grundsätzlich finde ich eine möglichst aktuelle Architektur und Hardware Features bzw. Support neuester APIs sehr viel wichtiger als Rohleistung. Siehe Witcher 3 mit Kepler. Karten wie die 780ti hatten sehr viel Rohleistung, dickes Speicherinterface usw. Aber von Maxwell werden sie völlig in den Boden gestampft, wenn Spiele auf die aktuellen GPUs ausgelegt werden und deren Vorteile ausnutzen.
 
Zuletzt bearbeitet von einem Moderator:
Tronx schrieb:
Krautmaster@ welchen Vorteil siehst du bei HDMI 2.0 gegenüber - ich selbst nutze nur - DP 1.2 (3)

es ging um TVs die seit bereits einem Jahr mit HDMI 2.0 daherkommen und bis Ende des Jahres kaum ein "non 4K" Gerät mehr über die Ladentheke gehen dürfte ;)
Die haben idR kein DP1.2... also 60hz nur mit HDMI 2.0.

Sicher, wie gesagt ein kleiner Teil der ohnehin kleinen Zielgruppe, aber halt wieder ein Nadelstich der manchen Käufer Richtung Konkurrenz treibt.

Edit:
http://geizhals.de/?cat=tvlcd&xf=34_3840x2160~122_HDMI+2.0#xf_top

231 Modelle Stand heute ab 420€, quasi bereits Standard.
 
Zuletzt bearbeitet:
Über das fehlende HDMI 2.0 kann ich hinwegsehen da ich es persönlich nicht nutze aber die 4GB Vram sind immernoch ärgerlich :/ und das weniger weil es "zu wenig" sein könnten sondern einfach weil die 390(x)er bereits mit 8gb daherkommen und es einfach unschön aussieht wenn das Top Modell nur halb so viel vorweisen kann oder gleichviel wie das knapp 2 Jahre alte Spitzenmodell in form der 290x :(
 
Krautmaster schrieb:
es ging um TVs die seit bereits einem Jahr mit HDMI 2.0 daherkommen und bis Ende des Jahres kaum ein "non 4K" Gerät mehr über den laden gehen dürfte ;)
Die haben idR kein DP1.2...

Sicher, wie gesagt ein kleiner Teil der ohnehin kleinen Zielgruppe, aber halt wieder ein Nadelstich der manchen Käufer Richtung Konkurrenz treibt.

Kann man das des technisch Begründen das das fehlt, hatte das irgendwo gelesen das die bei AMD in den jetzigen Chip nicht einfach so HDMI 2.0 hinzufügen können und es schon im Vorfeld vermutet wurde das das fehlen wird.

Viele TVs aus dem letzten Jahr hatten nur einen Anschluss für HDMI 2.0 aber die aus diesem Jahr und die kommenden werden das schon besitzen und da HDMI für TV Standard ist und man HDMI an einer Graka dann zum Großteil für TV nutzen wird kann man ja schon erwarten das eine Premium Karte das auch bietet.

Hab auch meinen Rechner am TV und deswegen ist es ein Kriterium wenn die Fury X das z.B. nicht hat. Macht dann nicht so viel Sinn die zu kaufen.
Wenn ich einen normalen Monitor hätte würde ich mich auch nicht bei der Auswahl diesbezüglich einschränken aber aus sicht von AMD ist es verschenktes Geld wenn es ohne großen Aufwand gehen würde.
 
bei den 4 Gb seh ich eher das Problem dass diese heute ausreichen, was nicht verwundert da die letzten 2 Jahre die Karten maximal 3-4 GB zu bieten hatten. Jetzt kommt die GTX980 TI & TITAN X, auch die R9 390X und die 290X 8GB sowie die kleinere 390er. Alle >4GB, teils das Doppelte.

Abzusehen dass man, sofern der Markt groß genug ist, die Texturen in den Engines auch wieder weiter pushed damit die Karten mit viel RAM auch was von haben.

Kann noch in 3 Jahren komplett irrelevant sein, kann aber auch nicht. Man weiß es halt nicht... Meine HD6950 2Gb hielt nun 4,5 Jahre (genau wegen dem Vram)... das erwarte ich wenn ich mir ne 700€ Karte irgendwie auch.

@Sinimini

ich kann mir höchstens vorstellen dass noch DP1.2 -> HDMI 2.0 Adapter kommen werden, kenn mich aber nicht groß aus wo die Adapter preislich liegen und kein Plan wieso es das heut noch nicht geben soll.
 
Zuletzt bearbeitet:
Shaav schrieb:
Mir schwahnt Ernürchterndes für die R9 Nano. 175TDP und eine Leistung die einer R9 290x gleichkommt, sowas hat NVIDIA schon seit Herbst letzten Jahres. Dann noch die Selektierung damit dies überhaupt möglich wird...
Ich glaube nicht, dass sich die Nano von der gtx970 hinsichtlich Preis, Leistung sowie Effizienz absetzen kann.

Also bei der Show hieß es noch significant faster than R9 290X. Im Forum stand dann nur noch etwas schneller als die R9 290X. Jetzt ist es schon bei gleich schnell wie die R9 290X :D
Die TDP ist unterhalb der R9 380 bzw R9 285 die eine TDP von ca 190 watt haben sollte. Dazu kommt, dass die Nano immerhin für jene interessant ist, die eine ITX Karte wollen, wobei bei der 970 GTX auch vorhanden.
Die TDP ist bei AMD nicht als Durchschnittswert zu verstehen, aber es zeigt, dass hier wohl noch sogar etwas OC möglich ist, wenn eine R9 285X mit etwas OC von Sapphire auch im ITX Modell gibt.
 
auf den Slides sind doch 175W angegeben wenn ich mich nicht irre. Kommt ja auch hin, etwas schneller als die 290X also etwa stark OC 290X / 390X OC, bei eben 2x Perf W aber halbem Ram.

Wer nicht zwingend ne kompakte vergleichweise sparsame Karte braucht fährt mit der R9 390X 8Gb vllt sogar besser.
 
Bei PCGH gibt es schon (AMD eigene) Benchmarks, welche die Fury X etwas schneller darstellen als die 980Ti in 4k. Das auch beim speicherfresser Herr der Ringe. Natürlich sind Herstellerbenches immer mit Vorsicht zu betrachten, sie haben aber auch die Spezifikationen für die Tests bekannt gegeben. Natürlich ist es auch eine ausgewählte Spieleliste, dennoch zeigt es in etwa die Richtung, in welche Fury X gehen wird.

Zu HDMI 2.0 und DVI ist meine Meinung, dass AMD bereits vor einigen Jahren bekannt gegeben hat, diese Schnittstellen wegen Lizenzen bzw veraltetem Standard zukünftig nicht mehr zu verbauen. Finde ich gut, wenigstens werden die Monitor Hersteller noch mehr zu DP gedrängt.
Ob es bedauerlich ist, dass es kein HDMI 2.0 gibt kann ich nicht beurteilen.
Ich kann mir nicht vorstellen, dass global gesehen UHD/4k bei TV Geräten in absehbarer Zeit groß an Bedeutung gewinnen wird. Dafür sind die Geräte noch zu teuer und vermutlich werden die letzten Käufer gerade mit erschwinglichen FHD TVs eingedeckt. Bis deren Lebenszyklus sein Ende erreicht wird es noch dauern. Die aktuelle Konsolengeneration erreicht gerade mal in einigen Szenarien FHD und der n Lebenszyklus soll ja auch noch einige Jahre gehen.

Also bitte beachtet bei dieser Thematik, dass es zwar für einzelne Personen ein No-Go ist, aber der Massenmarkt noch lange nicht bei 4k angekommen ist und es auch noch länger nicht sein wird.

Außerdem solltet ihr alle beachten, dass wir Mitteleuropäer im Vergleich zum Rest Europas oder Amerika als Technikfetischisten zu betrachten sind, und in anderen Regionen Löhne einfach zu niedrig sind, um auf dem neuesten Techniktrend zu sein.
Für Profispieler zählen sowieso Frames und sonst nichts, vor allem wenn er die Wahl zwischen 4k Monitor/TV oder schneller Grafikkarte hat, weil das Budget nicht mehr her gibt (ausländischer Profigamer)

Fazit: Bevor ihr euch gegenseitig die Schädel einhaut, weil der eine X cool findet und der andere Y, steigt eine Stufe höher und betrachtet das ganze von oben und ihr werdet sehen, dass es neben euren Bedürfnissen noch unzählige andere gibt und alle ihre Daseinsberechtigung haben
 
Zuletzt bearbeitet:
Wieso nur Dx 12_0 und nicht 12_1? Maxwell 2.0 ist nun schon ein dreiviertel Jahr auf den Markt und AMD liegt da schon zurück mit den Featurelevel? Klasse AMD.
 
Zurück
Oben