News AMD Radeon R9: Fury X kostet 649 US-Dollar und ist ab 24. Juni erhältlich

ichmich2000 schrieb:
Wer hat einen richtigen 4k-TV im Wohnzimmer mit HDMI2? Ich kenne niemanden.

Am PC kannst du Displayport für >30 Hz nehmen. Das sollte ein ordentlicher 4k-Monitor ohnehin haben.

Es gibt z.Z.mehr "echte" UHD TVs mit 60Hz und (leider) Hdmi 2.0 als "echte" 4k Monitore. Wie schon geschrieben gibt es genau 7 Monitore die 32 Zoll oder größer sind wobei der billigste bei ~700 € anfängt.

Bei UHD-TVs mit Hdmi 2.0 und 60Hz sieht das ganze schon anders aus. Da bekommt man schon recht brauchbare 50 Zöller für unter 500€. Leider ist hier der (Billigstandard) Hdmi 2.0. UHD-TVs mit DP fangen bei 1000€+ an...

Und DP->Hdmi 2.0 Adaper gibt es nicht.

Deswegen ist das fehlen von Hdmi 2.0 bei den Karten ein NoGo...
 
Kann ein hardwarebasierender H.265 Decoder eigentlich so bleiben wie er ist, während sich die H.265-Encoder-Software immer in Entwicklung ist, so wie bei H.264 auch?
 
Teralios schrieb:
Nun, da wollen wir aber dann fair seinen:

HDMI2.0 können alle Grafikkarten der 9x0-Serie, jedoch nicht durchgängig HDCP2.2. Das kann nämlich nur der GM206 und damit nur die 960er.

Selbst mit der aktuellen 980Ti oder sogar Titan X ist es also nichts mit 4k-BluRays. ;)

Das ist natürlich richtig. Danke für diese Ergänzung (auch @ pipip)!

Ich wollte mich auch keineswegs in das Markenbashing hier einreihen. Es ging mir mehr darum aufzuzeigen, daß die aktuellen Top-Karten beider (!) Hersteller schon heute im Prinzip kaum noch einen Puffer für zukünftige Spiele haben. Ein Geheimnis ist es auch nicht gerade wie schnell Spiele anspruchsvoller werden und bei voller Detailstufe wird es nächstes Jahr wohl öfter ruckeln - trotz sogenannter 4K-Karte. Aus diesem Zusammenhang heraus erscheinen (zumindest mir) 700+ EUR, egal ob die an AMD oder Nvidia gehen, ziemlich gepfeffert.
 
ichmich2000 schrieb:
Wie viele 4k-Bluray-Player gibt es schon, wie viele 4k-Blurays? Wer hat einen richtigen 4k-TV im Wohnzimmer mit HDMI2? Ich kenne niemanden.

also ich kenne keinen der sich zu Zeit keinen HDMI 2.0 TV kauft sofern er einen TV kauft. Gerade die R9 NANO würde sich ja für anbieten an einem TV zu betreiben, im High Performance HTPC. :-/
Ein weiterer unschöner Fleck, neben 4Gb VRam, fehlendem DVI usw.
 
Schaby schrieb:
Es gibt z.Z.mehr "echte" UHD TVs mit 60Hz und (leider) Hdmi 2.0 als "echte" 4k Monitore. Wie schon geschrieben gibt es genau 7 Monitore die 32 Zoll oder größer sind wobei der billigste bei ~700 € anfängt.

Bei UHD-TVs mit Hdmi 2.0 und 60Hz sieht das ganze schon anders aus. Da bekommt man schon recht brauchbare 50 Zöller für unter 500€. Leider ist hier der (Billigstandard) Hdmi 2.0. UHD-TVs mit DP fangen bei 1000€+ an...

Und DP->Hdmi 2.0 Adaper gibt es nicht.

Deswegen ist das fehlen von Hdmi 2.0 bei den Karten ein NoGo...

Aber unterstützen jene TV Geräte auch den angesprochenen HDCP 2.2 Standard?
Wenn nicht und UHD Filme es erforderlich machen bringt dir auch HDMI 2.0 nichts weil du die Filme nicht abspielen kannst. Zudem scheint die 60 Hertz Übertragung auch noch optional zu sein.
http://www.chip.de/artikel/UHD-Probleme-Neue-Standards-HDMI-2.0-und-HDCP-2.2_64514108.html

Das Thema ist einfach nur ein Krampf....
 
Krautmaster schrieb:
...Ein weiterer unschöner Fleck, neben 4Gb VRam, fehlendem DVI usw.

DVI-Anschlüssse an einer Karte sind für mich ein No-Go. Die sehen immer so schnell abgenutzt aus. Dafür soll man einen Adapter verwenden. Bitte führe "usw." aus. Möchte alle Kritikpunkte wissen.
 
Wie ich das von der CES damals mitbekommen hatte, werden alle TV-Modelle dann auch HDCP 2.2 unterstützten. Jedenfalls war das so angekündigt/verlautbart worden. Bei älteren TVs ist die Situation natürlich nicht so klar, da kommt es wohl auf den Einzelfall an, weil der Kopierschutz nicht softwareseitig nachgerüstet werden kann, sondern entsprechende Chips erfordert.
 
sauter schrieb:
DVI-Anschlüssse an einer Karte sind für mich ein No-Go. Die sehen immer so schnell abgenutzt aus. Dafür soll man einen Adapter verwenden. Bitte führe "usw." aus. Möchte alle Kritikpunkte wissen.

Kritikpunkte bisher:

fehlendes HDMI 2.0
fehlende DIV
fehlendes X265 / HEVC
(das das beides problemlos geht zeigt die Konkurrenz)
4GB VRAM (stört aktuell am meisten)
Für GCN hoher Basistakt = vermutlich trotz AIO weniger gutes OC Potential aber wird man sehn

Gut:
Referenzkühlung (mir juck da Wakü)
Kartenlänge (mir juck da Platz)
vermutlich gutes P/L bezogen auf die Leistung

Neutral:
Stromverbrauch (gut wenn idle und Dualhead sparsam... Last is mir egal)

aber so genau leg ich mich da vor dem Review gar nicht fest. Was ich bisher gesehen hab ernüchtert mich eher als mich euphorisch zu stimmen wenn ich ehrlich bin... Fiji mit 8 GB am besten vor 2 Monaten... das wäre was gewesen.
 
Zuletzt bearbeitet:
@PolarSun
Nun ja, wenn ich mir die 4K TV Geräte bei Geizhals so anschaue dann scheint da noch nicht einmal HDMI 2.9 bei allen Geräten vorhanden zu sein.
Lediglich 107 der 137 Geräte scheinen die Schnittstelle zu besitzen, weshalb ich auch mit der Annahme vorsichtig wäre das alle HDCP 2.2 besitzen würden.
http://geizhals.at/?cat=tvlcd&xf=34_3840x2160#xf_top

Schweigt sich der Hersteller dazu aus würde ich davon ausgehen dass es das Gerät nicht beherrscht.

Aber immerhin ist ein Gerät mit DisplayPort gelistet. :lol:
 
Danke, für die kommenden technologien betreffend 4k-BluRays sollte man besser eine günstige 2. Grafikkarte/Mainboard kaufen (sofern Platz vorhanden).
 
Ich bin mit der Ausbeute völlig zu frieden falls die r9 fury nano preislich gut gelegen ist, werde ich sie mir holen.
Sonst finde ich die r9 380 passend.
 
Krautmaster schrieb:
quasi jeder HDMI 2.0 TV sollte HDCP 2.2 unterstützen.

das problem liegt bei sollte. HDMI2 muss nicht mit HDCP2.2 "ausgestattet" sein. Daher gehe eher mal davon aus,steht davon nicht explizit was dabei, wird es eher nicht der fall sein.

gruß
 
Wadenbeisser schrieb:
@PolarSun
Nun ja, wenn ich mir die 4K TV Geräte bei Geizhals so anschaue dann scheint da noch nicht einmal HDMI 2.9 bei allen Geräten vorhanden zu sein.

Da hast Du vollkommen recht, es gibt natürlich einige Geräte, die schon länger am Markt sind. Wegen des neuen Kopierschutzes tappten wir ja einfach lange im Dunkeln, aber nachdem die vorherige Version geknackt wurde, war es nur logisch, daß zukünftig wieder eine sichereres Verfahren vorgeschrieben würde. Die Situation hat sich ja wirklich erst bei der CES geklärt, also im Januar und dort haben die TV-Hersteller auch für alle kommenden Modelle HDMI 2.0 und HDCP 2.2 bestätigt. Aber momentan sollten Interessenten, die in diese Richtung planen, die Augen beim Einkauf offen halten.

Wer bereit ein Gerät besitzt? - Tja, kann man Glück haben oder eben nicht - das ist halt das Risiko der Early Adopters.
 
Krautmaster schrieb:
Eventuell ist Fiji auch schon fast so alt wie Hawaii (Tapeout usw).

"Alt" schon, nur ganz so alt nun auch wieder nicht. ;) Wobei der Tape-out deutlich vor den Maxwell-Karten lag. Fiji ist wie Tonga ne Karte mit GCN 1.2, dementsprechend alt ist der Chip auch. Tape-out frühestens Mitte 2013, Tape-out der GCN 1.1 Karten wie Bonaire/Hawaii war Mitte 2012.
 
jk1895 schrieb:
619 Kommentare! Was gibt es da so viel zu diskutieren?!
Leute! Habt ihr sonst keine Sorgen? :rolleyes:
Total verkehrt die Welt...

Naja du befindest dich in einem Hardware Forum ,was erwartest du sonst hier ?
Für viele wie auch mich sind neue GPUs interessant.

Die Fury non X werde ich mir mal genau anschauen und vllt. damit aufrüsten .
Nur der Verbrauch gefällt mir garnicht .
Ansonsten lohnt es sich wohl am meisten auf die neue Generation in 14/16nm zu warten .
Mehr Leistung bei weniger Verbrauch
Da finde ich die Nano echt mal nice .

Wenn die Waserkühlung gut wird , wäre das echt mal ein Fortschritt für die AMD referenz Karten .
 
@PolarSun
Das Problem ist aber auch das es für die 4K Videos keinen passenden Datenträger und damit auch keinen Player gibt, bestenfalls wird das Video auf die Kapazität der normalen Blu-Ray zusammengestaucht, was mit Sicherheit nicht ohne Verlußte passiert.
Solange es aber keine Datenträger und damit auch keinen passenden Player gibt ist es aber auch sinnlos auf HDCP 2.2 zu bestehen. Was ist wenn für den letztendlichen Standard ein anderer DRM Standard genutzt wird? Alles wieder für die Katz...
 
Zurück
Oben