News AMD Radeon: Support für HDR- und 4K-Displays mit 120 Hz ab 2016

Jesterfox schrieb:
Und selbst wenn.. bei den wenigsten Spielen packen aktuelle High-End Grafikkarten mehr als 30FPS, meistens wird man sie dann doch eher mit FHD ansteuern.

Wobei ichs ja umgekehrt mach... ich steuer meinen FHD TV mit 4k VSR an ;-) FFXIV schafft die Fury X mit etwa 40fps, was für ein MMO reicht. Ich wüsst aber nicht wozu ich wirklich einen 4k TV brauchen sollte...

Bei Spielen ist das einhergehende Tearing ohne Synchronisation bei 30 Hz ein echtes Problem und mit vsync ist es die Eingabeverzögerung.
Aber wie gesagt, das betrifft idR. nur die Spiele Welt.
 
Dan Kirpan schrieb:
Die Fury-X ist schneller als die Titan X in 4K. Also bis jetzt liegt AMD vorne und Nvida hat nichts ordentliches zu bieten.

Was? Nein?! in den Ganzen Balkendiagrammen sind die Grünen immer vorne!!1 Außerdem DX 12_1 und erm einfach besser weil grün :freaky:
[Sarkasmus /Ironie / Troll]

Zerstör doch bitte nicht ganze Weltbilder, in denen eine 980ti / Titan X / Fury X für FHD gekauft und genutzt werden und keiner sich die Verhältnisse bei größeren Auflösungen anschaut. Daraus könnte man schließen, dass man mit einer 390 besser VSR realisieren kann als mit einer 970 DSR, da in höheren Auflösungen mehr Leistung da ist. Das geht doch nicht ;)
Ergänzung ()

fuyuhasugu schrieb:

Ja es ist wichtig, dass der UHD TV 60 Hz oder mehr kann..zum Filme anschauen....mit 30Hz.... aber Hauptsache "Tellerrand" unterstellen :freaky:

Wozu brauchst du mehr als 30Hz, wenn nicht zum spielen?!
 
Das wird wohl auf den DRM Standard HDCP 2.2 bezogen sein, welches die aktuellen Generationen noch nicht unterstützen.
 
Es gibt eine Welt jenseits der Spiele, wo man mehr als 30Hz haben will. Nicht umsonst hat sich dieses Feature zumindest bei HD-tauglichen TVs durchgesetzt. Bei den auf Spiele fixierten Antworten könnte man meinen, im Forum von "PC Games" zu sein.

Und es gibt auch eine Welt jenseits des deutschen Fernsehens, wo echtes also nicht hochskaliertes 4K Standard ist. Und da AMD nun mal nicht explizit für den deutschen Markt entwickelt, ist dies auch von Belang.
 
Zuletzt bearbeitet:
masl_19 schrieb:
Das 4K mietlerweilent Standard ist bezweifele ich.

beim Neukauf schon. Also da muss ich ihm Recht geben. Mit HDMI 2.0 is AMD in der Tat spät dran, da braucht man gar nich umher reden. Problem dabei ist, dass der Display Controller da wohl mit im Chip sitzt und ohne Refresh garkein HDMI 2.0 umsetzbar wäre. Selbes auch bei den 4K VSR Problem bei den GCM 1.1 Modellen.

Klar, das HDMI 2.0 Thema trifft sicher nur eine Randgruppe, bei Karten die defakto aber quasi fast gleich auf Sind wie die Fury X und die GTX 980 TI oder auch anderen Kontrahenten bleibt es nachher an Kleinigkeiten hängen. Darf man nicht überdramatisieren aber es als nichtig abzutun genauso wenig.

Dass AMD Karten, sollte es welche geben. Die haben vielleicht selbst 2016 kein HDMI 2.0.


Edit: @ 60p @ HDMI 2.0
Ich wöllte auch in einem HTPC zb mit Kodi kein ruckelndes 30p Menü in 4k oder zB auch 50p/60p TV Inhalte vielleicht upscaled ausgeben (ohne dabei das Display in der Auflösung umzuschalten). Aktuell brauch ichs nicht, aber wer weiß...

Selbst eine einfache Diashow mit Bildern und leichten Slide und Überblende-Effekten sieht bei 30p deutlich unrunder aus (Diashows am 4K TV sind ja gerade durch die Auflösung der Hammer :)) . Aber nochmal, für den Großteil wird das sicher nicht kauf-entscheidend sein aber für den Großteil sind auch 300€ Grafikkarten bereits 3x zu teuer.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Mit HDMI 2.0 is AMD in der Tat spät dran, da braucht man gar nich umher reden.
+
Krautmaster schrieb:
Klar, das HDMI 2.0 Thema trifft sicher nur eine Randgruppe,

Oh Gott, man ist zu spät dran für eine Randgruppe, sowas furchtbares :freak:
Learn it - HDMI ist kein Argument für eine Desktop-GPU, nur wenn mans auf Bashing anlegt.

Genau so könnte man argumentieren dass Nvidia kein Adaptive Sync kann. Ist auch ein offener Standard. Hulk wütend.

Seit doch einfach froh dass sich was in der Entwicklung tut. Nvidia wird zum Mitziehen gezwungen, damit hast du auch was davon.

mfg,
Max
 
Zuletzt bearbeitet:
Man ist doch froh, analog dazu sagst du ja quasi das sich AMD auch die unnütze HDMI 2.0 Marketing Kacke hätte sparen können, oder?

Dein Problem ist viel eher das, dass es scheinbar deiner Ansicht nach immer erst dann Zeit ist, wenn AMD das Feature bringt. Das gibt mir zu denken >.<

Edit: Stell dir mal die Frage was heute oder selbst Ende 2016 verbreiteter sein wird: 120hz 4K Displays mit DP 1.3 oder 4K Monitore/TVs mit HDMI 2.0.

->Beides wird ne marginale Randgruppe bedienen. Trotzdem wirbt man damit. Trotzdem ist es gut jedes für sich oder beides an Bord zu haben, ganz gleich welche Farbe.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Die Konsolen machen es vor. 900p statt 1080p - dafür aber 50% Pixel gespart und die freigelegte Gameleistung in Effekte stecken - das Gesamtresultat ist besser als zwangsweise 1080p zu fahren.
Nein, ist es nicht. Native Auflösung (oder ein bisschen mehr) geht auf jeden Fall vor die Effekte.
Bevor ich die Auflösung reduziere, nimmt man lieber Schattendetails und so einen Kram weg. Da hat man am Ende mehr von.

Wenn ich auf meinem Notebook was zocke versuche ich auch die 1080p zu fahren auch wenn ich dafür die Details auf minimum reduzieren muss, sieht immer noch besser aus als wenn ich da jetzt 1600x900 einstelle und der Monitor skalieren muss wodurch es hässlich aussieht.
 
gut klar ist dass man nicht in 640x320 zocken wird nur um die Pixel zu reduzieren, aber bleiben wir mal bei einem ~24" UHD Display, da wird FHD mit nativem 4 -> 1 Pixel (also scharfem Scaling) recht gut aussehen (wie auf einem FHD Monitor eben) - aber nur ne Bruchteil der Gaming Leistung brauchen. Bei Konsolen nimmt man die 900p auch nur weil der TV auch zumeist etwas weiter weg ist.

"Bisschen Schatten wegnehmen" dürfte auch nicht den Rechenaufwand-Unterschied machen wie FHD -> 4K.
 
Krautmaster schrieb:
Edit: Stell dir mal die Frage was heute oder selbst Ende 2016 verbreiteter sein wird: 120hz 4K Displays mit DP 1.3 oder 4K Monitore/TVs mit HDMI 2.0.
Das sind 2 komplett verschiedene Märkte. Ich zum Beispiel hab gar keinen Fernseher, dafür inzwischen 4 Monitore. Andere haben wiederum keinen Monitor und damit auch keinen PC - und dafür 10 Fernseher.

Das Lied von den Äpfeln, den Birnen und den Himbeeren.

Du wirst es nicht glauben, aber bis auf 1, 2 Ausnahmen sind TV Geräte einfach nicht für den Dauerbetrieb mit Rechnern geeignet. Windows auf 48" in 4k, viel Spaß damit aus 2 Metern Entfernung.

mfg,
Max
 
Zuletzt bearbeitet:
wir sind uns doch beide einig dass HDMI 2.0 eben für 60p an 4k an einem TV eher in Einzelfällen wirklich kaufentscheidend ist oder zum Einsatz kommt. Da können wir jetzt noch 5 Beispiele suchen wann das vielleicht von Interesse sein könnte (Wer redet bitte von Dauerbetrieb?). In diesen Fällen ist es das, in deinem nicht. Und ich denke diese Fälle des Vorteils von HDMI 2.0 gegenüber 1.4 gibst heute schon genug (ich denke selten als Ersatz für den Monitor, eher ergänzend, zb das Game auf der Couch statt am PC).

Wenn ich mir jetzt nen 4K TV Kaufe (was es beim Kauf definitiv wäre) dann wäre das doch nice mal ne Runde am TV zu zocken, nicht weil ich mit meinem 4K am PC nicht zufrieden wär... einfach weils möglich wär und wieso das ausschlagen?

Die Aussage "AMD ist mit HDMI 2.0 spät dran" hat damit doch rein gar nichts zu tun. Man ist einfach spät dran wenn die Konkurrenz selbiges schon 2 Jahre länger bietet, so einfach ist das. Intel ist mit HDMI 2.0 auch spät dran, die APU von AMD auch. 30p reicht in vielen Fällen auch, genau wie 100PS beim Auto.

Gut möglich, dass Nvidia bei DP 1.3 dann spät dran sein wird... who knows? Wenn es nächstes Jahr heißt Next Gen Nvidia DP1.2 und AMD s Next gen DP 1.3 dann wirst du der letzte sein der DP1.3 für nichtig hält auch wenns vielleicht das ganze Jahre keinen einzigen 120hz 4K Monitor oder überhaupt nen DP 1.3 Monitor geben wird ;)
Und trotzdem wird das dann Pro AMD sein da man vielleicht irgendwann an der GPU einen solchen Monitor betreiben will.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Genial fände ich eher HBM2 in Action zusammen mit 16nm. Beides findet keine Erwähnung.

Es wird nicht erwähnt, weil es nichts Neues wäre. Beim Analyst Day 2015 stand auf der Roadmap für 2016 bei High Performance GPUs folgendes: 2x Performance/Watt Efficiency, FinFet Process Technology, VR/AR Acceleration und 2nd Gen HBM.
 
EchoeZ schrieb:
Peinlich ist nur, was Du hier fürn Fass deswegen aufmachtst. Jeder Technikversierte weiß was gemeint ist, die Daus jammern...
Keine Argumente bringen, aber andere als DAU beschimpfe, das nenn ich mal vorbildliche Argumentation. Was in aller Welt spricht den nun in deinen Augen dafür, dass man sich nicht an den Standard hält?

Zuckerwatte schrieb:
Wie viele Posts regst du dich noch darüber auf, dass einer US Firma die europäischen Standardeinheiten relativ egal sind? Ist doch nicht neu. Man kann sich auch über total belanglosen Mist aufregen ^^
SI sind mitnichten nur ein europäischer Standard, sondern ein internationaler. Und es stört nun einmal, wenn irgendwelche veralteten Nichtstandardeinheiten verwendet werden, da es die Vergleichbarkeit erschwert. Ist das denn jetzt wirklich so sehr schwer zu verstehen?

Die eigentlich wichtigen Dinge im Text: DP , HDMI, Ausbau von Freesync.
Die Dinge werden dann wichtig genug, darüber zu reden wenn sie denn endlich auch wirklich da sind. Momentan sind es nur vage Absichtsmitteilungen und keiner weiß, ob, wann und in welcher Form sie denn auch wirklich kommen. Im Folienmalen war AMD schon immer groß.

Wadenbeisser schrieb:
Mit Firmensitz in Sunnyvale, also den USA.
Jeder internationale Konzern hat irgendwo seinen Hauptsitz, was willst du damit jetzt sagen?
 
jbauer schrieb:
Jeder internationale Konzern hat irgendwo seinen Hauptsitz, was willst du damit jetzt sagen?

Dass Ammis einen feuchten Dreck auf das internationale Einheitensystem geben. Das ändern deine Aussagen genau so wenig wie meine. Trotzdem ist das seit mehreren Posts dein einziger Kritikpunkt der mit dem Thema bzw. dessen Inhalt nichts zu tun hat.

jbauer schrieb:
Die Dinge werden dann wichtig genug, darüber zu reden wenn sie denn endlich auch wirklich da sind.
Nein, das ist falsch. Und da wir hier in nem technischen Forum unterwegs sind, ist es sogar doppelt falsch. Ich will sehr wohl wissen was Hersteller X im Jahr Y plant und evtl. wie Hersteller Z dann arauf reagiert.

mfg,
Max
 
Krautmaster schrieb:
gut klar ist dass man nicht in 640x320 zocken wird nur um die Pixel zu reduzieren, aber bleiben wir mal bei einem ~24" UHD Display, da wird FHD mit nativem 4 -> 1 Pixel (also scharfem Scaling) recht gut aussehen (wie auf einem FHD Monitor eben) - aber nur ne Bruchteil der Gaming Leistung brauchen. Bei Konsolen nimmt man die 900p auch nur weil der TV auch zumeist etwas weiter weg ist.

"Bisschen Schatten wegnehmen" dürfte auch nicht den Rechenaufwand-Unterschied machen wie FHD -> 4K.
Klar 4K da geht das ja auch, genau so wie 900p auf nem Notebook mit 3200x1800 Pixeln geht oder 720p auf 1440p. 1/4-Skalierung ist die einzige sinnvolle und ergibt bei hohen DPI-Werten durchaus Sinn wenn es nicht anders geht.
Aber ich habe schon von Skalierungen gesprochen die sich eben nicht so "schön" umsetzen lassen, das sieht man dann auch. Wobei es in Spielen manch mal noch verkraftbar ist, muss man probieren. Dennoch bringt der Unterschied von 1080p auf 900p meist weniger Mehrleistung als ein paar eher unwichtige Details zu reduzieren.
 
Marcel55 schrieb:
Dennoch bringt der Unterschied von 1080p auf 900p meist weniger Mehrleistung als ein paar eher unwichtige Details zu reduzieren.

Das sehen die wichtigen Publisher und Entwickler von AAA Titeln bei Konsolen wohl anders. Kommt vielleicht auf die Herangehensweise an aber da geht es weniger darum zwanghaft 1080p zu fahren sondern um das Optimum an visueller Darstellung bei vorgegebener Hardware Leistung zu erreichen. Anstatt immer 1080p "bei leicht reduzierten Schatten" zu fahren nimmt man oft genug 900p.

Klar, kommt auf den Titel an.

Ich denk da spielt natürlich auch die Mittlere Distanz zum TV, die durchschnittliche Größe sowie das Mischen mit AA Techniken eine Rolle.
 
Zuletzt bearbeitet:
Man vergisst schnell, das konsolen bereits mit mittleren-hohen settings laufen, der große performance unterschied kommt erst bei aa und very high/ultra settings.
Ich bin zwar immer noch der meinung, dass nativ besser ist (schon wenn ich bei 1440p auch nur 1p runterschalte sieht es bescheiden aus), aber evtl. ist die wahl ja oft low 1080p oder mid-high 900p.

Auch das allgemeine fehlen von details spielt bei größerem sitzabstand keine so große rolle. Da finden es manche entwickler vielleicht besser viele effekte zu haben die nicht so schön sind als wenige schöne effekte, bei denen man den unterschied aber nicht sieht.
 
ja ich mein klar am PC Monitor in 1080p auf 24" würde ich 900p sofort eher negativ sehen. Auf 24" wird aber zb der Unterschied zwischen 1080p + AA und nativen 2080p gerade bei bewegten Bildern erstmal garnicht so riesig sein bzw kann gut sein dass bessere Effekte das wegmachen würden.
Bei 40" seh ich den Unterschied natürlich schon :D
 
Zuckerwatte schrieb:
M für Micro
D für Devices

und nun?
Was das M und D bedeuten, das stand in dieser Diskussion nicht zur Frage. Ich hatte lediglich vermutet (inzwischen bestätigt) dass der Vorposter das A nicht richtig in Erinnerung hatte.

paccoderpster schrieb:
Das wäre ja auch Kibi (Ki).
Ja, das SI-Präfix für 1024 ist Ki. Im Vergleich zu Nits käme neben der nicht SI-konformen Verwendung auch noch eine Mehrdeutigkeit hinzu.

fuyuhasugu schrieb:
4K TV ist mittlerweile Standard,
masl_19 schrieb:
Das 4K mietlerweilent Standard ist bezweifele ich.
max_1234 schrieb:
4K ist von den Marktanteilen bei allen TVs Anfang des Jahres noch unter 50% gewesen.
http://press.ihs.com/press-release/...h-strong-overall-lcd-tv-shipments-slow-ihs-sa
Bei großen TVs (60" und mehr) dürfte 4K inzwischen aber die Nase vorn haben.

Der durchschnittliche TV-Käufer braucht also keine 4K-Grafikkarte, zumindest hat AMD bei der Vorstellung der Fury X so argumentiert. AMDs Problem ist, dass Fury X sich eben nicht an durchschnittliche Käufer richtet.
 
Zurück
Oben