News AMD Radeon: Support für HDR- und 4K-Displays mit 120 Hz ab 2016

Eigentlich geht's grad viel zu schnell mit den ganzen Neuerungen. Man weiß ja gar nicht, wann man sich denn jetzt einen Fernseher kaufen soll... nächstes Jahr einen 4K Fernseher, wenn so langsam die 4K-Filme in großem Stil auf dem (digitalen) Markt angekommen sind? Oder dann doch eher noch warten, und direkt einen 4K Fernseher mit HDR kaufen? Hat der dann auch schon genug Hertz? Und wenn ich mir dann einen raus gesucht habe, stehen plötzlich die 8K Fernsehers kurz vor'm Release.
Und wann kauf ich mir dann v.a. den passenden BluRay-Player dazu? :lol:

Der arme Mensch wird da regelrecht ausgebeutet. Aber nuja, war ja schon immer so ^^
 
Jesterfox schrieb:
Das Y700 Notebook ist mir auch schon aufgefallen, sieht ganz interessant aus, wobei ich eigentlich mehr in Richtung der Elitebooks schiel, aber die sind auch nicht gerade billig...


Mir geht's genau so ... hab mir beide bestellt und werde gegenseitig testen.

Das Y700 dürfte heute angekommen sein, gleich mal schauen.

Das Elitebook 745 G3 ist heute morgen bestellt worden und war auf Status lieferbar.
Mit der Hoffnung das dies auch stimmt.
 
Erzählt keinen. Die neuen Produkte können mehr als die Alten. Hör doch auf!

Wieder so ein wischiewaschie. Sie bauen die erste Gpu mit DisplayPort 1.3.... Die müssen Nvidea gut ausspioniert haben. Hoffe nicht zu gut, sonst habe wir bald ne Fury 2 mit 3,5GB Vram.
Und hört auf davon zu erzählen, die würde sich ihr Geschäft kaputt machen. Entweder der geneigte Käufer kauft die Aktuelle Generation, weil das aktuell beste haben will, oder weil er keine Ahnung hat. Jeder der ein wenig im Markt drin steckt,CB liest oder Ähnliches, der weiß seit einem Jahr das jetzt 14nm kommt(bin übrigens nen Fury Käufer). Das diese wohl ein bisschen besser sein wird steht außer Frage.
Wenn man Hardware kauft, hat man nach einem halben Jahr immer ältern Kram.

Und Weder Amd noch Nvidea können 8k Monitore mit 140Hz ansteuern. Das Problem ist nicht die Gpu Leistung sondern die Limitierende Bandbreiten der Anschlüsse. Es sind Standarts, die brauchen immer länger, bis die verabschiedet werden können. Thunderbolt 3 hat schon lange die Bandbreite von DisplayPort 1.3 nur ist halt kein Standart. Ganz zu schweigen davon, der Gedanke eine Graka zu bauen, die 10Jahre hält. Die Aktionäre von Nvidea und Amd steigen einem dann aufs Dach...
 
Warum muss eigentlich jeder noch so banale Fortschritt irgendeinen komplett irreführenden Marketing-Bullshit-Namen bekommen?

Dieses "High Dynamic Range" ist nichts weiter als:
1. höhere maximale Lichtstärke
2. besserer Schwarzwert
= höherer Kontrast
(Achja, und entsprechend viele Stufen für die Farbdarstellung, damit es am Ende kein Banding gibt.)

Auch hat dieses "HDR" wieder absolut rein gar nichts mit dem HDR in Spielen zu tun.
Und es hat auch nichts mit HDR bei Fotografie zu tun.

Ist auch grundsätzlich nichts neues.
Gibt schon heute VA-Monitore mit sehr hohem Kontrast, sehr guten Schwarzwerten und z.T. höherer Auflösung, was die Farben angeht.
 
Zuletzt bearbeitet:
jbauer schrieb:
Nit? Nie gehört, laut Wiki eine veraltete Einheit. Was ist an cd/m² falsch? Zumal SI-Einheit? AMD muss wohl immer eine Extrawurst braten.

Eine US-amerikanische Firme nutzt auf einer Folie eine im englischsprachigen Raum übliche Bezeichnung. Skandal!

Vorallem weil auf der Folie noch groß "Cd/m² AKA nit" steht

Regst du dich auch immer auf, wenn Displaygrößen (Monitore, Fernseher, Smartphones etc.) in Zoll angegeben werden? Zoll ist schließlich auch keine SI-Einheit.
 
Warum ist das mit FreeSync über HDMI so ein riesen Ding?
Es benötigt sowieso einen Neuen Monitor der dies kann. Sind die HDMI Kabel so extrem viel günstiger?
HDCP2 interessiert doch eh niemanden auf dem PC oder?


jbauer schrieb:
Nit? Nie gehört, laut Wiki eine veraltete Einheit. Was ist an cd/m² falsch? Zumal SI-Einheit? AMD muss wohl immer eine Extrawurst braten.
Erstes Bild im Artikel:
https://pics.computerbase.de/6/9/3/5/6/1-1080.3372122692.png
"cd/m² AKA nit"
Sollte also kein Unterschied machen sondern ist nur eine andere Bezeichnung?

lolololol schrieb:
Wäre schön wenn sie mal schon 8k einbauen würden
Ich wäre gottenfroh drüber wenn der UVD 8k beherrschen würde, dann könnte ich auch meine 5760x1080 in Hardware encoden ~.~
 
UltraWurst schrieb:
Warum muss eigentlich jeder noch so banale Fortschritt irgendeinen komplett irreführenden Marketing-Bullshit-Namen bekommen?

Dieses "High Dynamic Range" ist nichts weiter als:
1. höhere maximale Lichtstärke
2. besserer Schwarzwert
= höherer Kontrast
(Achja, und entsprechend viele Stufen für die Farbdarstellung, damit es am Ende kein Banding gibt.)

Jaein.

Theoretisch hast Du Recht, allerdings setzt das voraus dass sie für jedes Pixel - und damit jede Farbe - die Beleuchtungsstärke ändern können.
Da heutige Monitore aber weder Full-LED noch local dimming backlight nutzen, geht das nichtmal ansatzweise.

Und nachdem heutige IPS-Panels einen Inbildkontrast von ~1000:1 haben, mit vieeel Glück verbaut der Monitorhersteller ein besseres mit ~1200:1 bis 1600:1, fällt das ganze Thema HDR leider raus.

Tja... dabei haben vor fast zehn Jahren die SPVA-Panels schon einen Inbildkontrast von 5000:1 hinbekommen. Aber die Masse kauft ja IPS, weil billiger. Und warum wird es billiger? Weil mit IPS auch abstruse Blickwinkel möglich sind welche man vor dem Monitor niemals eingenommen hat... aber für smartphones + tablets taugt es prima, was dadurch Innovationstreiber sind. Fernseher gehen da schon fast als Abfallprodukt durch.

Praktisches HDR also wie gehabt nur mit Plasma möglich. Und theoretisch, wenn sie mal die Leuchtstärke hinbekommen und die Degradation der Einzelfarben in den Griff bekommen, auch mit OLED.
Andere Technologien gibt es ja derzeit nicht auf dem Markt.
Da fällt mir ein, was ist eigentlich aus Sonys toller Crystal LED-Technologie geworden? Gleichmal nachforschen...
 
Klingt ja soweit alles gut.
Derzeit bin ich erst mal versorgt, das ist auch gut so da das wohl alles noch in den Kinderschuhen steckt...aber, so 4K und 120Hz und HDR für den nächsten Monitor kann ich mir durchaus vorstellen. Jetzt geht ja eh erst mal entweder oder...dann hat man von HDR letztlich mehr als von 120Hz.

Wobei mir 21:9 auch gut gefällt, also nächster Monitor gleich 5K 21:9, 120Hz, HDR?
6880x2880 Pixel, uff...da gibts es einiges zu berechnen. Da muss die verfügbare GPU-Leistung auch um 1000% ansteigen, ohne ein AKW neben den Rechner zu setzen derzeit wohl kaum möglich.
Ach wenn wir schon mal dabei sind: Natürlich OLED. Und unter 1000€. Ich darf wohl warten, hoffentlich nicht zu lange.
 
Naja was bringt mit der 4k Support wenn das Game ruckelt, weil der Grafikbeschleuniger nicht aus dem Knick kommt. Vernünftig wäre ein 50% Leistungssprung zur Vorgänger-Generation.
 
Entschuldigung, aber was ist jetzt die News, das AMD DP 1.3 und eventuell auch mal HDMI 2.0 in 2016 mit an Bord hat. Ich erwarte das bei neuer Hardware, denn der Standard ist ja nun schon lange beschlossen. Alles andere sind doch Features, die Grundsätzlich mit diesem Standard automatisch mitkommen, sonst könnten sie es nicht DP 1.3 nennen. Und der Rest drumherum ist Marketing Bullshit.

Ich schließe mich da meinem Vorredner an, dass es mal eine Zeit gab, in der man Technik kaufen konnte, die noch Reserven hatte. Momentan ist nicht mal 4K objektiv möglich und 8K steht vor der Tür und wir freuen uns, dass wir auch irgendwann die passenden Kabel anschließen können *yippie*

Ich freue mich so oder so auf "neue" Technik ob rot grün oder blau, aber ich hätte lieber einen gut recherchierten Artikel über DP 1.3 und dessen Vorteile gelesen, als so ein AMD Marketing Schreib.

DP 1.3 (übrigens schon in September 2014 verabschiedet) bringt eben...
- HDMI 2.0 Kompatibilität mit HDCP 2.2
- 32,4 Gbit/s Bandbreite, was 5K mit einem Kabel und auch 8K bei 60Hz mit Chroma subsampling 4:2:0 erlaubt <- komisch das AMD dazu schweigt.
- Mehr Bandbreite und bessere Kompression erlaubt eben auch Gimmicks wie HDR (sprich größerer Farbraum).

Das Freesync weiterhin supported wird, war zu erwarten oder? Mich reist das jetzt schlicht nicht vom Hocker, eventuell wenn ich diese News vor einem Jahr gelesen hätte.
 
Zuletzt bearbeitet:
Finde das Lenovo Y500 (FX-8800P & R9 M385X) für 1000 € gar nicht so schlecht :)
Inkl. IPS und FreeSync.

Die Performance von M385X liegt gleichauf mit GTX 960M. Wieso sollte das nicht reichen?
 
Sollten erstmal mit 2,5k klar kommen...
und die displays das unterstützen...

ich hab jetzt schon seit 4+jahre mein 24zoll full hd mit 144hz und es hat sich wenig getan
und dann 2016 wollen sie 4k und 120hz supporten? gibts ja an jeder ecke...

würde nicht so viel rumlabern und machen AMD
 
Sehr nice :daumen:

Jetzt muss nur noch mit dem nächsten GPU-Lineup, Arctic Islands, auch eine gute Performance herausgeholt werden... und die Technik auch gut vermarktet werden.
 
Matzegr schrieb:
Regst du dich auch immer auf, wenn Displaygrößen (Monitore, Fernseher, Smartphones etc.) in Zoll angegeben werden? Zoll ist schließlich auch keine SI-Einheit.

Mich hat das früher durchaus aufgeregt. Sogar ziemlich...inzwischen aber mehr oder weniger daran gewöhnt... Würde aber nichts dagegen haben wenns anstatt in Zoll in mm/cm angegeben würde. Das gleiche gilt für Rohre etc.

"Nit"...total lächerlich...

Und der Support für sowas sollte selbstverständlich sein. AMD verliert bei mir immer mehr Sympathie - was btw schade ist, denn nv bekleckert sich auch nicht gerade mit Ruhm.
 
Eagle-PsyX- schrieb:
Finde das Lenovo Y500 (FX-8800P & R9 M385X) für 1000 € gar nicht so schlecht :)
Inkl. IPS und FreeSync.

Die Performance von M385X liegt gleichauf mit GTX 960M. Wieso sollte das nicht reichen?
GPUs sind gut klar aber die Performance der CPU liegt unterhalb aktueller Intel-ULV-Dual-Core Prozessoren, das ist für ein Gaming-Notebook leider nicht tragbar. Auf Niveau eines i5-6300HQ, welcher ebenfalls 4 Kerne ohne Hyperthreading bietet, sollte es schon sein.

Ich hoffe dass Zen was bringt. Bis dahin bleibt im CPU-Bereich nur Intel, glücklicherweise hat man bei GPUs mehr oder weniger freie Wahl wobei einem die Notebook-Hersteller natürlich in den grünen Bereich zwingen. Ich wünsche mir ein Notebook mit Fiji...
 
Dabei gilt jedoch die Einschränkung, dass Filme nur auf der 2016-Generation laufen werden

Wie darf ich das verstehen in der News?
 
Zuletzt bearbeitet:
cruse schrieb:
"Nit"...total lächerlich...

Und der Support für sowas sollte selbstverständlich sein. AMD verliert bei mir immer mehr Sympathie - was btw schade ist, denn nv bekleckert sich auch nicht gerade mit Ruhm.

Ein amerikanischer Hersteller gibt auf seiner Folie einen Wert in zwei Einheiten an. Ein Redakteur schreibt den im europäischen Raum nicht genutzten Begriff in seinen Artikel. Ein User regt sich darüber auf, dass AMD seine Werte in ihm unbekannten Masseinheiten angibt. Finde deinen Fehler oder schreib besser einfach nichts mehr.

Wieso verliert AMD bei dir an Sympathie? Weil sie marketingtechnisch verlauten, was ihre GPUs beherrschen/neue GPUs beherrschen werden? Sie geben Auskunft über Neuentwicklungen (so wird die 400er Serie höchstwahrscheinlich einige neue Chips besitzen, sonst lassen sich diese Features nicht realisieren) und auch einen Ausblick auf die Neuentwicklungen auf dem Monitormarkt. Meines Erachtens nach ist das auch ein wünschens- und erwähnenswerter Ausblick.

Vielleicht mag der Support "selbstverständlich" sein, dennoch schadet es nicht, diesen auch anzukündigen, oder was siehst du da so anders? Immerhin ist das eine normale, nicht übertriebene Marketingkampagne, die nicht von 10mal schnelleren (2x schneller bei X, 5 mal schneller in Y =! 10x schneller overall) Produkten spricht wie das andere Hersteller machen und dafür gefeiert werden.

@topic:

Immerhin ein Lichtblick im Anbetracht der Monitor-Möglichkeiten. Der technische Fortschritt der Panels ist und bleibt immer noch schwach, aber wenigstens bewegt sich mal wieder etwas. Ich freue mich auch schon auf Greenland/16/14nm. Wobei ich davon ausgehe, dass wir die ersten großen Chips beider Hersteller erst Ende 2016 in Verbindung mit den neuen Monitoren sehen werden.
 
Zuletzt bearbeitet:
Don Kamillentee schrieb:
Ja, alle AMD Basher und nVidia Fanboys kommen aus ihren Gräbern! *popcorn*

Ansonsten. Interessante News, mehr nicht.

Nein, eine eher uninteressante News.
 
An meinem Samsung UE55JU6580 mit meiner MSI GTX 980 Gaming 4G habe ich wunderschöne Farben, die halten auch bestimmt 20 Jahre 4k + 60Hz ich brauch nix anders.

Früher zu Amiga Zeiten mit meiner Röhre, was für Zeiten ihr mit eurem 120Hz und sonst noch so, die Gesellschaft einfach zu verwöhnt heute.
 
Die werden da denke ich keine alten Chips recyclen. Carrizo ist die einige GCN1-GPU, die HDMI2 kann und wird sicherlich auch für DP1.3 vorbereitet sein. Aber alle anderen GPUs haben keinen passenden DC. AMD wird aus den 2 Arctic-GPUs sicherlich 6-7 Produkte zaubern.
 
Zurück
Oben