News AMD Radeon: Support für HDR- und 4K-Displays mit 120 Hz ab 2016

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.927
Hm, wenn alle Grafikkarten in 2016 das können sollen bedeutet das doch das ein komplett neues Line-Up zu erwarten ist (und nicht wie andere orakelt haben nur 2 Chips + Resteverwertung). Ich bin mal gespannt was kommt. Das Y700 Notebook ist mir auch schon aufgefallen, sieht ganz interessant aus, wobei ich eigentlich mehr in Richtung der Elitebooks schiel, aber die sind auch nicht gerade billig...
 
Nit? Nie gehört, laut Wiki eine veraltete Einheit. Was ist an cd/m² falsch? Zumal SI-Einheit? AMD muss wohl immer eine Extrawurst braten.
 
Ist es nicht etwas suboptimal im Vorweihnachtsgeschäft so deutlich zu sagen, wie viel besser die Nachfolgekarten und zukünftige Monitore sein werden?

Oder will man damit Nvidia den Markt kaputtmachen?
 
Irgendwie unverständlich das die Karten nichtmal 4k vernünftig können.
Es gab mal Zeiten da war man froh wenn man ein SVGA (800x600) Monitor hatte und fast jede Graka konnte da schon 1600x1200 bei 60Hz. Wäre schön wenn sie mal schon 8k einbauen würden, diese Monitore wirds nämlich auch bald geben. So teuer kanns doch nicht sein.
 
Spannend spannend spannend :)
 
Ich warte mal etwas ab, hoffentlich kommt bald eine HBM Variante von Nvidia raus.

Ich wollte eigentlich zur gtx 970 wechseln (r9 280x) aber das mit den 3.5GB hat mich davor zurückgehalten.

Möchte spätestens in 2 Monaten eine neue Karte, eine 390 wird knapp wegen dem Verbrauch. Möchte nicht noch ein Netzteil kaufen müssen :(
 
@Jesterfox:
Auch zum Release der 300er-Serie dachte man, dass alle neuen Karten FreeSync-Support haben werden. Aber dem war ja dann doch nicht so. Von daher erstmal abwarten.
 
@ iSight2TheBlind

Paperlaunches dienen rein der Schädigung der Konkurrenz.
Man verkauft nichts, also bläst man in die Öffentlichkeit, was man in 6-12 Monate unterstützen wird. So verkauft man zwar weiterhin kaum etwas, aber man verunsichert den potentiellen nVidia-Käufer.

AMD eben. :evillol:
 
Zuletzt bearbeitet:
jbauer schrieb:
Nit? Nie gehört, laut Wiki eine veraltete Einheit. Was ist an cd/m² falsch? Zumal SI-Einheit? AMD muss wohl immer eine Extrawurst braten.

Das ist nichts eigenständiges oder eine Extrawurst von AMD sondern wurde bis heute noch von vielen Monitor-Hersteller verwendet.
Samsung ist hier ein Fall und ich nehme an, dass AMD wohl mit Samsung sehr eng zusammen arbeitet (sieht man ja bei den Free-Sync Monitoren) und deshalb auch NIT als Einheit genannt wurde.

Btw, Amerika verwendet keine SI-Einheiten, braten die jetzt auch eine Extrawurst ?


Sontin
Der Holzdummy hat sich im Gegensatz zum Paperlunch leider nicht so durchgesetzt, obwohl es bei der GTX 400 Serie sehr vielversprechend war.
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Allerdings hat AMD einen Weg gefunden, High Dynamic Range auch über HDMI 1.4 und DisplayPort 1.2 darzustellen, weshalb auch die Radeon-R9-300-Karten das Feature unterstützen werden.

und damit auch die R9 290er Serie? oder wird das dann softwareseitig verhindert?
 
unsinnige news, hdr und mehr Farben weil es 10bit mitbringt ... gibt schon hundert Jahre 10bit monitor und sogar 12bit. und HDMI Monitore günstiger als dp? im leben nicht. da fallen Lizenzgebühren an und Vater Staat greift bei der einfuhr auch noch mal mehr ab weil der monitor dann als TV gerät durch geht und dafür mehr Gebühren an fallen. zu mal finde ich es lächerlich wenn sich AMD hier über die Zukunft von monitoren äußern will, das können die Hersteller selbst. AMD soll mal lieber die Katze sus dem Sack lassen bzgl GPU.
 
iSight2TheBlind schrieb:
Ist es nicht etwas suboptimal im Vorweihnachtsgeschäft so deutlich zu sagen, wie viel besser die Nachfolgekarten und zukünftige Monitore sein werden?

Oder will man damit Nvidia den Markt kaputtmachen?

ich weiss nicht wie wichtig fuer amd der verkauf von dedizierten Karten ist, auch ist die formulierung komisch die neueren teureren karten von amd koennen das heute ja schon alles, naechstes jahr sofern nicht noch ein erdbeben passiert wird auf jeden fall ein grosses Jahr fuer amd sein 2011 kann man das erste mal wieder mit Intel im cpu bereich konkurieren, daher ist hier die leute zum warten zu bewegen natuerlich positiv, aber klar hier gings um gpus, aber ich denke auch das hier amd das meiste ueber APUs macht, und auch dort ist warten fuer amd eher positiv :)

Ich glaub auch btw nicht das viele % sich durch sowas von nem Weihnachtskauf abbringen lassen, andererseits sagt die aussage AMD hat A Zukunft und B ist technologisch top solche produkte kauft man auch lieber selbst wenns noch die aktuelle Generation ist.

Aehnlich wie es heute standart ist das firmen fake stellenausschreibungen ueberall schalten, weil die Flaechen billiger sind wie normale Firmenwerbeschaltflaechen.

Die Leute denken dann auch, ohh das unternehmen ist erfolgreich, es will und kann wachsen, dannn muessen sie was richtig machen, vielleicht schau ich mir mal deren produkte an.

Ausserdem kann ne Firma nicht nur taktisch kommunizieren auf unmittelbare verkaeufe das ist kurzfristige denke die Leute die dann jetzt kaufen ohne von der neuen gen gewusst zu haben die dann am 5. januar kommt (mal als beispiel) fuehlen sich dann verarscht und kaufen dann vielleicht die naechsten jahre nie mehr was bei amd.
 
Will man sich nen 4k sync monitor kaufen wird mit hdr geteased...
Und wenn ich schon ein jahr warte kann ich dann auch gleich noch eins für 120hz 4k hdr warten, wobei dann wahrscheinlich 8k anfängt zu kommen.

Man kann mir ja wohl nicht sagen, dass die mehr damit verdienen jedes jahr stückchenweise was rauszubringen, so dass man immer auf das neue wartet, als alle +-5 jahre mal wirklich viel neues zu bringen und das auch durchzusetzen.
 
Man darf gespannt sein ob abseits der scheinbar vorhandenen 4k Unterstützung auch Spiele in 4k spielbar werden ;)
 
blackiwid schrieb:
...naechstes jahr sofern nicht noch ein erdbeben passiert wird auf jeden fall ein grosses Jahr fuer amd sein 2011 kann man das erste mal wieder mit Intel im cpu bereich konkurieren...
So sehr es mich auch freuen würde, aber das bezweifle ich doch sehr stark. Vermutlich kommt man für eine Generation mal wieder recht nah dran, danach vergrößert sich die Kluft wieder mit jeder Generation. Ich vermute mal, dass Intel mittlerweile so einiges in der Hinterhand hat, das schön verschlossen gehalten werden kann, bis tatsächlich mal Konkurrenz auftritt.
 
jbauer schrieb:
Nit? Nie gehört, laut Wiki eine veraltete Einheit. Was ist an cd/m² falsch? Zumal SI-Einheit? AMD muss wohl immer eine Extrawurst braten.

Im angelsächsischen hat man es nicht so mit dem metrischen System, da bleibt man lieber weiter bei ar*cha*ischen Einheiten.
 
Hallo,

HDR Monitore schön und gut. Aber mit derzeitigen LCD Panels unmöglich. Da muß mindestens OLED kommen, wegen Schwarzwert.

Anderseits weis man, wenn man sich mit HDR beschäftigt, dass es hauptsächlich auf das Bildmaterial ankommt, weniger auf den Monitor. Dazu sollte man sich bewußt werden wie das Auge funktioniert und was für ein Bruchtteil der Kontrastunterschiede eine Kamera in einem Moment aufnehmen kann.

Rein die Änderung des Bildmaterials erfordert noch mehr Daten. Vielleicht kann man auch ganz billig im Monitor/TV den Kontrast künstlich neu berechnen und damit anheben. Nur ganz ohne Zusatzinformationen wird auch das nicht gelingen.

Mehr Farben als jetzt aktuell möglich benötigt man laut meiner Meinung auch nicht. Man muß sie nur richtig ausnutzen um davon mehr gleichzeitig darzustellen. Billige 8 Bit Panels gehören damit schon in die Tonne.
 
pipip schrieb:
Das ist nichts eigenständiges oder eine Extrawurst von AMD sondern wurde bis heute noch von vielen Monitor-Hersteller verwendet.
Samsung ist hier ein Fall
Also noch einmal:
cd/m²: SI-Einheit, internationaler Standard
nit: veraltet, sollte man nicht mehr verwenden, ist ok, wenn man sich ein pint bestellt (also im privaten, aber auch da sollte man es vermeiden), aber bei technischem nutzt man SI-Einheiten, egal ob das Samsung jetzt in den USA auch so macht oder nicht. AMD brät sich hier halt mal wieder eine Extrawurst.

Btw, Amerika verwendet keine SI-Einheiten, braten die jetzt auch eine Extrawurst ?
Extrawurst bleibt Extrawurst, auch in den USA (Ich gehe mal davon aus, dass du mit Amerika die USA meinst). Was man davon hat, wenn man sich nicht an den Standard hält:
https://de.wikipedia.org/wiki/Mars_Climate_Orbiter
 
Zurück
Oben