News AMD Radeon: R9 390X mit Hawaii und 8 GB GDDR5, Fiji mit neuem Namen

Vor nicht allzu langer Zeit war nun mal eine Auflösung von 1080p der absolute Mainstream.
Die ist immer noch Mainstream und wird es auch auf längere Zeit bleiben. Man bekommt hier im Forum den Eindruck, jeder dritte User hat 'ne Titan X und zockt in 4k, dabei sind das auf die breite Masse gesehen nur ein paar wenige Nerds die sich hier sammeln.

4k ist eigentlich nur ein Marketing Gag. Ist klar, dass diese Auflösung von den Herstellern angepriesen wird, irgend wie muss die vielfache Leistung am PC ggü. den Konsolen ja verbraten werden, wenn man den Leuten High End Karten verkaufen will. Den optischen Nutzen musst du aber mit der Lupe suchen und steht in keinem Verhältnis zum Aufwand.
 
Doc Foster schrieb:
Wenn das so ist, wären Belege in Form von Verkaufszahlen nicht schlecht.

Kannst auf Mindfactory dir selbst anschauen. Ist zwar nur über deren Shop und recht grob aber ein Anhaltspunkt was so läuft und was nicht unter den Selbstbauern.
 
Das muss ja letztendlich jeder für sich selbst entscheiden. Für mich ist 1080p und 2160p ein riesen Unterschied in Sachen Detail.
Hmm, schade. Eigentlich dachte ich, dieses Forum wäre für PC-Nerds. Wie gesagt, selbst eine Titan X genügt nicht.
Ein Marketing Gag? Achso, genau so wie 1080p und früher 480p ? Interessant.
Für mich ist das einfach ein Fortschritt und die Augen könnten noch einiges mehr ab.
Natürlich nutzt die Mehrheit 1080p, aber dafür meist auch mit mehreren Monitoren und irgendwann geht es eben in höhere Richtungen.


Sieht für mich so aus, als hättest du selbst noch nie einen UHD Monitor besessen. Der Nutzen steht in jedem Falle in Verhältnis zum Aufwand, nur leider ist der technische Fortschritt noch nicht soweit. Aber höhere Auflösungen sind eindeutig die Zukunft. Sonst wären wir ja heute noch auf 640x480 unterwegs. Dass es momentan unsinnig ist, habe ich ja selbst angeführt.
 
ToniMacaroni schrieb:
4k ist eigentlich nur ein Marketing Gag. Ist klar, dass diese Auflösung von den Herstellern angepriesen wird, irgend wie muss die vielfache Leistung am PC ggü. den Konsolen ja verbraten werden, wenn man den Leuten High End Karten verkaufen will. Den optischen Nutzen musst du aber mit der Lupe suchen und steht in keinem Verhältnis zum Aufwand.

Genau -und zwar GANZ GENAU- so sieht es nämlich aus :) . Das Bild wird mit viel Einbildung in 4K minimal schärfer, aber sieht dafür auch deutlich unnatürlicher aus (vergleichbar mit diesen komischen 200/400/800Hz Modi bei TVs, wo dann alles recht künstlich ausschaut).
Ich sehe für 4K Fernseher ab 40"+ einen echten Sinn, da die Diagonalen viel größer sind und die Auflösung sich besser "verteilen" kann.
Aber am normalen Schreibtisch, wo man 50cm bis 80cm vom Bildschirm wegsitzt und riesige Diagonalen keinen Sinn machen (mein 32" ist schon grenzwertig... habe zum Glück einen recht tiefen Schreibtisch), was will man da mit 4K? Das ist genauso überflüssig wie die Mörderauflösungen irgendwelcher "Retina"-Displays bei mobilen Geräten. Braucht kein Mensch.
Am PC könnte "4K" höchstens im Bereich VR noch mal richtig interessant werden, denn da muss ja pro Auge gerendert werden, so dass 4K im Grunde 1080p pro Auge entspricht, was auf jeden Fall zur Vermeidung des Drahtgittereffekts erstrebenswert ist.
Aber sonst ist das reiner Firlefanz. Sicher werden sich 4K Displays mit der Zeit durchsetzen, da nix anderes mehr produziert wird, aber eine wirkliche Notwendigkeit zu höheren Auflösungen ist bei den am Desktop üblichen Display-Diagonalen und Sitzabständen mitnichten gegeben.

Aber höhere Auflösungen sind eindeutig die Zukunft. Sonst wären wir ja heute noch auf 640x480 unterwegs

Leider ein unsinniger Einwurf. Zu Zeiten solcher Auflösungen ging erstens rein technisch von Seite des Bilderzeugers (von "Grafikkarte" kann man ja bei VESA Local Bus nicht wirklich sprechen) nicht mehr und waren zweitens die Bildschirme um ein Vielfaches kleiner.
Die Auflösungen sind im Laufe der Zeit mit den Diagonalen gewachsen. Ab einem gewissen Punkt hört es aber auf Sinn zu machen die Diagonalen zu erhöhen und die Erhöhung der Auflösung bringt irgendwann auch nix mehr.
Ich würde sagen wir sind am Desktop jetzt an dem Punkt angelangt, wo noch größere Diagonalen nicht mehr viel Sinn machen. Viele Leute haben gar nicht den Platz oder den Sitzabstand, um sich sinnvoll einen 30"+ Monitor anschaffen zu können. Am typischen Durchschnittsarbeitsplatz/Schreibtisch dürften so 24" bis max 27" im sinnvollen Bereich liegen ohne in die Ecken schielen zu müssen. In diesem Bereich ist 1080p/1440p völlig ausreichend und eine Erhöhung der Auflösung nicht mehr wirklich sinnvoll.
Wie gesagt wird sich 4K bestimmt im Laufe der nächsten Jahre durchsetzen, da die Produktion umgestellt wird und es irgendwann nix anderes mehr gibt, aber das wird noch dauern, da es keinerlei derart eklatanten Vorteile von 4K gibt, dass die Leute jetzt ihre alten Screens wegwerfen und in die Läden rennen müssten.

... und AMD hat weit aus mehr Lizenzen auf die Intel angewiesen ist, als den Kunden bekannt. Hier fällt spontan gerade mal X86 ein.

Soso. Die x86 Lizenz liegt also bei AMD. Interessant! :D

Vielleicht mal das hier lesen inklusive der Fußnote Nr. 83. Du meintest vermutlich x86-64, was aber nur eine Erweiterung der Intel x86 Architektur ist. Um diese Erweiterung entwickeln zu können, musste AMD also erst mal die Lizenz haben überhaupt an x86 "rumfummeln" und irgendwas erweitern zu dürfen.
Aber ist schon süß wie manche Fanboys sich zurechtträumen, dass AMD ja eigentlich Intel am ausgestreckten Arm verhungern lassen könnte :p .
 
Zuletzt bearbeitet von einem Moderator:
Aus welchem Grund soll das denn künstlich aussehen? Es sind einfach nur mehr Pixel vorhanden, somit genau wie von 480p auf 720p und von da auf 900 bzw. 1080p eine detailreichere Textur möglich. Natürlich muss man - um das zu merken - schon aktuelle Titel mit hochauflösenden Texturen antesten, ansonsten kann man selbstverständlich keinen Unterschied feststellen.

Der Unterschied von 1080p ( 2 Mio. Pixel ) auf 2160p bzw. 4k ( 8,3 Mio. Pixel ) ist immens.

Alles sieht weitaus weniger verschwommen, klarer und realistischer aus. Aber um sich das klar zu machen, muss man das mit einem derartigen Monitor ausprobieren.

Natürlich sind die "Retina" Auflösungen bei Apple totaler Murks, allerdings auch nur, weil sie nicht einmal ansatzweise die nötige Hardware verbaut haben.

Tja, euch ist wirklich nicht mehr zu helfen, dass ihr selbst mit so einem Monitor kaum einen Unterschied feststellen könnt.
Ich bin jedenfalls mehr als zufrieden mit der Auflösung und würde sogar nichts gegen die noch einmal vierfache Auflösung haben. Irgendwo dort müsste dann die Grenze zwischen erkennbar - und nicht erkennbar, je nach Größe des Monitors liegen.

Ob es aktuell(!) Sinn macht oder nicht, ist immer noch eine ganz andere Frage, aber es ist im jeden Falle ein großer Fortschritt in Sachen Grafik & Realismus.

Aber darum sollte es hier eigentlich auch nicht gehen. Von mir aus probierts selber aus und entscheidet das für euch, aber ich kann es nicht nachvollziehen, wie man mehr Detail und schönere Grafik verpöhnt.
 
Wenn das so ein großer Fortschritt ist wie Du sagst, dann frage ich mich, warum die Leute den Händlern nicht die Bude einrennen, um sich ein 4K Display zu kaufen? Die sind doch jetzt schon eine ganze Weile am Markt. Da müsste sich der angeblich so große Fortschritt doch mittlerweile rumgesprochen haben? Aber gemäß Steam Hardware Survey sind Stand April 2015 exakt 0,06% der teilnehmenden User in 4K unterwegs. Selbst 1440p ist nur mit rund 1% vertreten. Insgesamt nutzen nur knapp über 3% der User eine Auflösung höher als FullHD und damit ca. 97% eine Auflösung unterhalb davon. So durchschlagend scheinen die 4K Vorteile also nicht zu sein...
 
Ganz einfach, weil das nötige "Kleingeld" und auch insgesamt die nötige Hardware dafür noch lange fehlt.
Wenige normale Endnutzer haben mal eben so 500€ + für ein nötiges Display, bzw. 3000+ für ein nötiges System..

Das ist nun einmal so. 1080p Displays bekommt man für 120€. Relativ gute PCs für 500-600€.
Es ist eben noch lange hin, bis man es sich leisten kann.
 
Aber es hat doch laut Dir so große Vorteile und da könnte man doch ruhig gewillt sein mehr Geld auszugeben, wenn das so ein Nacht vs. Tag Unterschied ist, wie Du sagst (*stichel* *stichel*) :) .
 
DmC schrieb:
Der Unterschied von 1080p ( 2 Mio. Pixel ) auf 2160p bzw. 4k ( 8,3 Mio. Pixel ) ist immens.

Alles sieht weitaus weniger verschwommen, klarer und realistischer aus. Aber um sich das klar zu machen, muss man das mit einem derartigen Monitor ausprobieren.

So einfach ist das nicht. Es kommt auf die Pixeldichte an und nicht auf die Auflösung. Würde sogar behaupten die meisten Smartphones haben eine höhere Pixeldichte als 4k Monitore.

Erst wenn die Pixeldichte zunimmt, wird es auch schärfer. Ist der Monitor größer, aber die Pixeldichte die Gleiche, dann siehst du nur mehr.


Edit: Wollte das nur mal klarstellen, denn alle reden immer von Auflösungen. 20 Zoll in FULL HD ist genauso scharf wie 40 Zoll in 4K.
 
Zuletzt bearbeitet:
Fried_Knight schrieb:
Und inwieweit hast du dich mit dem Inhalt der Arbeit befasst? Ist das aus der Mode?
Mehr als du. Wir können gerne per PM darüber diskutieren, da das Thema abseits des hiesigen Threads steht (aber erst heute Nachmittag).
 
asterix_gvb schrieb:
Ich würde sagen das Foto ist ein FAKE.

Beim Asus Forum gibt es keinerlei Eintrag, weder im Cache von den Suchmaschinen noch sonst wo und die genannt Quelle hat auch kein Foto also woher kommt diese News? Aus dem Photoshop? Wäre in 4-5 Minuten erledigt.

Vielleicht ist es auch eine OEM-Karte, davon wurde schon berichtet(kompletter 2xx Refresh).
Quelle: http://www.heise.de/newsticker/meld...Radeon-GPUs-fuer-Komplettsysteme-2637968.html
https://www.computerbase.de/news/gr...rafikkarten-fuer-den-oem-markt-sind-da.49387/
Ja, ein anderer Nutzer hat sowohl einen Testscreenshot als auch einen Testlink zur Asusseite erstellt, um zu zeigen, dass die Manipulation überhaupt kein Problem ist (irgendwo vorn in diesem Thread ;-) ).

Otsy schrieb:
Topic: Was sind denn nun die anderen Quellen?
Es wäre schön, wenn CB hier im Thread oder in der News dazu Stellung nehmen würde.
 
@simons700

Kannst du mir bitte erklären, warum das so viel Mist ist?

Ich habe mich ehrlich gesagt nie großartig mit der Materie beschäftigt, aber Crax Argumentation hört sich sehr schlüssig an.

Wenn ich bspw. die Displays eines Galaxy S3/Nexus 4 bzw. Sony Z1c miteinander vergleiche, gewinnt in punkto Schärfe immer das Sony.

Ich gehe davon aus, dass dies an den verhältnismäßig hohen DPI im Vergleich zu den anderen Geräten liegt, und Crax somit recht hat.

Ich lasse mich aber gerne eines besseren belehren.

Gruss,
Frink
 
simons700 schrieb:
Selten so viel Mist gelesen...

Genauso ist es aber. Es kommt auf die PPI an wie "scharf" das Bild ist. Hohe Pixeldichte = besseres Bild. Wenn der Monitor größer wird und die Auflösung gleich bleibt, wird die dichte niedriger und somit das Bild schlechter.
 
Frink schrieb:
@simons700

Kannst du mir bitte erklären, warum das so viel Mist ist?

Ich habe mich ehrlich gesagt nie großartig mit der Materie beschäftigt, aber Crax Argumentation hört sich sehr schlüssig an.

Wenn ich bspw. die Displays eines Galaxy S3/Nexus 4 bzw. Sony Z1c miteinander vergleiche, gewinnt in punkto Schärfe immer das Sony.

Ich gehe davon aus, dass dies an den verhältnismäßig hohen DPI im Vergleich zu den anderen Geräten liegt, und Crax somit recht hat.

Ich lasse mich aber gerne eines besseren belehren.

Gruss,
Frink
simons700 hat recht, es ist wirklich Mist.
Die Auflösung ist Prio 1.
Pixeldichte kannst Du auch als "Schärfe" umschreiben. Auflösung kostet Rechenleistung.
1080p hat 2,07 Mio Pixel, der Sprung auf 1440p bedeutet schon 3,68 Mio Pixel.

DIese 77 % mehr Pixel nativ bedeuten aber auch, dass man 77 % mehr darstellen kann.
Und nun sag mir, kannst DU auf 27 Zoll besser spielen oder auf einem retina-Phone bei sagen wir 70 cm Abstand ;-)


EDIT: Ich glaube, wir meinen alle irgendwie dasselbe aber reden aneinander vorbei ^^
 
Zuletzt bearbeitet:
Frink schrieb:
@simons700

Kannst du mir bitte erklären, warum das so viel Mist ist?

Ich habe mich ehrlich gesagt nie großartig mit der Materie beschäftigt, aber Crax Argumentation hört sich sehr schlüssig an.

Wenn ich bspw. die Displays eines Galaxy S3/Nexus 4 bzw. Sony Z1c miteinander vergleiche, gewinnt in punkto Schärfe immer das Sony.

Ich gehe davon aus, dass dies an den verhältnismäßig hohen DPI im Vergleich zu den anderen Geräten liegt, und Crax somit recht hat.

Ich lasse mich aber gerne eines besseren belehren.

Gruss,
Frink

Also erstmal dieser Satz:

"Würde sogar behaupten die meisten Smartphones haben eine höhere Pixeldichte als 4k Monitore"

Das kann man wohl SOGAR behaupten wenn aktuelle Smartphones schon 1440p Displays mit 5 Zoll Diagonale verbaut haben.

Und dann zum eigentlichen Thema:
Das Bild auf einem kleinen 1080p Monitor ist nicht schärfer als auf einem großen 4K Monitor, es ist sogar deutlich weniger scharf.
Selbst wenn der 4K Monitor 100 Zoll hätte würde er ein schärferes Bild anzeigen, weil er aufgrund seiner höheren Auflösung einfach mehr Details (Informationen) darstellt.
Ja wenn man 20cm vor einem 100" 4K Monitor steht würde man Pixel sehen, aber das liegt nur daran dass man das eigentliche Bild ja dann sozusagen mit einem riesigen Zoomafaktor betrachtet wohingegen man das Bild auf einem kleinen 1080p Monitor ja immer "aus großer Entfernung" sieht, weil man gar nicht so weit „hinein Zoomen" kann.
Wenn du vor einer Plakatwand stehst erscheint dir das 100MP Foto darauf auch weniger scharf als das 8MP Foto auf deinem Smartphone Display, aber für einen fairen Vergleich müsste dein Smartphone so groß sein wie ein Haus!
 
Zuletzt bearbeitet:
@simons700

Die Frage ist doch, was klein und groß ist.

1920 * 1080 @ 23" = ~96ppi
4096 * 2304 @ 23" = ~204ppi

4096 * 2304 @ 60" = ~78ppi

Die Pixeldichte ist mess- und berechenbar, aber natürlich nicht der einzige Faktor für die subjektive Schärfe eines Displays.
 
simons700 schrieb:
Und dann zum eigentlichen Thema:
Das Bild auf einem kleinen 1080p Monitor ist nicht schärfer als auf einem großen 4K Monitor, es ist sogar deutlich weniger scharf.
Selbst wenn der 4K Monitor 100 Zoll hätte würde er ein schärferes Bild anzeigen, weil er aufgrund seiner höheren Auflösung einfach mehr Details (Informationen) darstellt.

Ich glaube, Du hast noch nicht ganz begriffen, was es mit der Pixeldichte auf sich hat und noch viel weniger weisst Du, was das Wort "Bildschärfe" überhaupt bedeutet...

Klar KANN ein Bild mit 4K mehr Informationen enthalten, aber auch nur, wenn die Grafikengine das auch zulässt. Sind die Texturen bspw. auf FullHD ausgelegt, siehst Du aber mit 4K nicht einfach plötzlich mehr. Und die Pixeldichte bleibt ein wichtiges Argument: 4K auf 40 Zoll entsprechen 110ppi, das ist EXAKT derselbe Wert wie bei FullHD und 20 Zoll. Jetzt erklär mir doch mal, wie ein Bildschirm mehr Informationen darstellen kann, wenn er pro Fläche exakt dieselbe Anzahl Pixel darstellen kann? :freak:

simons700 schrieb:
Wenn du vor einer Plakatwand stehst erscheint dir das 100MP Foto darauf auch weniger scharf als das 8MP Foto auf deinem Smartphone Display, aber für einen fairen Vergleich müsste dein Smartphone so groß sein wie ein Haus!

Hier widersprichst Du Dir gleich selber. Wie kann ein 100MP Foto auf einer Plakatwand "weniger scharf" sein als ein 8MP Foto auf dem Smartphonedisplay, aber gleichzeitig ist ein 4K Monitor in jedem Fall schärfer als ein FullHD Monitor? Das 100MP (etwa 11548x8661) Foto auf bspw. 3m Diagonale hat etwa 120ppi und damit weniger als das Smartphone. Der Rest ist EGAL. Das Bild auf der Plakatwand wäre nur in diesem Fall so scharf wie auf dem Handy, wenn es ebenfalls die 300ppi moderner Handydisplays erreichen würde, was das für die MP des Fotos für Folgen hätte, kannst Du Dir selber ausrechnen.
 
@simons700

Vielleicht hilft das hier besser zu verstehen was ich meine. Ohne jetzt groß mit Zahlen umzuwerfen geht es mir nur um die Bildqualität (Schärfe), da die Pixeldichte höher ist.
 

Anhänge

  • 4K Beispiel.jpg
    4K Beispiel.jpg
    335,3 KB · Aufrufe: 521
deathscythemk2 schrieb:
@simons700

Die Frage ist doch, was klein und groß ist.

1920 * 1080 @ 23" = ~96ppi
4096 * 2304 @ 23" = ~204ppi

4096 * 2304 @ 60" = ~78ppi

Die Pixeldichte ist mess- und berechenbar, aber natürlich nicht der einzige Faktor für die subjektive Schärfe eines Displays.


Ja und trotzdem ist der 60"/4K Monitor schärfer als der mit 23" und 1080p
 
Fahr doch mal zu Mediamarkt und schau dir die tollen Perviw Bilder auf den Samsung 4K Fernsehern an.
Lade dir das gleiche Bild auf dein 1080p Smartphone und halte es so dass aus deinem Blickwinkel beide Displays optisch die gleiche Größe haben.
Du wirst sehen dass der Fernseher mit 70ppi ein schärferes Bild macht als dein Smartphone mit 400ppi.
 
Zurück
Oben