News AMD Radeon Fury X: Fiji XT im 3DMark auf Augenhöhe mit GTX Titan X

Corypheus schrieb:
Was denken die sich eigentlich bei AMD da kein HDMI 2.0 einzubauen?

Im Gegensatz zur anscheinend landläufigen Meinung spielen die wenigsten Leute auf 4K Fernsehern. Ich selber habe an meinem privaten PC noch nie ein Display per HDMI angeschlossen. Der kann gerne an den Konsolen bleiben oder meinetwegen HTPCs.
Ein HDMI an einer Highendkarte war für mich schon immer ein vergeudeter Anschluss.

4K-Monitore nutzen richtigerweise den DP 1.2. Die paar Leute, die wegen fehlendem HDMI 2.0 auf die Karten verzichten können AMD imho auch egal sein. Interessant wird das ab der nächsten Generation, wenn vllt. richtig Leistung für 4K vorhanden ist.
 
hrafnagaldr schrieb:
Im Gegensatz zur anscheinend landläufigen Meinung spielen die wenigsten Leute auf 4K Fernsehern. Ich selber habe an meinem privaten PC noch nie ein Display per HDMI angeschlossen. Der kann gerne an den Konsolen bleiben oder meinetwegen HTPCs.
Ein HDMI an einer Highendkarte war für mich schon immer ein vergeudeter Anschluss.

4K-Monitore nutzen richtigerweise den DP 1.2. Die paar Leute, die wegen fehlendem HDMI 2.0 auf die Karten verzichten können AMD imho auch egal sein. Interessant wird das ab der nächsten Generation, wenn vllt. richtig Leistung für 4K vorhanden ist.

Bei mir werden 4 Anschlüsse der Grafikkarte verwendet. Mit HDMI 2.0 hätte ich deutlich mehr freiheit bei der Auswahl der Grafikkarte. Mag ja sein das HDMI 2.0 für full hd nicht gebraucht wird, aber das wurde HDMI 1.4b auch nicht, dennoch hat sich das schnell als standard durchgesetzt, ich verstehe einfach nicht was so schlimm ist HDMI 2.0 zu verwenden, da es das ja auch schon seit ende 2013 gibt es in sachen Technik einfach auch nicht neu. Versteh mich nicht falsch, ich verwende für 4k auch lieber DP 1.2 allerdings bin ich der Meinung das es dennoch eine schwache Leistung ist mit dem neuesten zu werben und dann alte Anschlüsse verwenden.
 
Sehe jetzt hier das Problem mit HDMI 2.0, zukünftig wird doch jede SoC/APU von Intel und AMD HDMI 2.0 Unterstützen, ... Braucht es da dann wirklich den Anschluss noch an der dGPU, damit kann das Filme schauen mit deaktivierte dGPU erfolgen. Klar für die welche am heute noch nicht ausgereiften 4k TV zocken wollen ist es ärgerlich. Es ist eine eindeutige aussage von AMD sie sehen die TV als nicht zum Zocken geeignet und setzt daher auf DP mit free sync, HDMI 2.0 wird wohl erst mit vorhandenem variablen Frameraten auf AMD Karten unterstützt werden. Je nachdem wie Lange es dauert das in den Standard einzubringen vergehen 1-2 Jahre.
 
Wer aufm Fermseher zocken will, der soll sich eine Konsole kaufen; der PC gehört aber an einen Monitor, vorzugsweise mit DP (nett ausgedrückt).
 
Intelligentester Beitrag bisher an diesem Samstag, von Schnitzel. Wie war das? Diskutier nicht mit Holz? Schönen Tag noch.
 
kisser schrieb:

Man braucht für Freesync keinen HDMI2.0, der wird nur in Verbindung mit Fernsehmonitoren genutzt und auch da gibt es Varianten mit DP.
hDMI 2.0 wird zu 99,9% nicht benötigt, außer von den Leuten die an einem 4K Fernseher der 60 Hertz unterstützt spielen wollen, nebenbei auch für Fernseher großem Inputlag, die Zielgruppe ist also mehr als klein, daher sehe ich den Makel ehrlichgesagt nicht.
 
@luda
Mir gehen solcherlei Beiträge auch inzwischen ziemlich auf den Kecks und ich hab immer nichts in der Art zurückgeschrieben, aber irgendwann sehe ich es auch nicht mehr ein.
Da muss ich dann halt auch mal in dieser Art zurückschreiben - ist sonst echt nicht meine Art.
 
Zuletzt bearbeitet: (Wort "hab" vergessen)
Morten75 schrieb:
Man braucht für Freesync keinen HDMI2.0,

Das ist richtig. Dennoch ist es inkonsequent von AMD. So kann man dann Freesync bei 4k nur über DP nutzen und bei HDMI ist man auf kleinere Auflösungen beschränkt.
Warum nutzt man nicht gleich die Gelegenheit und bietet Freesync für 4k über DP und HDMI an?
 
Weil Produkte nunmal nicht alles haben können und fehlendes HDMI 2.0 vielleicht ein Schönheitsfehler ist, aber Gaming sogut wie gar nicht interessiert.
Wer kein HDMI hat, kann ja immernoch auf einen Adapter umsteigen, die sollen auch noch dieses Jahr kommen.
 
Ich sagte ja nicht, dass HDMI 2.0 für jeden ein Muss ist. Ich brauche das auch nicht.

Aber kannst du dir vorstellen, dass es Leute gibt, die am TV auch Videos über den PC abspielen oder mit einem TV als Monitor-Ersatz arbeiten? Ich kann das, weil meine Sicht nicht auf die eigenen Bedürfnisse eingeschränkt ist.
 
kisser schrieb:
Ich sagte ja nicht, dass HDMI 2.0 für jeden ein Muss ist. Ich brauche das auch nicht.

Aber kannst du dir vorstellen, dass es Leute gibt, die am TV auch Videos über den PC abspielen oder mit einem TV als Monitor-Ersatz arbeiten? Ich kann das, weil meine Sicht nicht auf die eigenen Bedürfnisse eingeschränkt ist.

Ach die Menge an Leuten mit 4k TV ist nochmal deutlich geringer als mit 4k Monis.
Also nicht aus ner Mücke mehr drauß machen :)
 
Für Videos und TV reichen 30 Hertz ja aus, wenn jemand sowas denn wirklich machen möchte. ??
Versteh halt nicht warum man da so lange drauf herumreitet.

Oder man kauft sich einen TV mit DP Anschluss, die wenigsten 4K TV´s können im übrigen 60 Hertz.
 
Tappy schrieb:
Ach die Menge an Leuten mit 4k TV ist nochmal deutlich geringer als mit 4k Monis.
Also nicht aus ner Mücke mehr drauß machen :)

Das glaube ich nicht. Alle neueren Modellreihen die nicht im Billigsegment sind haben UHD- Auflösung. Der TV-Markt ist gigantisch, es dürfte inzwischen mehr Besitzer eines solchen TVs geben als Leute mit einem 4K-Monitor. Im Monitor Markt ist 4K nur eine Randerscheinung was Anzahl der Modelle und Preise anbelangt.
Das soll jetzt nicht heißen, dass ich das fehlende HDMI 2.0 super schlimm finde.
 
Aber welche Relevanz spielen diese TV Geräte? Fast gar keine. Nur weil sich hier 5 Leute melden die behaupten sie bräuchten HDMI 2.0 um auf dem Fernseher zu zocken, was ich zum Teil anzweifel, ist das nicht wirklich relevant als Zielgruppe.
 
iHabAhnung schrieb:
300 - 400 € Midrange / Performance mit 4 (3,5) GB GDDR5 von 2014 = Größter "VRAM"-Krüppel in der Geschichte externer Grafikbeschleuniger, da Skyrim mit 1337 Mods mehr Speicher belegt.

700 - 900€ High End mit 4 GB HBM von 2015 = Mehr als nur ausreichend, erst recht für 4k Ultra Settings. Alles, was mehr als 4 GB braucht, ist automatisch ein billiger Konsolenport und ist somit irrelevant.

Diese AMD User - Logik...
You Made my day.


Genau so sehe ich das
 
Und die Nvidia Fanboy Logik dazu:

970: 3,5 GB reichen locker immer und in allen Lebenslagen, nur bei absolut unrealistischen Einstellungen und Settings kann man etwas provozieren was gar nicht da ist. 3,5 GB nur nutzbar aber 4 GB auf der Packung egal, die Karte ist Top und der VRAM reicht locker über die Jahre. Gerne auch im SLI :D Alles, was mehr als 3,5 GB braucht, ist automatisch ein billiger Konsolenport und ist somit irrelevant.

Fiji: Was nur 4GB Speicher auf einer High End Karte, das ist viel zu wenig und 4K damit praktisch nicht nutzbar. Nachladeruckler sind damit schon vorprogrammiert und damit größter fail ever. Andere Auflösungen würden mit so einer Karte doch gar nicht gespielt.

Jeder dreht und wendet sich eben so wie ers grade braucht.

PS: Imo sind derzeit alle Karten nicht für 4K geeignet. Und für Ultra @ 4K schon gleich 3x nicht.
 
Zuletzt bearbeitet:
Nun, wie ich das verstanden habe ist 4GB HBM nicht mit 4GB GDDR5 gleichzusetzen, da irgendwie HBM als Cache vom Prozessor mitarbeitet und der alles was drüber geht auf langsamere Segmete der Karte auslagert, die nicht weiter benannt sind, da sie ja nicht Nvidia sein wollen. Ka. Ich kann mich auch täuschen, aber anders kann ich mir auch nicht vorstellen wie man Dirt Rally mit einer Karte auf 3 4k Monitoren mit 60hz. zum laufen bekommt. Link wo es hinführt http://wccftech.com/amd-fury-x-tested-12k-60fps/

Zu HDMI 2.0:
Ich finde nicht das man sich eine Konsole kaufen sollte wenn man auf einem Fernsehen zocken möchte. Da ich der Meinung bin das ein PC alles können soll, einschließlich das was eine Konsole kann. Warum dann also nicht auf einem Fernsehen zocken? Oder ein 4k Monitor mit HDMI 2.0 anschließen? HDMI 2.0 überträgt auch die 18,.. GB/s das es für 4k 60hz reicht, warum also den Leuten nicht die Freiheit lassen es anzuschließen wie man Lust hat. Gerade bei AMD verstehe ich das halt nicht, da die ja immer selbst gern sagen das Einschränkungen in der PC-Welt scheiße sind. Aber vll. finden die das auch nur scheiße wenn es Gameworks ist das AMD einschränkt.

Naja, egal Mal sehen was die Coustom-Designs bringen.
 
von Schnitzel schrieb:
Wer aufm Fermseher zocken will, der soll sich eine Konsole kaufen; der PC gehört aber an einen Monitor, vorzugsweise mit DP (nett ausgedrückt).

Tellerrand und so. Mit Controller und Fernseher sind Rennspiele (steinigt mich nicht aber ich will kein 400€ Lenkrad kaufen) und RPGs viel entspannter vom Sofa aus. Maus und Tastatur samt Bildschirm sind schließlich auch vorhanden und werden fleißig für Shooter missbraucht ;)
Ergänzung ()

kisser schrieb:
Das ist richtig. Dennoch ist es inkonsequent von AMD. So kann man dann Freesync bei 4k nur über DP nutzen und bei HDMI ist man auf kleinere Auflösungen beschränkt.
Warum nutzt man nicht gleich die Gelegenheit und bietet Freesync für 4k über DP und HDMI an?

Weil die HDMI Lösung für Freesync noch in Entwicklung ist...
 
Dai6oro schrieb:
Jeder dreht und wendet sich eben so wie ers grade braucht.
Witzig sind jetzt die AMD Jungs, die gleichzeitig die 8GiB der 390X loben und die 4GiB der Fury schön reden.

PS: Imo sind derzeit alle Karten nicht für 4K geeignet. Und für Ultra @ 4K schon gleich 3x nicht.
Imo sind schon lange alle Karten für 4k geeignet. Nur die Hersteller und Presse lassen einen glauben, das es immer maximale Details sein müssen.

Corypheus schrieb:
Nun, wie ich das verstanden habe ist 4GB HBM nicht mit 4GB GDDR5 gleichzusetzen, da irgendwie HBM als Cache vom Prozessor mitarbeitet und der alles was drüber geht auf langsamere Segmete der Karte auslagert, die nicht weiter benannt sind, da sie ja nicht Nvidia sein wollen.
Dank HBM braucht man weniger große platzfressende Caches, hat also mehr Platz für andere Dinge, aber das wars dann auch schon. Wenn der Speicher voll ist wird über PCIe ausgelagert und das ist immer lahm.
 
Zuletzt bearbeitet:
Zurück
Oben