News AMD Fiji: Weitere Details zur Radeon R9 Fury X, Fury und Nano

Hujax schrieb:
Und Wie! Hatte eigentlich mit der 970 gehofft, dass die Sache gegessen ist... im November! Seit Feb. warte ich :freak:

Da hält aber jemand tapfer durch. :freaky: Man könnte sich auch einfach im Marktplatz für ca. 40-70€ eine beliebige Fermi holen, die als Notgrafikkarte noch taugt und mit der 8800GTS 512 den Boden wischt. :freaky:
 
Robo32 schrieb:
Dummerweise setzen die besseren Kühler auf Axiallüfter womit das mit der Lautstärke erledigt wäre - bleibt noch die Temperatur und diese ist mir weitgehend egal da die abgegebene Wärmeenergie gleicht bleibt (verringerter Verbrauch wegen tieferen Temperaturen ausgenommen).

Hmm verstehe zwar nicht ganz deine Argumentationskette, aber mir ist die Temperatur nicht egel, da bei geringeren Temps weniger Strom verbraucht wird und zusätzlich mehr OC-Potential vorhanden ist.
Um an die Leistung einer AIO zu kommen, reicht ein Axialkühler der Partnerkarten bei weitem nicht aus. Da bedarf es schon eines Acceleros/Morpheus oder Ähnlichem.
 
@Banger
ich hatte vorrübergehend 2x eine 290 für ca 3 wochen (amazon warehouse) da, einmal vapor oc und trix oc. vapor hatte grafikfehler. später das schnäppchen mit der trix, leider friete der rechner im desktop betrieb ein und warf einige Male bluescreens.
kurz: Danke ;) aber ich werde diesen marathon hoffentlich mit der fury x oder fury beenden. ich zähle stark auf die fury x, ein monat mehr und ~100€ unterschied machen den braten nicht mehr besser xD
spart mir dann auch wieder die zeit und nerven des weiteren suchen!
 
Zuletzt bearbeitet:
chithanh schrieb:
Für neuere Monitore ist MST überflüssig und 4K@60 Hz geht auch mit SST. Die Radeon 6950 sollte das definitiv können, ebenso wie Kaveri und Carrizzo. Vielleicht ist dein DP-Kabel nicht geeignet für den HBR3-Transfermodus.

eben nicht ;)

Guggst du hier:
http://www.heise.de/ct/meldung/AMD-Kaveri-Feinheiten-aus-den-Datenblaettern-2088349.html

und hier
http://www.hardwareheaven.com/community/threads/amd-hd-6xxx-series-and-4k-displays.226759/

SST geht ab der HD7XXX aber bis heute nicht bei den APU.

Via Displayport 1.2 sind es 3840 × 2160 bei 30 Hz oder per Multistream-Transport (MST) auch 2 × 1920 × 2160 bei 60 Hz.

All because MST is supported on a HD 6xxx graphics card via display port... but apparently SST is not..... This still somewhat baffles me how something more complicated works fine yet something straight forward has been overlooked...

blöd wenn man kein MST mehr am Display hat, wie eben mein Philips oder die neuen Samsungs. Mit ein Grund weshalb ne neue GPU drängt :P
 
Zuletzt bearbeitet:
Krautmaster schrieb:
es ging um TVs die seit bereits einem Jahr mit HDMI 2.0 daherkommen und bis Ende des Jahres kaum ein "non 4K" Gerät mehr über die Ladentheke gehen dürfte ;)
Selbst viele 4K TVs haben nur HDMI 1.4 Für Bluray usw. macht das eben kaum einen Unterschied. HDMI 2.0 haben nur aktuelle TVs.
 
richtig, von den 2014er und 2013er haben einige HDMI 1.4, aber wie isch schon postete über 203 Modelle HDMI 2 und in Zukunft auch nichts anderes. Ab 420€... 4k @60hz. HDMI 2.0 ist da bereits standard, darüber braucht man wenig diskutieren. Obs für jemand von Relevanz ist bleibt Einzelfall ... wie immer.
 
Lübke82 schrieb:
Wieso nur Dx 12_0 und nicht 12_1? Maxwell 2.0 ist nun schon ein dreiviertel Jahr auf den Markt und AMD liegt da schon zurück mit den Featurelevel? Klasse AMD.
Bei DX 11.1 war es Nvidia und nun halt AMD.
 
Krautmaster schrieb:
blöd wenn man kein MST mehr am Display hat, wie eben mein Philips oder die neuen Samsungs. Mit ein Grund weshalb ne neue GPU drängt :P

bei der Lebensdauer der Samsung Bildschirme sind die unterstützten Features eh egal. Kurz nach der Garantie kauft man eh häufig nen neuen ;) Dann kann man ja einen passend zur Grafikkarte besorgen

Da nerven mich meine drei iiyama schon fast, weil die seit 2008 bzw. 2010 einfach nicht kaputt gehen wollen, so dass endlich mal eine höhere Auflösung zwangsweise her muss.
 
Krautmaster schrieb:
HDMI 2.0 ist da bereits standard, darüber braucht man wenig diskutieren. Obs für jemand von Relevanz ist bleibt Einzelfall ... wie immer.
Eben einzelfall und komischerweise spielen alle erst seit fehlen von HDMI 2.0 am UHD TV.:evillol:
 
Tomsenq schrieb:
Eben einzelfall und komischerweise spielen alle erst seit fehlen von HDMI 2.0 am UHD TV.:evillol:

Ist doch ganz klar, drei,vier Leute im CB-Forum machen die Masse der Spieler aus :D

Die, die einen PC wie einen PC benutzen, sollen sich gefälligst nicht so breitmachen mit ihrem "Interessiert mich überhaupt nicht" und gefälligst ne völlig überteuerte Titan X kaufen und sich auf den Boden vor den Fernseher setzen :lol:
Mich wundert, dass sich noch keiner über die viel zu vielen Display-Port Anschlüsse aufregt: "Warum sind das nicht alles HDMI 2.0??? ICH spiele auf drei Fernsehern und ich finde das totalen Scheiß, total am Markt vorbei" :D
 
Schaby schrieb:
Dennoch bei 4k Monitoren von einer großen Auswahl zu reden halte ich für übertrieben. Auch wenn es knapp 50 Monitore gibt, gibt es in Wirklichkeit nur einen der wirklich für 4 k zu gebrauchen ist, weil die anderen einfach zu klein sind.

Und ich rede hier von Gaming, frag mal Hisn, der den 39er Phillips hat, ob er sich vorstellen kann, 4k auf einen kleineren Monitor zu spielen.

https://geizhals.at/?cat=monlcd19wide&xf=5137_3440x1440~5137_3840x2160~5137_4096x2160~99_34#xf_top

HDMI 2.0 (1)
DisplayPort (12)

https://geizhals.at/philips-bdm4065uc-bdm4065uc-00-a1201936.html?hloc=at
Falls Hisn diesen hier hat, hat dieser nicht mal HDMI 2.0, soviel dazu

https://geizhals.at/dell-ultrasharp-u3415w-210-adys-a1052362.html?hloc=at
Der Dell hier ist der einzige mit HDMI 2.0 über 34 Zoll. Somit wird man auch hier eher zu Display Port "setzten".

Somit HDMI 2.0 ist für jene interessant, die einen Fernseher anstecken kann. Dann sollen eben diese Personen ein Adapter nehmen und wenn das nicht akzeptabel ist müssen sie wohl zu NV setzten. Dass es nur bei Fijii aber ein HEVC Unterstützung gibt, ist dann nicht wichtig, da wurde ja das Argument gebracht, dazu hat man ja eine starke CPU !
 
Danke AMD, jetzt darf ich mir 3 DP zu VGA Adapter kaufen um mein Tripple 17" CRT Setup zu befeuern....

Ich find es ebenfalls ziemlich skurril, wie plötzlich jeder auf nem 4k@60Hz spielen will. G-Sync interessiert den Nvidia Fanboy gar nicht mehr?

Aber echt schade für AMD um die Leute, die jetzt nur wegen fehlendem HDMI2.0 nicht von einer GTX980Ti auf Fury X umsteigen...scheinen ja ziemlich viele vorgehabt zu haben :freak:
 
@pipip: Hör auf damit logische Argumente zu liefern :evillol:
Das bringt das grüne Lager nur dazu neue Sachen zu finden wie z.B. "Die Karten sind viel zu klein, da sieht man ja durch das Fenster gar nicht die Leistung" :lol:
 
Dai6oro schrieb:
Das wird schon möglich sein. Die r9 295x haben sie auch relativ leise bekommen mit 120er Radi und zwar bei 2x Hawaii. Ebenso hier http://www.tomshardware.de/r9-290-umbau-wasserkuhlung-review-tutorial,testberichte-241464.html. Es kommt sicher nicht an ne richtige Wakü ran aber besser als Luft wird die Lösung definitv sein.

Aber die etwa 38 Watt Unterschied zwischen Referenz- und Wasserkühlung dürften dann zumindest eine erste Orientierung sein, wie viel Leistungsaufnahme bei den R9 290(X) völlig unnötig erfolgt, nur weil die originale Kühlung auf ganzer Linie versagt.

Eine gute Kühlung macht bei Hawaii durchaus was aus. Ich habe übrigens den Kraken G10 mit einem 240mm Radiator gekopelt. Die GPU und auch die RAM Chips sind deutlich kühler und die zwei 120 mm Lüfter laufen auf einem Minimum. Wenn man will, kann man die AMD Grafikkarten sogar um noch mal 50-100mV undervolten. Damit holt man noch mal etwas mehr Referenz raus.
Besonders interessant wäre mal ein Test zu sehen, was aus den jetztigen R9 noch durch undervolting und Takt Anpassung drinnen ist. Klar macht das keiner, aber jeder kann den Takt und die VCore auch runtersetzten und somit den Verbrauch senken, der bei AMD traditionell meist einfach zu "hoch" gegriffen ist.
Im Endeffekt einen auf "Nano" machen.
Soviel ich gelesen habe, ist Undvolting aktuell nur bei AMD Karten möglich. Stimmt das ? Oder ist das ein Gerücht ?
Aber wie gesagt, keiner macht das, weil am Ende doch jeder lieber "mehr" Leistung will oder die Arbeit nicht machen will. OEM werden das selten machen, weil der Aufwand zu hoch ist und auch die Güte der Chips besser aussortiert werden muss, im Gegenteil, manche R9 290 OEM Modelle hatten sogar einen leicht erhöhten VCore im Vergleich zum Referenzmodell. Da wollte man die Güte noch mal "verbessern". Solche Details merkt man aber erst, wenn man sich wirklich damit beschäftigen möchte.
 
Zuletzt bearbeitet:
@r4yn3: :evillol: thumbs up für diesen Beitrag
Ergänzung ()

@DDai6oro & Pipip:
Ist ja auch nur logisch, je kälter, desto weniger Leckströme. Dadurch weniger Strom nötig für die selbe Leistung. Der Meister der Leckströme Pentium4/D kann ein Lied davon singen. Nur, dass bei der 29x zumindest eine ordentliche Leistung am Ende heraus kommt im Gegensatz zu den Netburst-CPUs
 
pipip schrieb:
Somit HDMI 2.0 ist für jene interessant, die einen Fernseher anstecken kann. Dann sollen eben diese Personen ein Adapter nehmen und wenn das nicht akzeptabel ist müssen sie wohl zu NV setzten.

Du fängst immer wieder an, aber nochmal, es gibt keinen Adapter der 60Hz kann! Würde es einen geben, würde ich nicht so einen Wirbel darum machen.

Wie wäre es wenn du meine Beitrage nochmal liest, Hdmi 2.0 ist nur für UHD-TVs interessant, da fast alle Grafikkarten einen DP 1.2 haben ist die Frage ob ein 4k Monitor einen Hdmi 2.0 Eingang hat überflüssig, da alle min. mit einem DP Eingang ausgestattet sind.

Wieviel Erfahrung hast du mit 4k? Ich für meinen Teil würde liebend gerne meinen UHD-TV auch mit 60Hz betreiben können und das geht halt z.Z. nur mit einer Grafikkarte die einen Hdmi 2.0 Ausgang hat. Und auch wenn ich eher die Ausnahme darstelle habe ich wohl eher das Recht hier meine Intressen zu vertreten als du der Wahrscheinlich keinen 4k Monitor oder UHD-TV im Betrieb hat und somit weder einen DP noch einen Hdmi 2.0 Ausgang an der Graka benötigt.
 
Schaby
Es ging nur um die Aussage, wieso AMD denn ihre Karten überhaupt mit 4k wirbt. Meine Antwort, weil viele User durchaus noch am Monitor spielen und hier aktuell DP 1.2 der Standard ist.
Wie ich schon schrieb, wenn kauf dir ein Adapter (wie sagst, gibt es den noch nicht, was ich lese erst später in diesem Jahr) oder kauf dir eine NV Karte und fertig.
 
The AMD Radeon™ Fury X is an enthusiast graphics card designed to provide multi-display 4K gaming at 60Hz.
In addition, Active DisplayPort 1.2a-to-HDMI 2.0 adapters are set to debut this summer. These adapters will enable any graphics cards with DP1.2a outputs to deliver 4K@60Hz gaming on UHD televisions that support HDMI 2.0.

An alle diese plötzlich massenhaft auftretenden angeblichen 4kTV-Gamer: Wer noch keinen Panasonic-Edel-TV mit DisplayPort 1.2a hat, sollte auf den passenden DisplayPort 1.2a-to-HDMI 2.0 Adapter warten, der 60Hz auch auf dem 4k-TV ermöglicht (z.B. von http://www.accellcables.com/ oder von BizLink (http://www.hardware.fr/news/09-01-2015/).
 
issenia schrieb:
Jup, 58° ist wirklich eine Ansage.
An die 50° die Fiji laut AMD erreichen soll, glaub ich allerdings auch nicht. Hersteller Angaben sind eigentlich immer geschönt. Ich vermute sie haben einen Mix aus allen möglichen Einstellungen für die Werte gewählt, was bei der Temperatur bedeuten kann, dass zwar eine "brauchbare" Auflösung bei einem fordernden Spiel gewählt wurde, aber dafür alles sonstige an Optionen runter gedreht wurde, damit die GPU nicht so warm wird.

Andererseits, soweit ich HBM verstanden habe, fehlt Fiji das interne Speicherinterface, da es an die Speicherstacks "verteilt" wurde, während das klassische Speicherinterface für sich schon eine deftige Wärmequelle sein ist.
Daher dürfte es schwer fallen, die Temperaturen der "klassischen" GPU mit integriertem Speicherinterface und Fiji, später auch Pascal, zu vergleichen.
Ergänzung ()

rg88 schrieb:
Ist doch ganz klar, drei,vier Leute im CB-Forum machen die Masse der Spieler aus :D
...
Dann müssen wir nur noch rausfinden, wer von den Dreien der (Heise) Troll pn ist...
http://www.heise.de/forum/heise-online/News-Kommentare/AMD-Radeon-R9-Fury-X-Mit-Wasserkuehlung-und-8-6-TFlops/Kein-HDMI-2-0-Schade-aber-k-o-Kriterium/posting-20918669/show/


Und wie schon einmal von mir erwähnt, in vielen Foren gibt es seit ein paar wenigen Tagen die "Beschwerde", dass mit der Karte nicht 4k@60Hz an der Glotze rennt... Ein Thema, von dem ich persönlich noch nie gehört habe...

... sicherlich auch mangels Interesse... weil... Windows...

Bei der Auflösung würde ich an Windows nicht bei unter 3Meter Diagonale denken... und das nur, um dann etwa 6 bis 7 Meter entfernt zu sitzen...? Wenn diese Leute wenigstens vom Mac reden würden, da Icons und Schrift im Desktop Bereich nicht auf Erbsen Größe schrumpfen.
 
Hm? Mit Windows 8.1 kann man doch alles recht passabel "aufblasen"? Also an icons oder Schrift sollte es eigentlich nicht scheitern.
 
Zurück
Oben